IA rende studenti troppo sicuri: studio Carnegie Mellon

upday.com 6 godzin temu

Gli studenti che utilizzano l'intelligenza artificiale mostrano un comportamento paradossale: tendono a sentirsi più sicuri di sé anche quando non ottengono buoni risultati nei compiti assegnati. È quanto emerge da uno studio della Carnegie Mellon University (CMU) che ha analizzato l'interazione tra esseri umani e modelli di linguaggio di grandi dimensioni.

"Gli studenti che utilizzano i Large Language Models non hanno fatto lo stesso", ha detto Cash, autore principale dello studio. "Tendevano, semmai, a sentirsi più sicuri di sé, anche quando non ottenevano buoni risultati nel compito".

Ricerca durata due anni

Il mondo dell'intelligenza artificiale cambia rapidamente ogni giorno, rendendo difficile trarre conclusioni generali sulle sue applicazioni, ha riconosciuto Cash. Tuttavia, un punto di forza dello studio è il fatto che i dati sono stati raccolti nell'arco di due anni.

Questo ha comportato l'utilizzo di versioni costantemente aggiornate dei modelli di linguaggio noti come ChatGPT, Bard/Gemini, Sonnet e Haiku. Ciò significa che un eccesso di fiducia nell'intelligenza artificiale è stato rilevabile in diversi modelli nel corso del tempo.

Sicurezza ingiustificata dell'IA

"Quando un'intelligenza artificiale dice qualcosa che sembra un po' sospetto, gli utenti potrebbero non essere scettici quanto dovrebbero", ha spiegato Danny Oppenheimer, professore presso il Dipartimento di scienze sociali e decisionali della CMU e coautore dello studio. Il problema nasce dal fatto che l'intelligenza artificiale afferma la risposta con sicurezza, anche quando tale sicurezza è ingiustificata.

"Gli esseri umani si sono evoluti nel tempo e hanno imparato fin dalla nascita a interpretare i segnali di sicurezza che trasmettono gli altri esseri umani", ha affermato Oppenheimer. "Se aggrotto la fronte o rispondo lentamente, potreste capire che non sono necessariamente sicuro di quello che sto dicendo".

Mancanza di indizi interpretativi

Con l'intelligenza artificiale, invece, non esistono molti indizi sul fatto che sappia davvero di cosa sta parlando. Questa mancanza di segnali non verbali può portare gli utenti a fidarsi eccessivamente delle risposte fornite dai sistemi di intelligenza artificiale, anche quando queste potrebbero essere errate o imprecise.

Fonte AGI (www.agi.it) Nota: questo articolo è stato rielaborato da UPDAY con l'ausilio dell'intelligenza artificiale.

Idź do oryginalnego materiału