Chi l’avrebbe mai detto che abbiamo in comune con l’intelligenza artificiale anche il modo di sbagliare un ragionamento?

Studiando il fenomeno dell’allucinazione dell’Intelligenza Artificiale, mi sono reso conto che molte delle cause che portano uno strumento come ChatGPT o Google Bard a fallire sono comuni alle cause per cui a volte dei ragionamenti di nostri consimili umani ci sembrano sciocchezze enormi.

In gergo si chiama l’allucinazione, e vede un errore nell’elaborazione dei dati da parte della macchina, oppure un tentativo di inventare una risposta di sana pianta per “farci contenti” mentre interroghiamo l’intelligenza artificiale.

Ora, proviamo a chiederci, cosa causa questi problemi negli esseri umani?

Quando ho letto le cause di questa disfunzione nei robot, ho trovato delle incredibili somiglianze.

Cause dell’allucinazione nell’intelligenza artificiale

Principalmente le “allucinazioni” nell’intelligenza artificiale sono causate dall’addestramento su dati imperfetti o limitati: l’IA generativa apprende dai dati forniti durante la fase di addestramento. 

Se questi dati sono inaccurati, parziali, o contengono errori, il modello può sviluppare una comprensione distorta o incompleta dell’argomento o del compito. 

Oppure, possiamo avere l’overfitting: si verifica quando un modello di IA è troppo ottimizzato per i dati di addestramento e perde la capacità di generalizzare a nuove situazioni. 

Tradotto in errori di comprensione umana: potremmo parlare di eccessiva specializzazione accademica? Quella che porta alla mancata apertura mentale, necessaria invece per accogliere le nuove scoperte quando capitano.

Oppure, vi sono dei limiti dell’IA nell’elaborazione del linguaggio naturale.

Nei modelli di IA che si occupano di linguaggio, l’allucinazione può verificarsi a causa della complessità intrinseca delle lingue umane, che includono ambiguità, metafore, espressioni idiomatiche et similia. 

Qui potremmo parlare delle difficoltà cognitive dell’individuo umano, che se non gestite portano a una povertà nell’elaborazione delle informazioni.

Infine, se i dati di addestramento sono distorti, l’IA potrebbe rispondere a sua volta in modo distorto. 

Qualcuno ha detto lavaggio del cervello, per caso?

Qualcuno ha detto complottismo, propaganda e radicalizzazione?

Penso di essere in un secolo meraviglioso e credo che questi strumenti ci daranno tanto materiale interessante su cui riflettere in futuro.