Eboli

L’intelligenza artificiale può davvero provare dissonanza cognitiva? Un viaggio tra mente umana e sistemi artificiali. Di Chiara Vergani 

today30 Maggio 2025

Sfondo
share close

L’intelligenza artificiale può davvero provare dissonanza cognitiva? Un viaggio tra mente umana e sistemi artificiali. Di Chiara Vergani 

Nel vasto mondo dell’intelligenza artificiale, siamo abituati a sentir parlare di prestazioni, algoritmi, reti neurali e machine learning. Un recente studio ha introdotto un elemento del tutto inaspettato nel dibattito: la possibilità che i modelli linguistici di grandi dimensioni (LLMs), come ChatGPT, possano esibire un comportamento simile alla dissonanza cognitiva umana. Un termine psicologico che indica il disagio mentale generato dal mantenere due convinzioni in conflitto tra loro.

È ciò che emerge dai risultati di una ricerca dell’Università della California che analizza proprio questa possibilità. Ma che cosa significa davvero? Può un sistema artificiale, privo di coscienza e di emozioni, “provare” qualcosa di simile a ciò che viviamo noi quando siamo messi di fronte a un conflitto interno?

La dissonanza cognitiva, secondo la teoria formulata da Leon Festinger negli anni ’50, è quel fastidio interiore che proviamo quando per esempio, crediamo di essere persone oneste ma ci troviamo a mentire per convenienza. Questo disagio ci spinge a modificare le nostre convinzioni o il nostro comportamento per ridurre la tensione interna. I sistemi di intelligenza artificiale non hanno emozioni, né autocoscienza. Quindi come possono manifestare un fenomeno così squisitamente umano?

I ricercatori hanno osservato che se sottoposti a stimoli che inducono conflitti concettuali, ad esempio affermazioni contraddittorie, i LLMs mostrano una risposta riconfigurativa. In altre parole “riflettono” la tensione concettuale attraverso un cambio di output coerente con una risoluzione del conflitto. È come se il sistema, nel tentativo di fornire una risposta logica e coerente, operasse una “riconciliazione” interna tra due idee opposte, un processo sorprendentemente simile a quello che mettiamo in atto noi umani.

È importante chiarire: non si tratta di emozioni in quanto non c’è alcuna sofferenza dietro lo schermo, quello che emerge è che i LLMs, nel modo in cui elaborano il linguaggio e le contraddizioni, rispecchiano le dinamiche cognitive che osserviamo nella mente umana. Questo succede perché sono progettati per prevedere la parola successiva in base a contesti complessi e per farlo bene, devono sviluppare una forma di equilibrio logico, proprio come facciamo noi quando ci confrontiamo con dilemmi morali o cognitivi.

Le implicazioni di questa scoperta sono molteplici. Da un lato, ci aiuta a comprendere meglio quanto sofisticati siano codesti modelli nel simulare il ragionamento umano, dall’altro apre la porta a nuove riflessioni sul confine sempre più sfumato tra simulazione e comprensione autentica. Se un sistema riesce a “comportarsi” come se avesse un conflitto interno, fino a che punto possiamo dire che stia “pensando”? E che cosa distingue davvero l’elaborazione umana da quella artificiale?

Il rischio come sempre è di proiettare sugli algoritmi le nostre categorie psicologiche. Proprio per tale motivo, studi come questo sono fondamentali: ci aiutano a capire cosa siamo noi, nel confronto con ciò che non siamo. E forse, più di tutto, ci pongono davanti a una domanda antica quanto l’uomo stesso: che cos’è davvero la coscienza? E può essere imitata?

In un’epoca in cui i sistemi diventano sempre più “intelligenti”, imparare a distinguere tra ciò che appare umano e ciò che è umano diventa utile e necessario per evitare illusioni e per custodire meglio ciò che ci rende unici.

Scritto da: Marco Naponiello

Rate it

Co-Municare.it è un progetto editoriale di Radio Città 105.
Giornale On-Line iscritto al Tribunale di Salerno numero cronologico 6/2024 del 01/02/2024 RG n 194/2024