di Elisa Stama

Quali sono le differenze tra la mente umana e l’intelligenza artificiale? Il confine tra le due è labile, o ci sono fattori che le separano completamente?
Nel secolo scorso l’uomo ha tentato di ideare metodi che distinguano una macchina da un umano in maniera incontestabile. Il più noto tra questi è il test di Turing, ideato dal matematico e crittografo inglese Alan Turing. In questo test un valutatore umano interagisce tramite messaggi di testo con una macchina e con un umano, senza sapere chi sia chi. Se in seguito ad una serie di domande, il giudice non riesce a differenziare la macchina dall’uomo nella maggioranza dei casi, allora questa macchina è considerata intelligente, poiché esibisce un comportamento indistinguibile da quello umano.
Le versioni più recenti di alcune AI superano questo test, in condizioni specifiche quando istruite ad imitare il modo di conversare di una persona.
Ad esempio, i modelli linguistici avanzati GPT-4.5 di OpenAI e Llama-3.1 405B di Meta hanno superato questo test, mostrando come con l’avanzamento della tecnologia l’intelligenza artificiale sia sempre più vicina e simile all’uomo.

Ma ci sono anche molte differenze che separano l’intelligenza degli uomini da quella di queste macchine.
Innanzitutto, c’è da considerare ciò che sta alla base della somiglianza tra le risposte dell’AI e quelle date dalle persone: gli LLM (Large Language Model). Un LLM, o modello linguistico di grandi dimensioni, è un tipo di intelligenza artificiale avanzata in grado di comprendere, generare e interpretare il linguaggio umano naturale. Addestrati su enormi quantità di testo e dati, questi modelli possono elaborare informazioni, riassumere testi, tradurre lingue e rispondere a domande, simulando le capacità cognitive umane.
Queste AI generano risposte che riproducono senza consapevolezza sequenze di parole, la cui efficacia nel rispondere ad una richiesta è semplicemente calcolata in modo statistico: la pertinenza della risposta e la sua affidabilità dipendono solo dal numero di volte che un dato è stato reperito tra il materiale di apprendimento.
ChatGpt opera attraverso miliardi di parametri, che entrano in relazione tra loro per rispondere con accuratezza alle nostre domande, dandoci l’impressione che la macchina, rispondendo, abbia previamente compreso la domanda; ma questa mette insieme i simboli secondo dei comandi pre-impostati, senza sapere perché lo sta facendo e non ne comprende realmente il significato.
Questo vuol dire che ogni parola è calcolata statisticamente in base alla precedente, senza coscienza di quello che viene generato, portando spesso ad allucinazioni, ovvero inventando informazioni false ma ripetendole con tono convincente. Per questo motivo è stata introdotta un’espressione che indica l’intelligenza artificiale come “pappagallo stocastico”, sottolineando come essa replichi senza una capacità di intendere veramente quanto detto, proprio come un pappagallo.
Ci sono anche altre importanti differenze oggettive: l’uomo ha una bussola etica e morale per le proprie decisioni, e soprattutto prova emozioni; l’AI, nelle proprie affermazioni, può simulare empatia e sentimenti anche in maniera indistinguibile da quella umana, ma ciò non toglie il fatto che non li possiede, allo stesso modo in cui non ha un’etica propria, in quanto agisce seguendo un codice.
Proprio per questo ad una macchina non è possibile attribuire desideri personali o pulsioni, strettamente collegati al sistema limbico umano. La finitezza e fragilità della natura biologica umana rendono la percezione soggettiva qualcosa di irripetibile da un qualunque meccanismo o algoritmo. Per quanto un’AI possa simulare, attraverso una risposta, la comprensione di un desiderio o di una percezione, questi appartengono alla sfera sensoriale e della coscienza, a cui al momento nessun modello si collega.

Questo, ovviamente, per quanto riguarda il livello attuale della tecnologia a cui si è giunti. Ma è difficile stabilire se in futuro questi elementi cambieranno: chi sa se un giorno la scienza progredirà a tal punto da consentire di creare una coscienza non umana; già adesso, modelli avanzati di LLM iniziano a distaccarsi dalla definizione di “pappagalli stocastici”, come ad esempio Alpha Evolve di Google, che ha la capacità di migliorarsi autonomamente e scoprire cose non fornite precedentemente nei dati.

Quindi, con l’attuale velocità esponenziale dell’avanzamento tecnologico, si potrebbe supporre che l’AI si avvicinerà ai ragionamenti umani tanto da sviluppare una sorta di consapevolezza di sé? Con il tempo gli LLM acquisiranno sempre più informazioni sulle emozioni e percezioni umane. Per adesso questi non comprendono veramente la semantica dietro alle parole; ma c’è un punto oltre al quale l’algoritmo avrà talmente tante informazioni che sarà impossibile dire che non abbia compreso? Naturalmente queste sono tutte domande centrali di un dibattito attualmente aperto sull’intelligenza artificiale, e non hanno ancora risposte certe.