HomeSaluteBiotecnologie e GeneticaAI: e se diventasse cosciente?

AI: e se diventasse cosciente?

Un robot a forma umana guarda lateralmente una persona.

AI-Immagine: comportamenti simili a quelli umani possono rendere difficile giudicare il reale livello di coinvolgimento dei robot. Credito: Johannes Simon/Getty-

La fantascienza ha a lungo preso in considerazione l’idea che l’intelligenza artificiale diventi cosciente: si pensi a HAL 9000, il supercomputer diventato cattivo nel film del 1968 2001: Odissea nello spazio. Con il rapido progresso dell’intelligenza artificiale (AI), questa possibilità sta diventando sempre meno fantastica ed è stata persino riconosciuta dai leader dell’intelligenza artificiale. L’anno scorso, ad esempio, Ilya Sutskever, capo scienziato di OpenAI, la società dietro il chatbot ChatGPT, ha twittato che alcune delle reti di intelligenza artificiale più all’avanguardia potrebbero essere “leggermente consapevoli” .

Molti ricercatori affermano che i sistemi di intelligenza artificiale non sono ancora al punto di coscienza, ma che il ritmo dell’evoluzione dell’intelligenza artificiale li ha portati a riflettere: come faremmo a sapere se lo fossero?

Per rispondere a questa domanda, un gruppo di 19 neuroscienziati, filosofi e informatici ha elaborato una lista di criteri che, se soddisfatti, indicherebbero che un sistema ha un’alta probabilità di essere cosciente. I ricercatori hanno pubblicato la loro guida provvisoria all’inizio di questa settimana nel repository di prestampa arXiv, prima della revisione tra pari. Gli autori hanno intrapreso lo sforzo perché “sembrava che ci fosse una vera carenza di discussioni dettagliate, empiricamente fondate e ponderate sulla coscienza dell’intelligenza artificiale”, afferma il coautore Robert Long, filosofo del Center for AI Safety, un’Organizzazione di ricerca senza scopo di lucro. a San Francisco, California.

Il team afferma che l’incapacità di identificare se un sistema di intelligenza artificiale sia diventato cosciente ha importanti implicazioni morali. Se qualcosa è stato etichettato come ‘conscio’, secondo la coautrice Megan Peters, neuroscienziata dell’Università della California, Irvine, “ciò cambia molto nel modo in cui noi, come esseri umani, riteniamo che quell’entità debba essere trattata”.

Long aggiunge che, per quanto ne sa, le aziende che costruiscono sistemi avanzati di intelligenza artificiale non stanno facendo abbastanza sforzi per valutare i modelli per” la coscienza e fare piani su cosa fare se ciò accade“. “E questo nonostante il fatto che, se si ascoltano le osservazioni dei responsabili dei principali laboratori, dicono che la coscienza dell’IA o la sensibilità dell’IA è qualcosa su cui si interrogano“, aggiunge.

La rivista Nature ha contattato due delle principali aziende tecnologiche coinvolte nel progresso dell’intelligenza artificiale: Microsoft e Google. Un portavoce di Microsoft ha affermato che lo sviluppo dell’intelligenza artificiale da parte dell’azienda è incentrato sull’assistenza alla produttività umana in modo responsabile, piuttosto che sulla replica dell’intelligenza umana. Ciò che è chiaro dall’introduzione di GPT-4 – la versione più avanzata di ChatGPT rilasciata pubblicamente – “è che sono necessarie nuove metodologie per valutare le capacità di questi modelli di intelligenza artificiale mentre esploriamo come raggiungere il pieno potenziale dell’intelligenza artificiale a beneficio della società”, ha detto il portavoce. Google non ha risposto.

Una delle sfide nello studio della coscienza nell’intelligenza artificiale è definire cosa significa essere coscienti. Peters afferma che, ai fini del rapporto, i ricercatori si sono concentrati sulla “coscienza fenomenica”, altrimenti nota come esperienza soggettiva. Questa è l’esperienza dell’essere: cosa vuol dire essere una persona, un animale o un sistema di intelligenza artificiale (se uno di loro risulta essere cosciente).

Esistono molte teorie basate sulle neuroscienze che descrivono le basi biologiche della coscienza. Ma non c’è consenso su quale sia quella “giusta”. Per creare il loro quadro, gli autori hanno quindi utilizzato una serie di queste teorie. L’idea è che se un sistema di intelligenza artificiale funziona in modo da corrispondere ad aspetti di molte di queste teorie, allora c’è una maggiore probabilità che sia cosciente.

Sostengono che questo è un approccio migliore per valutare la coscienza rispetto al semplice sottoporre un sistema a un test comportamentale, ad esempio chiedendo a ChatGPT se è cosciente o sfidandolo e vedendo come risponde. Questo perché i sistemi di intelligenza artificiale sono diventati straordinariamente bravi nell’imitare gli esseri umani.

L’approccio del gruppo, che gli autori descrivono come basato sulla teoria, è una buona strada da percorrere, secondo il neuroscienziato Anil Seth, Direttore del centro per la scienza della coscienza presso l’Università del Sussex vicino a Brighton, nel Regno Unito. Ciò che evidenzia, tuttavia, “è che abbiamo bisogno di teorie della coscienza più precise e ben testate”, afferma.

Un approccio ricco di teoria

Per sviluppare i loro criteri, gli autori hanno ipotizzato che la coscienza sia correlata al modo in cui i sistemi elaborano le informazioni, indipendentemente da cosa siano fatti, siano essi neuroni, chip di computer o qualcos’altro. Questo approccio è chiamato funzionalismo computazionale. Hanno anche ipotizzato che le teorie della coscienza basate sulle neuroscienze, che vengono studiate attraverso scansioni cerebrali e altre tecniche negli esseri umani e negli animali, possano essere applicate all’intelligenza artificiale.

Sulla base di questi presupposti, il team ha selezionato sei di queste teorie e ne ha estratto un elenco di indicatori di coscienza. Una di queste, la teoria dello spazio di lavoro globale, afferma, ad esempio, che gli esseri umani e gli altri animali utilizzano molti sistemi specializzati, chiamati anche moduli, per eseguire compiti cognitivi come la vista e l’udito. Questi moduli funzionano in modo indipendente, ma in parallelo e condividono le informazioni integrandosi in un unico sistema. Una persona valuterebbe se un particolare sistema di intelligenza artificiale mostra un indicatore derivato da questa teoria”, dice Long, “osservando l’architettura del sistema e il modo in cui le informazioni fluiscono attraverso di esso”.

Seth è colpito dalla trasparenza della proposta della squadra. “È molto ponderato, non è ampolloso e rende i suoi presupposti davvero chiari”, afferma. “Non sono d’accordo con alcune ipotesi, ma va benissimo, perché potrei benissimo sbagliarmi”.

Leggi anche:La scienza può spiegare la coscienza?

Gli autori affermano che l’articolo è ben lungi dall’essere una versione definitiva su come valutare i sistemi di intelligenza artificiale per la coscienza e che vogliono che altri ricercatori li aiutino a perfezionare la loro metodologia. Ma è già possibile applicare i criteri ai sistemi di intelligenza artificiale esistenti. Il rapporto valuta, ad esempio, modelli linguistici di grandi dimensioni come ChatGPT e rileva che questo tipo di sistema ha probabilmente alcuni degli indicatori di coscienza associati alla teoria dello spazio di lavoro globale.

 In definitiva, tuttavia, il lavoro non suggerisce che alcun sistema di intelligenza artificiale esistente sia un forte candidato per la coscienza, almeno non ancora.

Fonte:Nature

Newsletter

Tutti i contenuti di medimagazine ogni giorno sulla tua mail

Articoli correlati

In primo piano