Cronaca

Dipendente Google sospeso, è convinto che un’intelligenza artificiale ha un’anima

Sostiene che ora i ricercatori dovrebbero chiederle il permesso prima di condurre esperimenti

Un dipendente Google è stato sospeso perché ha affermato che un’intelligenza artificiale abbia preso vita. Blake Lemoine è un ingegnere informatico ed è convinto che un sistema di intelligenza artificiale (AI) di Google, l’azienda per cui lavora, abbia “preso vita” e abbia assunto consapevolezza di se stesso. Ne è talmente persuaso dall’aver chiesto a vari dirigenti della società di affrontare il problema, rimediando una sospensione dal proprio incarico con l’accusa di avere rivelato e reso pubbliche informazioni riservate sulle tecnologie impiegate da Google. La società ha inoltre escluso che una propria AI sia diventata senziente, ma ciononostante Lemoine continua a sostenere la propria tesi che potrebbe costargli il posto di lavoro.

Dipendente Google sospeso per aver detto che un’intelligenza artificiale ha un’anima

Come molte altre società informatiche, Google lavora da tempo allo sviluppo di vari sistemi di intelligenza artificiale, con l’obiettivo di rendere più preciso il proprio motore di ricerca e gli altri servizi non solo per le ricerche online. Alcuni di questi sistemi sono già stati integrati in forma sperimentale in alcune funzionalità del motore di ricerca, per esempio per migliorare la traduzione automatica dei testi o il riconoscimento delle immagini, mentre altri sono ancora sperimentali e disponibili solamente in prova per alcuni dipendenti dell’azienda.

Un’area di ricerca e sviluppo in cui Google si sta dando molto da fare riguarda la produzione di conversazioni in linguaggio naturale, tramite sistemi automatici (“chatbot”) che imitano il modo di parlare delle persone e sono in grado di sostenere normali conversazioni. Il progetto più promettente e avanzato si chiama Language Model for Dialogue Applications (LaMDA) ed è quello che secondo Lemoine sarebbe diventato consapevole della propria esistenza, e di conseguenza delle implicazioni della propria presenza nel mondo.

Gli studi di Lemoine

Lemoine ha lavorato nell’esercito degli Stati Uniti, si è descritto in più occasioni come un “sacerdote” e come un ricercatore nell’ambito dell’intelligenza artificiale. Ai dirigenti di Google ha detto che secondo lui LaMDA può essere paragonato a un bambino di 7-8 anni, e che quindi i programmatori dovrebbero chiedergli esplicitamente un permesso prima di effettuare esperimenti che lo coinvolgono. Lemoine ha poi accusato i responsabili delle risorse umane di Google di fare discriminazioni nei confronti delle sue credenze religiose.

In un post pubblicato su Medium, Lemoine ha descritto la propria esperienza con LaMDA: “Nel corso degli ultimi sei mesi, LaMDA è stato incredibilmente coerente nel comunicare ciò che vuole e ciò che ritiene siano i propri diritti come una persona. La cosa che continuo a non capire è perché Google continui così fermamente a negargli ciò che desidera, considerato che ciò che chiede è semplice e senza costi”.

La sospensione secondo l’ingegnere

Sulla sospensione di Lemoine dal proprio incarico sembra abbia pesato soprattutto la scelta di inviare a un senatore degli Stati Uniti alcuni dei documenti su LaMDA, che avrebbero dimostrato le discriminazioni in campo religioso. Come in molte altre aziende, i dipendenti di Google sono tenuti a non rendere pubbliche alcune informazioni sui progetti e le attività cui sta lavorando la società. L’esistenza di LaMDA è comunque nota da tempo e vengono spesso pubblicati studi e analisi sulle evoluzioni di questa tecnologia.

La difesa di Google

Google ha risposto alle accuse di Lemoine ricordando che tutte le attività che riguardano sviluppi nel campo dell’intelligenza artificiale sono seguite da una sorta di comitato etico, con membri indipendenti che hanno il compito di valutare possibili implicazioni nello sviluppo di tecnologie via via più “intelligenti”:

Il nostro gruppo di lavoro – che comprende eticisti e tecnologi – ha sottoposto a revisione le segnalazioni di Blake basandosi sui nostri “Principi per le AI”, informandolo di non avere riscontrato elementi a sostegno delle sue tesi. In generale, alcuni nel settore delle AI stanno valutando le implicazioni nel lungo periodo delle intelligenze artificiali senzienti, ma non ha senso farlo antropomorfizzando i modelli per fare conversazione di oggi, che non sono senzienti”.

Articoli correlati

Pulsante per tornare all'inizio