Ormai tanti anni fa usciva nelle sale un film interpretato da Will Smith dal titolo “Io sono robot”, tratto dall’omonimo romanzo di Isaac Asimov, in cui delle Intelligenze artificiali, originariamente concepiti solo in funzione servente rispetto all’essere umano, a un tratto scoprivano la capacità di relazionarsi in modo molto proattivo con questo, fino a sognare di dominarlo e sottomettere l’intera umanità alla loro volontà autodefinita superiore. Scenario fantascientifico, distopico, degno, appunto di un romanzo o di un film.
Ma siamo sicuri che quello che ieri era fantasia oggi o domani non possa diventare realtà? Siamo davvero così lontani da quel mondo? Oppure è verosimile pensare che lo sviluppo tecnologico della robotica ci possa presto condurre a un esiti similari? Questioni e domande interessanti, non solo per i filosofi ma anche per gli ingegneri che in quelle materie sono impegnati da svariati anni e che aprono le porte a una nuova forma di etica da applicare alle macchine, visto anche lo scarso risultato ottenuto con gli esseri umani (mi si perdoni la battuta infelice). Ne sa qualcosa l’Ing. Blake Lemoine membro del team Google che lavora sull’Intelligenza Artificiale di ultima generazione che recentemente aveva sollevato dubbi etici sullo sviluppo della tecnologia del colosso tecnologico, anche in considerazione della scoperta – che sarebbe rivoluzionaria – di una qualche forma di carattere senziente nelle IA. L’azienda dopo aver smentito le preoccupazioni di Lemoine, lo ha messo in congedo forzato in attesa di (probabile) licenziamento.
Di quanto accaduto ne ha parlato lo stesso Lemoine dapprima in un post pubblicato qualche giorno fa dove lamentava il rischio di licenziamento connesso al suo lavoro con l’Intelligenza Artificiale, poi con un’intervista rilasciata al «Washington Post».
Secondo Lemoine la LaMDa – la tecnologia per la comprensione del linguaggio sviluppata da Google – sarebbe senziente, cioè esisterebbe una qualche forma di coscienza e capacità di cognizione e rappresentazione emersa in una interazione attiva avuta tra “l’uomo e la macchina” su temi diversi e cognitivamente pregnanti. La conversazione riguardava religione, etica e letteratura e sarebbero emersi profili incontrovertibili di forme di aucoscienza, consapevolezza e, soprattutto, capacità di sentire emozioni. “Se non sapessi di cosa si tratta, direi che è un bambino di 7 o 8 anni che si intende di fisica”, dichiara Lemoine. Innanzi alle (presunte) prove di tutto ciò, Google non ha preso tanto bene la faccenda tanto che – egli lamenta – prima gli avrebbero riso in faccia sottovalutando completamente il tema, e poi lo hanno messo in riposo forzato.
Al contrario, chi si è dichiarato subito interessato a supervisionare queste macchine, sono alcune Agenzie Federali, preoccupate per motivi di sicurezza interna e internazionale. La comunità scientifica in materia di capacità senzienti delle Intelligenze Artificiali è, tuttavia, abbastanza coesa nel sottovaltuarne – almeno per ora – la portata. Anche se il numero degli scienziati che avverte un rischio concreto di sviluppo di autocoscienza delle IA è in crescita, leitmotive dominante è ancora quello per il quale, se i software attingono le loro informazioni dal reddit di programmazione che si collega ovviamente alla rete, e quindi sono in grado di utilizzare diverse forme di linguaggio, ciò non significa che ne comprendano il significato.
In sostanza – per buttarla in filosofia del linguaggio – i robot rimarrebbero confinati nel significante senza penetrare nell’area del signficato…. Almeno per ora! Però – sottolinea Lemoine – non è un caso che Google stia licenziando altri esperti di etica applicata all’Intelligenza Artificiale, segno evidente che è un tema caldo e scottante e che i cittadini “avrebbero pieno di diritto di conoscere quanto più possibile riguardo uno dei più potenti strumento di accesso alle informazioni mai inventato”. Vedremo in futuro se alcuni scenari da film saranno così tanto fantasiosi, o magari, a breve, qualcuno di noi potrà dire: “Ho visto cose che voi umani…”