La necessità di una riflessione etica per affermare la differenza tra la macchina e l’essere umano.
(Bernard Calvino) Come determinare se una macchina, un computer o un programma si comportano in modo intelligente? È la questione posta dall’intelligenza artificiale (IA). Riferendosi agli strumenti matematici, l’IA “non equivale né a una frequenza di esecuzione di operazioni elementari, né al numero di informazioni immagazzinate in una memoria. Né l’accrescimento della potenza di calcolo, né la capacità di stoccaggio producono automaticamente intelligenza. Senza dubbio, il termine di intelligenza artificiale si presta alquanto alla confusione”.
Definire l’intelligenza
Secondo i propugnatori dell’IA “sarebbe possibile scomporre l’intelligenza in funzioni elementari riproducibili sui computer”. Quest’idea è tuttavia contraddetta dalle ricerche di psicologia cognitiva. Queste ultime hanno mostrato che anche le attività più elementari (per esempio la lettura) mettono in gioco numerose facoltà mentali sottese da numerose strutture cerebrali rivelate dagli strumenti medici di visualizzazione. L’IA non ha dunque niente di intelligente nel senso biopsicologico del termine.
Yann LeCun
Reti di neuroni
Alla fine degli anni ’70 si sviluppa l’idea secondo cui le macchine sono capaci di apprendere. Poco dopo Yann LeCun sviluppa un metodo per il riconoscimento di immagini ispirato alla neurobiologia e alla fisiologia dell’apparato visivo grazie alle reti di neuroni artificiali. L’innovazione decisiva verrà nel 1997 con la dotazione di una memoria alle reti di neuroni.
All’origine di tutti i progressi in corso di sviluppo (automobili senza guidatore, assistenti vocali, riconoscimento dei volti, traduzione automatica, diagnostica medica) si trova una metodologia basata sul deep learning (“apprendimento profondo”). Inseparabile dall’IA, il cloud computing, immenso sistema di stoccaggio a distanza dei dati, permette il confronto di centinaia di migliaia di informazioni che sono alla base dell’utilizzo degli algoritmi di apprendimento del deep learning.
L’umanità si ibriderà con le macchine per giungere al trasferimento dal nostro corpo biologico?
Si potrà creare un giorno un’“intelligenza cosciente” su un supporto materiale non biologico? I fautori dell’IA pensano di sì: secondo loro i limiti funzionali saranno costituiti soltanto dalla capacità umana di concepire i software appropriati.
Raymond C. Kurzweil sostiene che le conseguenze del perfezionamento dell’IA condurranno a un rovesciamento ineluttabile che porterà l’umanità a ibridarsi con le macchine per giungere al trasferimento dal nostro corpo biologico. Egli sostiene che saremo presto in grado di trasferire la nostra coscienza su un computer, procurandoci così una forma di immortalità. L’uomo biologico non sarebbe allora che una tappa nell’evoluzione.
Raymond C. Kurzweil
Künstliche Intelligenz
Raymond C. Kurzweil | evangelisch.de
Dall’umano al robot
La fase seguente segnerebbe l’avvento dell’“uomo bionico”, sistema robotizzato comandato da una coscienza umana liberata dalla sua natura biologica e registrata su una macchina. Kurzweil situa il realizzarsi di questo momento critico, la “Singolarità tecnologica”, nel 2045. Questo momento ipotetico rappresenterebbe la tappa in cui l’IA supererà l’intelligenza dell’uomo: la tecnica spinta ai suoi limiti estremi condurrà, con l’IA, a una situazione in cui l’uomo non avrà più alcuna presa sul proprio futuro.
La Singolarità tecnologica genererà una rottura che cambierà il corso del mondo, il cui grado ultimo permetterà l’accesso a una vita eterna o, per i più pessimisti, all’estinzione dell’umanità.
Alcuni oppositori di queste posizioni mettono in guardia contro le conseguenze politiche e sociali dell’IA, esprimendo un profondo disagio di fronte a questa rimessa in discussione dei valori umanistici espressi nel corso dei secolo dei lumi.
Jean‑Gabriel Ganascia, autore del libro Le mythe de la Singularité (Il mito della Singolarità) in cui smonta l’ipotesi di Kurzweil, critica il fatto che la Singolarità costituisce un abbandono dell’umanesimo: le macchine fabbricate asservirebbero l’umanità che, ridotta in schiavitù, sparirebbe per sempre.
Onora O’Neill
Onora O’Neill, “Fidarsi, o controllare”? | SRF Sternstunde
Riflessione etica
Che fare, da un punto di vista sociale, di fronte a questo sviluppo tecnologico? L’IA, male utilizzata, sarà la fonte di numerosi problemi. In conseguenza di ciò, una riflessione etica – in corso di sviluppo – costituisce parte integrante delle ricerche nel campo dell’IA e della robotica, al fine di stabilire regole che affermino le differenza tra l’essere umano e la macchina.
Il più grande pericolo per l’umanità risiede nel fatto che l’uomo potrebbe divenire schiavo delle macchine e perdere la propria libertà.
Dobbiamo rimanere vigili sulla perdita di responsabilità che può risultare dalle applicazioni dell’IA
Secondo un articolo di “Le Monde” del 6 giugno 2018, al MIT (Massachusetts Institute of Technology) e ad Harvard c’è un corso intitolato “Etica e governance dell’intelligenza artificiale”; questo corso tenta di rispondere alla domanda: “La vita può essere modellizzata, ottimizzata e dunque superata da un’intelligenza artificiale?”. A coloro che sviluppano l’IA e a coloro che la utilizzano si propone di firmare un documento in cui si afferma che “la coerenza, la trasparenza e la compassione devono avere la precedenza sulla precisione algoritmica; i dati non sono semplici cifre, ma rappresentano persone e situazioni reali”; ciò perché il lavoro dei firmatari è suscettibile di avere “conseguenze indesiderabili sulla società: disuguaglianze, povertà e disparità dovute agli utilizzi degli algoritmi”.
Esseri umani e macchine
Una macchina che apprende non comprende ciò che fa, non comprende le emozioni degli esseri umani. Un robot può riuscire in un compito difficile per il quale è stato programmato, ma non proverà alcuna emozione. Le tecniche di apprendimento non permettono alle macchine di acquisire un’autonomia nel senso filosofico del termine, e niente ci dice che i computer potranno superarci e raggiungere questa autonomia.
Tenuto conto dell’estrema complessità del cervello umano e della sua plasticità, l’IA non è competitiva. Il computer o il robot immaginato dall’uomo è semplicemente capace di realizzare ciò per cui è stato costruito o programmato; rimane una macchina.
Esistono ambiti, come le emozioni o l’analisi del pensiero, che non possono essere modellizzati
Un robot potrà, per apprendimento, grazie al deep learning, essere più performante dell’uomo in certi compiti: per esempio vincere al gioco del Go, come AlphaGo che riesce a battere il miglior giocatore del mondo. Ma esistono ambiti, come le emozioni o l’analisi del pensiero, che non possono essere modellizzati. In conseguenza della sua complessità neurobiologica e psicologica, solo l’uomo è umano! Trasferire lo spirito di qualcuno in un microchip o in un robot è una chimera. Non ci sono e non ci saranno computer o robot aventi l’intelligenza dell’essere umano.
La massiccia generalizzazione dell’IA ha permesso il suo sviluppo in molte attività umane finora regolamentate dalla legge. Oggi sono gli ingegneri dell’IA ad aver preso il potere definendo le nuove norme dei sistemi automatizzati e dei robot evoluti, poiché sono loro che li concepiscono. È dunque indispensabile elaborare regole etiche al fine di evitare che una parte dell’umanità venga esclusa, per ragioni tanto economiche quanto culturali, da questo sviluppo. (da Réforme; trad. it. E. Gamba; adat. P. Tognina)
Bernard Calvino è un biologo francese, specializzato in fisiologia. È professore all’École supérieure de physique et de chimie industrielles ESPCI ParisTech dove studia in particolare i meccanismi del dolore.
Sostieni la redazione di Notizie Cristiane con una donazione, clicca qui