L’intelligenza artificiale e la superiorità intellettuale.

La pericolosa corsa degli esseri umani alla superiorità intellettuale.

Superiorità intellettuale

Nel carteggio “Perché la guerra?” pubblicato nel 1933, il fisico Einstein, affronta il tema della guerra con il fondatore della psicoanalisi Freud. Il fine è quello di analizzare il sentimento di odio e distruzione insito nell'uomo e trovare una soluzione al problema della pace nel mondo. Einstein scrive:

«Vi è una possibilità di dirigere l’evoluzione psichica degli uomini in modo che diventino capaci di resistere alla psicosi dell’odio e della distruzione?».

Nella lettera di risposta, inviata da Vienna nel settembre del 1932, Freud si occupa del rapporto tra diritto e forza sostituendo il termine “forza” con quello di “violenza” e sostiene che, anche se antitetici, l’uno nasce dall'altro ai primordi della vita umana perché nel regno animale, di cui fa parte l’uomo, i conflitti sono decisi dall'uso della forza muscolare e una delle due parti è costretta a soccombere, o viene soggiogata o uccisa. Con il tempo la forza muscolare viene sostituita dalle armi e dalla maggiore capacità di usarle. Dunque la superiorità intellettuale prende il posto della forza muscolare ¹.

Cosa sta facendo l’uomo oggi per raggiungere la superiorità intellettuale?

«Chi svilupperà la migliore intelligenza artificiale, diventerà il padrone del mondo», così ha detto Vladimir Putin davanti a una platea di sedicimila studenti durante l’evento «Knowledge Day» per l’inizio dell’anno accademico ².

Subito dopo questa dichiarazione Elon Musk, da sempre allarmista sul tema dell’intelligenza artificiale (IA), ha usato il suo account Twitter per dare adito alle sue preoccupazioni sul tema.

La visione di Elon Musk

Elon Musk prospetta che un uso senza etica delle tecnologie di IA possano portare alla terza guerra mondiale. Ma le sue preoccupazioni non si fermano qui, infatti considera l’intelligenza artificiale più pericolosa del nucleare, già nell'anno 2014.

La sua visione è che potremmo essere la specie biologica a dar vita ad una superintelligenza digitale, ovvero costruire un’intelligenza che potremmo non riuscire più a controllare. Preso atto che sempre più aziende e stati stanno puntando su questa tecnologia, quanto tempo occorrerà per superare e surclassare le nostre capacità intellettive? Una volta raggiunto un livello di intelligenza paragonabile al nostro, alle macchine basterà un piccolo passo per arrivare ad una superiorità intellettuale per noi essere umani inarrivabile. La nostra specie potrebbe assistere ad una presa di indipendenza dell’IA, non necessariamente per “malvagità”, ma anche solo come effetto collaterale della loro attività. Per non rinunciare ai benefici che l’IA potrà apportare, è necessario che la ricerca tecnologica si ponga adesso queste domande!

Nel 1965, lo statistico I. J. Good descrisse un concetto anche più simile al significato contemporaneo di singolarità, nel quale egli includeva l’avvento di un’intelligenza superumana:

«Diciamo che una macchina ultraintelligente sia definita come una macchina che può sorpassare di molto tutte le attività intellettuali di qualsiasi uomo per quanto sia abile. Dato che il progetto di queste macchine è una di queste attività intellettuali, una macchina ultraintelligente potrebbe progettare macchine sempre migliori; quindi, ci sarebbe una “esplosione di intelligenza”, e l’intelligenza dell’uomo sarebbe lasciata molto indietro. Quindi, la prima macchina ultraintelligente sarà l’ultima invenzione che l’uomo avrà la necessità di fare.³»

Con un investimento di un miliardo di dollari in un’organizzazione no-profit chiamata Open AI⁴ il capo della Tesla, Elon Musk, e diversi altri dirigenti di spicco del settore tecnologico, puntano allo sviluppo di una IA che possa aiutare gli esseri umani e non portare a scenari dispotici che hanno a lungo alimentato la fantascienza.⁵ La nuova società renderà i suoi brevetti e la sua ricerca aperti al pubblico, nel tentativo di aumentare la trasparenza sul potenziale dell’IA, piuttosto che concentrarsi sulle sue implicazioni commerciali.⁶ Il suo obiettivo a lungo termine sarà quello di creare una “intelligenza artificiale generale”, una macchina in grado di svolgere qualsiasi compito intellettuale di un essere umano.

Ilon Musk ha anche sottolineato che la sua attenzione si è concentrata sulla costruzione di tecnologie che aumentino le capacità degli esseri umani, piuttosto che sostituirli.⁷

Neuralink Corporation è una azienda statunitense di neurotecnologie, fondata da un gruppo di imprenditori, tra cui Elon Musk, che si occupa di sviluppare interfacce neurali impiantabili. Attualmente, Neuralink ha sede in San Francisco, dove condivide un edificio con OpenAI. Dalla sua fondazione, l’azienda ha assunto molti famosi neuroscienziati di varie università,⁸ tra cui:

  • Ben Rapoport, un neurochirurgo che ha un dottorato di ricerca in ingegneria elettrica e informatica conseguito al MIT;
  • DJ Seo, che ha progettato un nuovo concetto di interfaccia cervello-macchina mentre studiava alla UC Berkeley.

Il team ha come primo scopo sviluppare un dispositivo impiantabile nel cervello, che aiuterà le persone con lesioni cerebrali, come quelle causate da un ictus. A lungo termine la mission dell’azienda è di raggiungere la “simbiosi con l’intelligenza artificiale”, per non permettere all’IA di soggiogare l’uomo.

La petizione

Più di 2.400 scienziati ed esperti di Intelligenza artificiale hanno sottoscritto una petizione contro la realizzazione e l’utilizzo per scopi militari di robot soldato in grado di uccidere senza la supervisione dell’uomo.

I firmatari, sottoscrivendo l’appello, si sono anche impegnati a non partecipare a programmi di sviluppo di sistemi di intelligenza artificiale a supporto dei robot killer. Tra le firme compaiono anche quelle di Demis Hassabis, Shane Legg e Mustafa Suleyman — cofondatori di DeepMind, la divisione di Google dedicata all’intelligenza artificiale — e di Elon Musk, fondatore e amministratore delegato di SpaceX e Tesla. Suleyman e Musk un anno fa avevano già sottoscritto l’appello all’Onu di oltre cento fondatori di aziende di robotica e di intelligenza artificiale contro la corsa alle lethal autonomous weapons, le “armi letali autonome”.¹⁰

Nel seguente link è presente la lista di tutti i firmatari: Lethal autonomous weapons pledge.

Isaac Asimov e i robot malvagi

La morale dei racconti sui robot malvagi di Isaac Asimov era che l’uomo non deve spingere la propria conoscenza oltre un certo punto, ma il suo pensiero è molto più complesso. A tal proposito cito in seguito una sua dichiarazione che lo riassume:

Anche da giovane non riusciva a condividere l’opinione che , se la conoscenza è pericolosa, la soluzione ideale risiede nell'ignoranza. Mi è sempre parso, invece, che la risposta autentica a questo problema stia nella saggezza. Non è saggio rifiutarsi di affrontare il pericolo, anche se bisogna farlo con la dovuta cautela. Dopotutto è questo il senso della sfida posta dall'uomo fin da quanto un gruppo di primati si evolse nella nostra specie. Qualsiasi innovazione può essere pericolosa: il fuoco lo è stato sin dal principio, e il linguaggio ancora di più; si può dire che entrambi siano ancora pericolosi al giorno d’oggi, ma nessun uomo può dirsi tale senza il fuoco e senza la parola.

Computer Engineer, artificial intelligence enthusiast.

Computer Engineer, artificial intelligence enthusiast.