Home cultura Una intelligenza… da paura!

Una intelligenza… da paura!

339
0

L’Intelligenza Artificiale tra cronaca, storia e problematico futuro

Recenti dichiarazioni, contestuali alle sue dimissioni da Google, di Geoffrey Hinton sui rischi d’incontrollabilità (già evidenti o emergenti) dell’“Intelligenza Artificiale”, la tecnologia al cui sviluppo questo studioso dell’ “apprendimento automatico” ha dato un personale contributo di grande importanza, hanno concorso a moltiplicare commenti e approfondimenti sull’argomento, già sollecitati, qualche tempo prima, da una lettera aperta non meno preoccupata del Future of Life Institute, firmata da un migliaio di ricercatori e manager facenti capo a Elon Musk, fondatore di “Tesla”, poco dopo l’annuncio di Open AI di una più perfezionata e potente versione, la terza, della sua Chat GPT, un software molto avanzato nella simulazione di conversazioni umane. Si temono, in sostanza, “menti” digitali sempre più potenti capaci di operare in maniera imprevedibile e persino incomprensibile per gli stessi soggetti umani che le hanno concepite. Ecco perché, sebbene con meno clamore di oggi, nel corso degli ultimi anni, specie in seguito all’introduzione della tecnologia dell’“apprendimento profondo” (deep learning) basato su grandi “reti neurali artificiali” (che permette ai computer non soltanto di eseguire compiti, ma anche di imparare) e quindi contemporaneamente alla più intensa e diffusa crescita dei campi di utilizzazione dell’intelligenza artificiale, non sono mancati analoghi allarmi (come da parte della Mit Technology Review nel 2017) che hanno portato nel 2019 gli Stati del G7 e del G20 a concordare sulla necessità di un “impiego sostenibile” dell’IA e nel 2021 la Commissione Europea ad elaborare una proposta di legge approvata di recente che obbliga alla valutazione di tutta una serie di rischi nell’utilizzazione della stessa.

L’evidente grande interesse suscitato da tutto questo anche nei non specialisti della materia e in generale nell’opinione pubblica era d’altronde prevedibile, considerando che già l’uso dei “normali” strumenti telematici inerenti a Internet in tutte le sue applicazioni da molto tempo solleva perplessità e interrogativi di vario genere; per giunta in un momento storico in cui la società (per ragioni tutt’altro che chiare) viene costantemente spaventata, in merito a varie questioni, dai “poteri istituzionali” operanti in più ambiti, in primo luogo in quello politico, culturale, mediatico, e quindi è sensibilissima a discorsi che si potrebbero dire “apocalittici”. Si è ormai sommersi, quindi, su tutti i canali informativi, da interventi di ogni genere sull’argomento, sia seri che campati in aria, e succede pure che non sia semplicissimo distinguere gli uni dagli altri.

Il tema dell’“intelligenza artificiale”, comunque, non è affatto nuovo, se si pensa che, anche quando non esistevano ancora né il personal computer nelle case, né “rete telematica”, né social media capaci di amplificarlo al massimo, era tuttavia già oggetto, in maniera forse molto più efficace di quanto avvenga oggi, di scritti di seria divulgazione che ne sapevano mettere in luce il variegato retroterra culturale, le anticipazioni in ambito filosofico, logico-matematico, neurofisiologico, psicologico, e naturalmente i legami con più nuove discipline specialistiche quali la cibernetica, l’informatica e la tecnologia sempre più sviluppata dei calcolatori elettronici. Giusto per fare qualche esempio di ottime pubblicazioni di questo genere che hanno fatto testo, nel corso di un’epoca che progressivamente si inoltrava verso il generalizzato uso dei sistemi digitali, ricordo: La pensée artificielle di Pierre de Latin già nel 1953, La filosofia degli automi (un’antologia di pagine, dal 1953 al 1961, di eminenti filosofi, neurofisiologi, matematici come Ayer, Ryle, Sherrington, Adrian, Shannon, Turing, Von Neumann, Wiener) nel 1965, Cibernetica per tutti e La mente vista da un cibernetico, di Silvio Ceccato, rispettivamente nel 1968 e nel 1972, Les cerveaux non humains (di cinque qualificati autori) nel 1970, La mente vista in operazioni, dell’epistemologo Giuseppe Vaccarino, nel 1974, Gödel, Escher, Bach: an Eternal Golden Braid, di Douglas R. Hofstadter, nel 1979, Robotics (a cura del matematico Marvin Minsky, proprio uno dei padri dell’intelligenza artificiale) nel 1985, Machinery of the Mind, di George Johnson, nel 1986, il volume Numeri, figure, logica e intelligenza artificiale dell’enciclopedia Utet La Scienza, nel 2005. Riferimenti, questi ed altri, che conservano un grande valore nonostante, col tempo, la ricerca sull’argomento in questione, a partire dal 1956 (anno di un famoso incontro di specialisti al Dartmouth College, tra cui l’appena citato Minsky e l’altro pioniere John McCarthy, l’inventore del Lisp, il più utilizzato linguaggio nei programmi di IA), si sia ritagliata un suo preciso spazio rispetto al più ampio campo della Cibernetica (rivolta allo studio unitario di sistemi naturali o artificiali considerati rispetto alla possibilità di autoregolazione) o della Teoria dell’Informazione, o della Robotica, o di diverse contigue discipline.

Ora, sulla base di tali letture e di altre similari, si può capire che la realizzazione o sia pure il progetto, scientificamente fondato, di congegni in grado non solo di mettere in atto azioni e comportamenti automatici, ma di svolgere, in maniera enormemente più veloce ed efficace, compiti di chiaro carattere intellettuale una volta riconducibili esclusivamente alle capacità umane, già diversi decenni addietro proiettava gli studiosi verso scenari fantascientifici di macchine elettroniche e relativi algoritmi sempre più autonomi rispetto alla progettualità ingegneristica degli ideatori. Così, ad esempio, senza aspettare Hinton, o Musk, il fisico Edward Fredkin (fautore di una vera e propria “filosofia digitale”) annunciava l’ineluttabilità di una intelligenza artificiale capace un giorno di superare di gran lunga i limiti fissati dal processo evolutivo all’intelligenza umana. A parte la “rapidità di pensiero” e l’estensione di memoria di un computer, in progressivo aumento col perfezionamento tecnologico, questo scienziato sottolineava in particolare la differenza tra l’essere umano quale risultato dell’evoluzione biologica e i sistemi d’intelligenza artificiale nella trasmissione delle conoscenze; non potendo acquisire un figlio automaticamente le nozioni assimilate dai genitori e potendo ciò essere possibile, invece, in linea di principio, ad un nuovo sistema computerizzato ipoteticamente costruito dalle stesse macchine intelligenti: «Si pensa che l’evoluzione umana sia stata molto veloce, dal momento che in cinquantamila anni sono stati conquistati tanti traguardi, ma l’IA otterrà progressi enormemente maggiori in cinquantamila secondi. Uno sconvolgimento totale, quando accadrà».

 Un argomento, quindi, quello dell’intelligenza artificiale, com’è facile capire,  straordinariamente suggestivo, tanto che risulta davvero difficile credere che basti la richiesta pressante (come nella lettera aperta di cui si diceva) di una moratoria di pochi mesi nello sviluppo di sistemi sul modello di Chat GPT per frenare il desiderio di conoscenza teorica e di realizzazione ingegneristica (già con una storia di significative realizzazioni alle spalle) in chi è addentro alla materia, o il semplice, ma forte interesse in chi assiste dal di fuori a questi sorprendenti sviluppi tecnici. Per giunta, a far ritenere molto arduo il proposito di sottomettere la sempre più potente e versatile tecnologia a regole severe universalmente rispettate sono gli interessi economici, politici ed anche militari in gioco, se si considera che ormai una elevata percentuale di aziende e persino Stati (in primo luogo la Cina) già impiegano in vario modo in molteplici campi, praticamente in assenza di norme davvero vincolanti, l’intelligenza artificiale. D’altronde, nessuna pur seria questione di carattere etico o giuridico o di altro genere ha mai bloccato o rallentato davvero un percorso scientifico sia teorico che applicativo.

Ciò detto, forse è più opportuno, allora, prendere dimestichezza almeno con la particolare curiosità culturale densa di interrogativi da cui il progetto di ricerca sull’intelligenza artificiale trae origine, e con suoi conseguenti fondamentali aspetti; presupposto imprescindibile per cercare di valutare, quindi, con una certa autonomia di giudizio, quanto siano fondati o esagerati gli allarmi di vari ambienti, non solo scientifici, che i mezzi d’informazione ormai quasi quotidianamente trasmettono.

Intanto si può dire, in termini molto generali, che ha certamente dato spinta alla ricerca in questione l’audace ipotesi (se non addirittura la visionaria convinzione) che l’intelligenza (della quale non è superfluo ricordare il significato etimologico di comprensione profonda e cosciente della realtà) possa essere espressa non soltanto in quanto funzionalmente legata a un fondamento biologico quale il cervello umano, ma che possa essere manifestata anche da una struttura materiale di altro genere, quale quella di una macchina elettronica in grado di compiere un complesso di operazioni. In effetti, la tendenza a voler cogliere un’affinità tra il calcolatore ed il cervello è stata subito di tutta evidenza nella stessa terminologia che da una parte si è servita di concetti come “memoria” e “linguaggio” per indicare funzioni del primo e dall’altra ha cominciato presto a vedere anche nel secondo una macchina biologica costituita da circuiti neuronali, per quanto dotata di una capacità di elaborazione delle informazioni (in questo caso dei dati di esperienza) enormemente superiore.

Del resto, un primo modello meccanico del pensiero umano si delinea, significativamente, già al tempo delle prime rudimentali macchine calcolatrici. Ne è celebre esempio la geniale idea di Leibniz, nel XVII secolo, della possibilità di riduzione di un ragionamento logico complesso ad un numero limitato di concetti fondamentali espressi mediante simboli, e quindi ad una operazione di calcolo. Una originale intuizione che già faceva intravedere quella che sarebbe stata, molto più tardi, a metà Ottocento, la nascita di una vera e propria logica matematica ad opera di Boole (dotata di ben precise regole sintattiche e di una particolare algebra che combina serie di 1 e di 0 per rappresentare affermazioni vere e false). Dopo di che, nel 1937, in un’epoca tecnologicamente più avanzata che permetteva un disegno del genere, Shannon dimostrava che tale algebra, e quindi le relative operazioni logiche, potevano essere tradotte in termini di accensione e spegnimento di interruttori elettrici collegati in rete: in pratica, partendo dalla formalizzazione dei processi logici, era possibile concepire il prototipo di un calcolatore digitale capace, almeno in teoria, di automatizzarli. Ma a questo punto, come in una sorta di rimbalzo dalla dimensione mentale – cerebrale umana alla configurazione elettrica di una macchina e viceversa, perché non vedere lo stesso cervello come un elaboratore biologico di informazioni nel particolare linguaggio permesso dalle  innumerevoli e complicate connessioni delle sue cellule? Su un terreno teorico sul quale si sviluppava con Shannon la “Teoria dell’Informazione” ed anche la Cibernetica con Wiener, il neurobiologo Mc Cullouch ed il matematico Pitts nel 1943 teorizzavano, appunto, la possibilità di una simulazione non biologica del cervello, ipotizzando che le reti di miliardi di neuroni, percorse in effetti da impulsi elettrici, funzionassero in maniera analoga alla rete di relè elettrici di Shannon. Questa corrispondenza tra cervello e macchina diventava ancora più suggestiva quando, quasi contemporaneamente, mentre i due citati scienziati ipotizzavano una rete nervosa artificiale in grado di eseguire qualsiasi operazione su dati espressi in forma binaria, il matematico Alan Turing concepiva un congegno universale (la “macchina di Turing”), vero precursore teorico del calcolatore digitale, capace di fare, opportunamente programmato, la stessa cosa. Partendo da queste premesse, qui solo accennate, la strada era quindi segnata e, con l’impetuoso sviluppo dell’elettronica e degli hardware, dei linguaggi di programmazione, degli algoritmi delle “reti neurali artificiali”, pur tra errori e battute d’arresto, veniva concretamente percorsa fino agli attuali sorprendenti traguardi.

  1. Ora, però, considerando l’insieme di attività psichiche e mentali e i processi cognitivi da cui l’intelligenza è caratterizzata, ovvero le sue numerose e complesse capacità (ad esempio, logiche e raziocinanti, intuitive, critiche, creative, di apprendimento, attinenti alla comprensione e soluzione di problemi) coronate dall’autoconsapevolezza e dall’attribuzione di significato ai suoi atti, non è difficile intendere (nonostante le ottimistiche previsioni di cui è stato riportato un esempio) che il proposito di rendere intelligente una macchina esattamente negli stessi modi in cui può esserlo un essere umano si mostra illusorio e velleitario anche oggi non meno di quanto lo fosse ieri; il che, allora, rende opportuno aggiungere, quando si parla di intelligenza artificiale, che le realizzazioni ingegneristiche, pur senza sottovalutarne le straordinarie conquiste, riescono a riprodurre (o, sarebbe meglio dire, a simulare) solo certi limitati aspetti dell’intelligenza naturale umana. Per questi incontestabili, perduranti limiti, appare tuttora legittimo interrogarsi se ad una macchina abile nello svolgere compiti considerati intelligenti di vario genere, per giunta in maniera molto più veloce ed efficace di un soggetto umano dal quale quindi sia difficile distinguerla (è questo il criterio alla base del cosiddetto “test di Turing”), capace in una certa misura di apprendere e quindi di modificare la sua risposta alle informazioni che riceve, si possa davvero attribuire un pensiero. Ovvero: se, in base ai suoi “comportamenti intelligenti” osservati, sembra che la macchina pensi, lo sta facendo davvero? Una domanda (che può sembrare ingenua o provocatoria) dal carattere decisamente filosofico, la quale forse non ammette, senza particolari precisazioni, risposta netta e scevra da fraintendimenti in un senso o nell’altro, ma che tuttavia porta a distinguere due forme di “intelligenza artificiale” (descritte in origine dal filosofo della mente John Searle), che è bene tenere presenti anche per orientarsi in merito agli allarmismi o, al contrario, alle fiduciose attese da cui il discorso è partito. Mentre, infatti, si parla, opportunamente, di “intelligenza artificiale forte” per riferirsi ad una (futuribile per alcuni e per altri invece del tutto impossibile) capacità della macchina di intendere e apprendere qualsiasi condizione o compito interni alla coscienza umana e, al limite, di pervenire anch’essa ad una sorta di consapevolezza di se stessa; si indica invece come “intelligenza artificiale debole” (e non manca perciò chi nega si possa davvero chiamare “intelligenza”) quella che, più concretamente ed effettivamente, si fonda su programmi ai quali è del tutto estraneo l’intento di replicare in maniera completa la mente umana, limitandosi invece ad esaminarne e risolverne specifici problemi, e tuttavia operando sotto tanti aspetti al di là dei suoi limiti. Si tratta, in pratica, della realizzazione di ragionamenti automatizzati, più o meno potenti, veloci, flessibili, ai quali però manca la capacità di cogliere il senso dei dati oggetto di elaborazione. Come non è difficile capire, la linea di demarcazione tra queste due forme di intelligenza artificiale non è però nettissima nella speculazione dei teorici, specie nel caso (come in base all’impostazione prevalentemente materialista della cultura filosofica e scientifica contemporanea) si attribuisca al cervello la natura di un ultrapotente calcolatore biologico e si consideri la mente un conseguente mero epifenomeno di tale complessità. Con questi presupposti, infatti, anche ogni potenziamento di funzioni delle forme “deboli” dell’intelligenza artificiale può essere interpretato un avanzamento verso una macchina effettivamente pensante come un essere umano.

Comunque sia (e ciò sembra, in verità, dare argomenti plausibili a chi ancora si rifiuta di ammettere una “intelligenza artificiale”, trovando in tale espressione solo una contraddizione in termini), manca ancora una qualsiasi convincente risposta alla fondamentale domanda che chiede con quale livello delle strutture e delle funzioni cerebrali e mentali una macchina dovrebbe potersi con successo confrontare per potere effettivamente essere ritenuta, senza riserve, intelligente e magari pensante. In merito, se, come appare comprensibile, ad una intelligenza artificiale finalizzata a replicare in maniera completa l’intelligenza naturale umana si richiede quale imprescindibile condizione la mente auto consapevole che caratterizza quest’ultima, allora non è azzardato dire che “la partita è chiusa in partenza”, nel senso che non c’è macchina, sia pur governata dal più sofisticato algoritmo, in grado di uscire dalla cieca, deterministica, ripetitività della sua per quanto vasta rete di nessi logici tradotti in connessioni elettroniche.

Pur non potendo, per ovvi motivi, questa elementare illustrazione dell’intelligenza artificiale inoltrarsi ulteriormente su un terreno che vede lo stretto intreccio, come si è potuto fin qui notare, di questioni scientifiche, tecniche e filosofiche, si può invece, a questo punto, sulla base di quanto finora detto e secondo quanto ci si proponeva, azzardare una presa di posizione rispetto sia ai facili ottimismi che agli allarmismi che gli ultimi sviluppi di questa problematica tecnologia suscitano.

Intanto si può osservare che “programmi intelligenti” agiscono con successo ed utilmente ormai in tanti momenti dell’esperienza quotidiana di ognuno con computer, smartphone e strumenti a questi connessi, che nemmeno ci si fa più attenzione; per esempio nel caso della correzione automatica di parole digitate male, o della classificazione altrettanto automatica, come indesiderati, di messaggi di posta elettronica, o quando pervengono informazioni, proposte, offerte di vario genere, in base ad un precedente “profilo” che dell’utente della rete è stato, sempre in base a criteri intelligenti, effettuato.

Ora, se certamente, rispetto a queste “semplici” e ormai collaudate funzionalità e a tantissime altre simili, quelle nuove di cui tanto si parla (che sembrano davvero prendere il posto di molteplici e complesse attività intellettuali umane) colpiscono molto di più (specie quando affidate a robot in grado di interagire con l’ambiente), tuttavia non attuano un salto di qualità di tale portata da dovere suscitare un genere di attenzione e di preoccupazione completamente nuovo e da costringere a temere l’impossibilità di esercitare su di esse un controllo. Con questo non si vuole affatto affermare (anzi, l’intento è il contrario) che l’intelligenza artificiale, pur con tutto l’aiuto ormai irrinunciabile che fornisce in tanti campi, non determini anche serissimi problemi sostituendosi all’essere umano e che non siano effettivi i rischi di un suo impiego incontrollato. Così, ad esempio, l’automazione basata sull’intelligenza artificiale di molte forme di lavoro, se pure crea nuove competenze e nuove figure professionali, nello stesso tempo ne sconvolge  o ne fa scomparire forse molte di più; il trattamento di notizie e di immagini, guidato da criteri intelligenti, si può tradurre, anzi già si traduce, in un pesante condizionamento sociale; le sempre più sofisticate tecniche di riconoscimento e particolari algoritmi, funzionali rispettivamente alla sorveglianza e alla “polizia predittiva”, invadono pesantemente la dimensione privata, assoggettandola persino a temibili pregiudizi; la produzione di documenti in ogni forma di genere espressivo ormai è una costante minaccia alla creatività; evidenti si mostrano i pericoli sia in ambito finanziario che militare, dove sempre più si diffondono sistemi di calcolo che attribuiscono ampia autonomia, rispettivamente, a operazioni di trading e all’impiego di certe armi. E si potrebbe continuare.

Ciononostante, in questo ambito di applicazioni dell’intelligenza artificiale (o comunque si vogliano chiamare gli automatismi in questione sostenuti da complessi algoritmi), quando i rischi siano palesemente molto più pronunciati dei vantaggi, non si vede, in linea teorica, alcuna oggettiva impossibilità di “staccare la spina” a sistemi ingegneristici diventati invadenti e preoccupanti, ma pur sempre ad opera di tecnici che, avendoli progettati, ne conoscono perfettamente l’architettura, i programmi, la potenza ma anche i punti deboli.

Per questo, allorché si insiste sul pericolo che le tecnologie informatiche sfuggano di mano e si chiedono quindi (in maniera persino concitata) in tempi rapidi forme di regolamentazione, nasce spontaneamente il sospetto che in verità c’è chi riesce a scorgere, dietro i prodigi di una intelligenza artificiale supposta incontrollabile, la fin troppo umana intelligenza di oligarchie e tecnocrazie i cui “vertici” forse deliberatamente la indirizzano in una certa direzione. Del resto, le trame volte all’addomesticamento di masse dotate di una intelligenza umana non proprio refrattaria a farsi plasmare e possedere dai miti materiali della modernità, agiscono non da oggi, risultando particolarmente efficaci, in modo solo apparentemente paradossale, nelle società descritte come democratiche.

Per onestà, a considerazioni del genere, però, non si può che attribuire un carattere solo molto ipotetico, tenendo conto che il vibrato allarme sui pericolosi sbocchi dell’intelligenza artificiale sembra provenire prevalentemente da ambienti di quello stesso ipercapitalismo tecnocratico che ne utilizza invece convintamente e in massimo grado tutto il ventaglio di funzionalità. Forse si assiste ad un confronto interno, sulla base anche di differenti visioni ideali (in cui vengono sublimate, spesso, la smisurata ricchezza ed il potere delle élites planetarie) e di diverse sensibilità, tra diversi modi di disegnare i processi guidati dalle idee di “globalismo” e “transumanesimo”, verso cui comunque le intelligenze egemoni che guidano il mondo sono protese? Solo il futuro potrà dare delle risposte.

Molto diversa la situazione, invece (e, per quanto detto in precedenza, francamente improbabile e solo fantascientifica), rispetto a quella pur preoccupante appena esaminata, nel caso dell’effettiva realizzazione di una intelligenza artificiale davvero “forte” (ovvero autocosciente, libera e reattiva) e di un suo impiego così pervasivo e intenso da rendere imprescindibile e irreversibile la sua crescita parassita ed il suo controllo su ogni aspetto della vita organizzata, dell’apparato statale, dell’economia, delle stesse fonti energetiche che la alimentano; al punto da risultare quasi impossibile il suo “spegnimento” e da provocare, comunque, il suo arresto, effetti catastrofici non minori di quelli prodotti dal suo impiego. Uno scenario al momento del tutto inverosimile, occupato da una intelligenza artificiale, verrebbe da dire, senza dubbio “mostruosa”, molto, molto al di là di quella che oggi suscita le preoccupazioni, forse eccessive, di Geoffrey Hinton o di Elon Musk!

 

 

 

 

 

 

 

 

 

 

 

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.