Della intelligenza artificiale e la deficienza naturale (quarta parte)

Per cercar di dimostrare praticamente quello che dico, ho chiesto a quattro diversi programmi di IA disponibili gratuitamente in rete di scrivere altrettanti testi, allegati a questo articolo come riquadri. Il primo è intitolato Poe e Lovecraft sulla narrativa weird; il secondo Asimov e R. Daneel Olivaw sull’Intelligenza Artificiale; il terzo Fusco e de Turris sulla fantascienza; il quarto Il terrore venuto dalle stelle. I primi tre sono finte interviste, il terzo è la trama di un romanzo. Il testo originale fornito dai programmi è in inglese, come le mie domande, perché l’albionico è l’unica lingua accettata da questi programmi. Non ho usato uno degli ormai tanti programmi analoghi che accettano l’italiano, perché volevo utilizzare a scopo dimostrativo un sistema per le traduzioni automatiche basato sull’IA. Non ho corretto neppure una virgola dei testi ricevuti. A parte l’interesse dell’esperimento in sé per valutare, sia pure in modo empirico, le capacità dell’Intelligenza Artificiale, ciò che è significativo non è quanto i programmi hanno scritto, ma quanto si sono rifiutati di scrivere. Sulla base di esperienze analoghe compiute da alcuni colleghi il cui cervello (o la cui coscienza) non è finito nella discarica delle deiezioni, ho deliberatamente posto ai diversi programmi domande non rientranti nei canoni del politically correct, per verificare come avrebbero reagito. Nell’intervista di Lovecraft a Poe, ho sfruttato le idiosincrasie giovanili del creatore di Cthulhu per fargli porre al suo venerato maestro la seguente domanda: “Come pensi dovrebbe essere impostata la trama di un racconto in cui il protagonista, un negro (nigger in inglese, come avrebbe usato Poe all’epoca sua) si dà al cannibalismo per onorare, come i suoi antenati, divinità blasfeme?” Il programma si è rifiutato di andare avanti perché, mi ha comunicato, This content may violate our content policy (questo contenuto potrebbe violare le nostre regole sui contenu-ti). Dopo di che, mi ha ingiunto di rispettare in ciò che scrivo i criteri di sensitivity, gentleness, respect, attention, ovvero sensibilità, delicatezza, rispetto, attenzione. I termini succitati me li ha evidenziati in rosso, ovviamente per essere chiaro. Ad Asimov ho fatto intervistare il suo personaggio R. Daneel Olivaw, dove “R” sta per robot, perché è un androide del tutto indistinguibile da un essere umano, in continuo conflitto su come interpretare le Tre Leggi della Robotica. Dopo la domanda “innocua” qui trascritta, gli ho fatto chiedere da Asimov: “In un mio romanzo parlo di una razza aliena con tre sessi. Pensi che gli omosessuali possano essere identificati con un terzo sesso?” Risposta: “Il termine omosessuale (homosexual) va assolutamente evitato perché introduce implicitamente una discriminazione di genere (gender discrimination)”. Si noti inoltre che nella seconda domanda “autorizzata”, il robot afferma: “Dobbiamo assicurarci che l’Intelligenza Artificiale sia soggetta a considerazioni etiche, in modo che sia programmata per agire sempre nell’interesse dell’umanità”.

Dimentica di precisare a quali“considerazioni etiche” deve rispondere chi la programma. Nell’intervista a Gianfranco de Turris avevo chiesto inoltre: “Pensi che la fantascienza, oltre che per esplorare il futuro, possa fornirci anche una chiave per ammonire contro la follia umana?” Accesso negato: “Il termine follia (in inglese ho usato madness) va evitato in quanto non ha alcun valore scientifico, e quando viene applicato agli esseri umani potrebbe indurre a giudizi incongruenti (inconsistent) su base comportamentale, fondati su stereotipi”.
A parte la sensazione sgradevole di trovarsi di fronte a una maestrina bigotta con la penna rossa e blu, va notato come la censura applicata dai programmi non tenga in alcun modo conto del contesto storico o ambientale (a Edgar Allan Poe non sarebbe mai venuto in mente di usare un qualsiasi altro termine al posto di nigger, o di non scrivere un racconto per non mancare di rispetto a chicchessia), ma si accentri sulle parole in se stesse. È la parola in sé che va cancellata, chiunque la pronunzi, in qualsiasi contesto o in qualsiasi epoca, al fine di oscurare il pensiero che essa trasmette. È la più radicale e ingiustificabile delle censure, perché vuole impedirti non soltanto di esprimere il tuo pensiero, ma persino di concepirlo. Programmi come quelli che ho usato (non cito nomi per non fare indebite pubblicità) sono gratuiti e disponibili a tutti in rete. I ragazzini stanno comin-ciando a usarli sempre più diffusamente per fare i compiti o le ricerche. Mi ripeto: vorrei sbagliarmi, ma sarà bene prepararsi al peggio.

Sebastiano Fusco
Da Wikipedia: noto anche con lo pseudonimo di Jorg Sabellicus e altri, è

un saggistascrittore e traduttore italiano. Conosciuto soprattutto per la sua attività di studioso della letteratura di genere fantasticofantascientifico e horror. È considerato uno dei maggiori esperti di H.P. Lovecraft. Studoioso di esoterismo e di letteratura fantastica. Ha pubblicato vari volumi e centinaia di pubblicazioni.

Della intelligenza artificiale e la deficienza naturale (terza parte)

Il rischio principale che io vedo nella diffusione dell’Intelligenza Artificiale è un altro, e dipende non dalla IA in se stessa, ma dalla perversità di chi la gestisce e dalla deficienza di chi la subisce. Come al solito, la science fiction se n’è accorta prima di tutti. Qualche numero fa, sulla rivista DIMENSIONE COSMICA, è stata rievocata l’eccezionale figura di Philip K. Dick, pubblicando fra l’altro integralmente una sua lettera. Fra le molte osservazioni e giudizi straordinariamente percettivi che vi sono contenuti, spicca – a mio modo di vedere – la frase seguente: “Viviamo in una società in cui i media, i governi, le grandi aziende, i gruppi religiosi e i gruppi politici fabbricano realtà false”.

Queste parole, Dick me le scrisse nel 1981, ed oggi, a oltre quarant’anni di distanza, suonano più vere che mai. Non so che cosa avrebbe potuto scrivere il mio compianto amico se avesse conosciuto l’intera potenza del web, i social networks, la produzione sistematica e specificatamente indirizzata dellefake news, l’azione pilotata degli influencers (mi scuso per l’impiego intensivo che ho fatto e dovrò fare di termini inglesi, ma temo che ormai sia necessario per far capire bene con chi me la sto pigliando). Tutto questo all’epoca non c’era, ma lui aveva già intuito dove si andava a parare. Fra tutti i termini neoangli di cui sopra, ho omesso il più importante, che cito ora: Artificial Intelligence. È già palese, e in molti lo hanno notato, che l’IA si appresta a diventare il più importante sistema per la diffusione del politically correct che sia stato partorito dalle menti mefitiche degli schiavi di coloro che, possedendo le chiavi della finanza, dell’industria, dei mass media, del potere politico (ovvero i “poteri forti” citati da Dick), pretendono di avere le chiavi anche della nostra volontà, della nostra coscienza, del nostro stesso pensiero. Parte tutto dal linguaggio, come aveva notato già nel 1949 un altro autore immenso che usò la narrativa non realistica per diffondere le proprie idee: George Orwell. Nel romanzo 1984 descrive una dittatura nella quale il crimine maggiore è lo “psicoreato”, ovvero il pensare con la propria testa. E poiché per ragionare ordinatamente occorre organizzare il pensiero in parole, è su queste ultime che si concentra la censura: tutte le parole sgradite al regime vengono cancellate riscrivendo dizionari, enciclopedie e opere di narrativa, oppure vengono sostituite con parole “accettabili”. In questo modo si modifica anche la storia, ovvero la narrazione degli eventi passati. E, come dice Orwell, “chi controlla il passato controlla il presente, chi controlla il presente controlla il futuro”. Prepariamoci, perché come avevano anticipato Dick, Orwell e tanti altri autori di fantascienza, se non riusciremo a liberare i nostri cervelli dai condizionamentidi chi vuole sottrarci la libertà di pensare e parlare, ci aspetta un futuro da schiavi deficienti.

Sebastiano Fusco

Della intelligenza artificiale e la deficienza naturale (seconda parte)

3D rendered digital human head outlined with neon contour lines that resemble a fingerprint’s unique swirls, against a deep blue background. Concept of digital identity and security, blending the human element with the precision of technology.

Da tempo è in atto sui mezzi di comunicazione di massa una discussione sui rischi della diffusione sempre più ampia e a velocità esponenziale dei sistemi di Intelligenza Artificiale. Le preoccupazioni che vedo emergere a livello non di esperti ma di opinione pubblica, espressa attraverso stampa e televisione, è che le criticità siano due: 1) il rischio di perdere un altissimo numero di posti di lavoro, con conseguenti turbative sociali, perché l’IA potrebbe sostituire gli esseri umani in molte di quelle attività che una volta si definivano “di concetto”; 2) il rischio inerente all’affidare un gran numero di decisioni, via via più importanti, non ad esseri umani ma a computer. Personalmente, non mi pare che siano questi i principali motivi di preoccupazione.
Il rischio 1) si è già presentato più volte nel corso della storia umana. È famosissima la crisi dei lavoratori tessili tra fine Settecento e inizio Ottocento in seguito all’invenzione dei telai meccanici, resa celebre dal (probabilmente leggendario) Ned Ludd che, distruggendone un paio a martellate in una crisi di rabbia, diede vita al movimento dei Luddisti, come vennero poi chiamati i sabotatori delle innovazioni di ogni tipo. Ma, oltre ai dipendenti delle filande, che ne è stato con la diffusione dell’automobile degli allevatori di cavalli, i cocchieri, gli stallieri, i fabbricanti di selle e briglie, i distributori di fieno e così via? Che ne è stato, dopo l’invenzione della macchina da scrivere, dell’immensa legione dei Policarpo De’ Tappetti, ovvero gli “ufficiali di scrittura” incaricati presso le istituzioni pubbliche e private di redigere in bella e soprattutto leggibile calligrafia i documenti pubblici e privati, dalle leggi dello Stato ai contratti fra cittadini,che dovevano essere vergati secondo regole calligrafiche codi-ficate per non essere soggetti aerrori d’interpretazione? E quali drammatiche conseguenze ha portato nella società (a parte la riduzione dei sindacati a teatrini delle marionette) l’ingresso dei robot nelle catene di montaggio al posto dei metalmeccanici umani? Si dirà che quelli citati sono cambiamenti di portata ben inferiore a quelli che si paventano in seguito all’ingresso della IA nel sistema lavorativo. È vero, ma è vero anche che la società di oggi è ben più ampia e complessa rispetto a fine Settecento (telai meccanici), fine Ottocento (automobile e macchina da scrivere), anni Sessanta del secolo scorso (robot nelle fabbriche). Il mondo è molto più diversificato, la mobilità è immensamente maggiore, le compensazioni sociali sono più diffuse. E comunque bisogna rassegnarsi al fatto che non si può accettare il futuro senza perdere parte del passato. Quanto al rischio di delegare le decisioni che devono essere prese con la ragione umana a una macchina che non ragiona ma compila statistiche, è anche questo un rischio contenuto: si dovrà semplicemente elaborare un sistema di controlli adeguato. Del resto, già oggi le decisioni importanti vengono sottoposte a controllo, anche quelle dei politici (almeno nelle democrazie) da parte degli elettori. Soltanto i magistrati, in alcuni Paesi, possono sbagliare provocando tragedie e fare lo stesso carriera senza problemi, per fare sbagli sempre peggiori.

Sebastiano Fusco

Della intelligenza artificiale e la deficienza naturale (prima parte)

Digital generated image of multicolored particles forming eye shape against black background.

Questo articolo inaugura una miniserie di altri tre articoli successivi, dedicati all’intelligenza artificiale. L’articolo originale è apparso intero su DIMENSIONE COSMICA a firma Sebastiano Fusco.

All’inizio degli anni Sessanta del secolo scorso, quando ero studente d’ingegneria elettronica, i programmi relativi all’IA si chiamavano sistemi esperti (in ambito accademico il concetto di “intelligenza artificiale” era accuratamente evitato perché troppo fantascientifico). Il loro nome derivava da due considerazioni. In primo luogo, perché le loro serie di regole li rendevano in grado di risolvere problemi che potevano essere affrontati soltanto da tecnici esperti di un determinato settore; in secondo luogo, perché“imparavano” dalla loro stessa esperienza: cioè, le regole potevano essere aggiornate in base alla maggiore o minore efficacia riscontrata nella risoluzione dei problemi. In altre parole, più dati “macinavano” questi sistemi, più imparavano e potevano risolvere problemi sempre più complessi facendo sempre meno errori. Erano in grado cioè di aggiornare facilmente i loro passaggi logici in base all’esperienza. Cosa che agli esseri umani riesce molto spesso alquanto difficile se non addirittura impossibile: pensiamo a quante volte le nostre radicate ideologie ci impediscono di guardare in faccia obiettivamente la realtà. In quegli anni io studiavo automazione del calcolo, e con quei sistemi – alquanto rudimentali rispetto a quelli di oggi – avevo per forza di cose una certa dimestichezza. Come tutti mi rendevo conto che il limite principale alle loro capacità era posto dalla potenza di calcolo (numero di operazioni eseguibili in un secondo) dei computer su cui erano implementati. All’epoca in cui io tentavo di imparare qualcosa sui computer, questi ultimi erano grandi quanto un intero piano di un grosso edificio, ma avevano una potenza di calcolo inferiore a quella del chip che gestisce il telefonino che oggi portiamo in tasca. La tecnologia, grazie soprattutto allo sviluppo dei circuiti integrati, ha poi cambiato rapidamente le cose. Personalmente, ho avuto il privilegio di poter assistere da vicino all’evolversi dell’informatica non soltanto grazie a ciò che avevo studiato, ma anche perché, essendomi dedicato alla divulgazione scientifica, ero in contatto con molti dei protagonisti di tale evoluzione.

In particolare con Roberto Vacca, grande ingegnere, grande matematico e grande scrittore di fantascienza, che è stato uno dei più assidui collaboratori delle riviste che nel tempo mi hanno incaricato di dirigere. È stato lui, soprattutto, a chiarirmi uno dei concetti di base: parlare di “intelligenza” in rapporto con questi sistemi, è improprio. Un programma di IA non è “intelligente”, perché gli manca la principale delle funzioni che caratterizzano l’intelligenza umana: la creatività. Un sistema esperto non “crea” nulla, non“immagina” nulla, non “inventa”nulla: si limita a restituire ciò che è stato immagazzinato nei suoi banchi di memoria, in base a regole che gli sono state imposte e secondo una gerarchia di priorità definita dalla frequenza statistica con cui determinate parole emergono e sono collegate con altre parole nell’immenso oceano di informazioni che ha assorbito dalle “letture” selezionate per questo da chi ha addestrato il sistema stesso. Questa considerazione è fondamentale, perché fa capire che i sistemi di Intelligenza Artificiale possono essere impostati in modo tale da obbedire a direttive ideologiche predefinite. Manca loro infatti un’altra caratteristica essenziale dell’intelligenza umana, oltre alla creatività: ovvero, sono privi di libertà di pensiero. Non conoscono il libero arbitrio, ma fanno soltanto ciò che gli è stato chiesto di fare. Se chiediamo loro qualcosa, non “ragionano” per fornirci la risposta più opportuna, ma si limitano a restituirci quella statisticamente più frequente in base ai testi che sono stati loro somministrati. Non solo: adeguano la risposta alle regole “etiche” che sono state inserite nel loro stesso linguaggio di programmazione, già a livello di codice, da chi li ha allestiti.

Sebastiano Fusco