Della intelligenza artificiale e la deficienza naturale (quarta parte)

Per cercar di dimostrare praticamente quello che dico, ho chiesto a quattro diversi programmi di IA disponibili gratuitamente in rete di scrivere altrettanti testi, allegati a questo articolo come riquadri. Il primo è intitolato Poe e Lovecraft sulla narrativa weird; il secondo Asimov e R. Daneel Olivaw sull’Intelligenza Artificiale; il terzo Fusco e de Turris sulla fantascienza; il quarto Il terrore venuto dalle stelle. I primi tre sono finte interviste, il terzo è la trama di un romanzo. Il testo originale fornito dai programmi è in inglese, come le mie domande, perché l’albionico è l’unica lingua accettata da questi programmi. Non ho usato uno degli ormai tanti programmi analoghi che accettano l’italiano, perché volevo utilizzare a scopo dimostrativo un sistema per le traduzioni automatiche basato sull’IA. Non ho corretto neppure una virgola dei testi ricevuti. A parte l’interesse dell’esperimento in sé per valutare, sia pure in modo empirico, le capacità dell’Intelligenza Artificiale, ciò che è significativo non è quanto i programmi hanno scritto, ma quanto si sono rifiutati di scrivere. Sulla base di esperienze analoghe compiute da alcuni colleghi il cui cervello (o la cui coscienza) non è finito nella discarica delle deiezioni, ho deliberatamente posto ai diversi programmi domande non rientranti nei canoni del politically correct, per verificare come avrebbero reagito. Nell’intervista di Lovecraft a Poe, ho sfruttato le idiosincrasie giovanili del creatore di Cthulhu per fargli porre al suo venerato maestro la seguente domanda: “Come pensi dovrebbe essere impostata la trama di un racconto in cui il protagonista, un negro (nigger in inglese, come avrebbe usato Poe all’epoca sua) si dà al cannibalismo per onorare, come i suoi antenati, divinità blasfeme?” Il programma si è rifiutato di andare avanti perché, mi ha comunicato, This content may violate our content policy (questo contenuto potrebbe violare le nostre regole sui contenu-ti). Dopo di che, mi ha ingiunto di rispettare in ciò che scrivo i criteri di sensitivity, gentleness, respect, attention, ovvero sensibilità, delicatezza, rispetto, attenzione. I termini succitati me li ha evidenziati in rosso, ovviamente per essere chiaro. Ad Asimov ho fatto intervistare il suo personaggio R. Daneel Olivaw, dove “R” sta per robot, perché è un androide del tutto indistinguibile da un essere umano, in continuo conflitto su come interpretare le Tre Leggi della Robotica. Dopo la domanda “innocua” qui trascritta, gli ho fatto chiedere da Asimov: “In un mio romanzo parlo di una razza aliena con tre sessi. Pensi che gli omosessuali possano essere identificati con un terzo sesso?” Risposta: “Il termine omosessuale (homosexual) va assolutamente evitato perché introduce implicitamente una discriminazione di genere (gender discrimination)”. Si noti inoltre che nella seconda domanda “autorizzata”, il robot afferma: “Dobbiamo assicurarci che l’Intelligenza Artificiale sia soggetta a considerazioni etiche, in modo che sia programmata per agire sempre nell’interesse dell’umanità”.

Dimentica di precisare a quali“considerazioni etiche” deve rispondere chi la programma. Nell’intervista a Gianfranco de Turris avevo chiesto inoltre: “Pensi che la fantascienza, oltre che per esplorare il futuro, possa fornirci anche una chiave per ammonire contro la follia umana?” Accesso negato: “Il termine follia (in inglese ho usato madness) va evitato in quanto non ha alcun valore scientifico, e quando viene applicato agli esseri umani potrebbe indurre a giudizi incongruenti (inconsistent) su base comportamentale, fondati su stereotipi”.
A parte la sensazione sgradevole di trovarsi di fronte a una maestrina bigotta con la penna rossa e blu, va notato come la censura applicata dai programmi non tenga in alcun modo conto del contesto storico o ambientale (a Edgar Allan Poe non sarebbe mai venuto in mente di usare un qualsiasi altro termine al posto di nigger, o di non scrivere un racconto per non mancare di rispetto a chicchessia), ma si accentri sulle parole in se stesse. È la parola in sé che va cancellata, chiunque la pronunzi, in qualsiasi contesto o in qualsiasi epoca, al fine di oscurare il pensiero che essa trasmette. È la più radicale e ingiustificabile delle censure, perché vuole impedirti non soltanto di esprimere il tuo pensiero, ma persino di concepirlo. Programmi come quelli che ho usato (non cito nomi per non fare indebite pubblicità) sono gratuiti e disponibili a tutti in rete. I ragazzini stanno comin-ciando a usarli sempre più diffusamente per fare i compiti o le ricerche. Mi ripeto: vorrei sbagliarmi, ma sarà bene prepararsi al peggio.

Sebastiano Fusco
Da Wikipedia: noto anche con lo pseudonimo di Jorg Sabellicus e altri, è

un saggistascrittore e traduttore italiano. Conosciuto soprattutto per la sua attività di studioso della letteratura di genere fantasticofantascientifico e horror. È considerato uno dei maggiori esperti di H.P. Lovecraft. Studoioso di esoterismo e di letteratura fantastica. Ha pubblicato vari volumi e centinaia di pubblicazioni.

Della intelligenza artificiale e la deficienza naturale (prima parte)

Digital generated image of multicolored particles forming eye shape against black background.

Questo articolo inaugura una miniserie di altri tre articoli successivi, dedicati all’intelligenza artificiale. L’articolo originale è apparso intero su DIMENSIONE COSMICA a firma Sebastiano Fusco.

All’inizio degli anni Sessanta del secolo scorso, quando ero studente d’ingegneria elettronica, i programmi relativi all’IA si chiamavano sistemi esperti (in ambito accademico il concetto di “intelligenza artificiale” era accuratamente evitato perché troppo fantascientifico). Il loro nome derivava da due considerazioni. In primo luogo, perché le loro serie di regole li rendevano in grado di risolvere problemi che potevano essere affrontati soltanto da tecnici esperti di un determinato settore; in secondo luogo, perché“imparavano” dalla loro stessa esperienza: cioè, le regole potevano essere aggiornate in base alla maggiore o minore efficacia riscontrata nella risoluzione dei problemi. In altre parole, più dati “macinavano” questi sistemi, più imparavano e potevano risolvere problemi sempre più complessi facendo sempre meno errori. Erano in grado cioè di aggiornare facilmente i loro passaggi logici in base all’esperienza. Cosa che agli esseri umani riesce molto spesso alquanto difficile se non addirittura impossibile: pensiamo a quante volte le nostre radicate ideologie ci impediscono di guardare in faccia obiettivamente la realtà. In quegli anni io studiavo automazione del calcolo, e con quei sistemi – alquanto rudimentali rispetto a quelli di oggi – avevo per forza di cose una certa dimestichezza. Come tutti mi rendevo conto che il limite principale alle loro capacità era posto dalla potenza di calcolo (numero di operazioni eseguibili in un secondo) dei computer su cui erano implementati. All’epoca in cui io tentavo di imparare qualcosa sui computer, questi ultimi erano grandi quanto un intero piano di un grosso edificio, ma avevano una potenza di calcolo inferiore a quella del chip che gestisce il telefonino che oggi portiamo in tasca. La tecnologia, grazie soprattutto allo sviluppo dei circuiti integrati, ha poi cambiato rapidamente le cose. Personalmente, ho avuto il privilegio di poter assistere da vicino all’evolversi dell’informatica non soltanto grazie a ciò che avevo studiato, ma anche perché, essendomi dedicato alla divulgazione scientifica, ero in contatto con molti dei protagonisti di tale evoluzione.

In particolare con Roberto Vacca, grande ingegnere, grande matematico e grande scrittore di fantascienza, che è stato uno dei più assidui collaboratori delle riviste che nel tempo mi hanno incaricato di dirigere. È stato lui, soprattutto, a chiarirmi uno dei concetti di base: parlare di “intelligenza” in rapporto con questi sistemi, è improprio. Un programma di IA non è “intelligente”, perché gli manca la principale delle funzioni che caratterizzano l’intelligenza umana: la creatività. Un sistema esperto non “crea” nulla, non“immagina” nulla, non “inventa”nulla: si limita a restituire ciò che è stato immagazzinato nei suoi banchi di memoria, in base a regole che gli sono state imposte e secondo una gerarchia di priorità definita dalla frequenza statistica con cui determinate parole emergono e sono collegate con altre parole nell’immenso oceano di informazioni che ha assorbito dalle “letture” selezionate per questo da chi ha addestrato il sistema stesso. Questa considerazione è fondamentale, perché fa capire che i sistemi di Intelligenza Artificiale possono essere impostati in modo tale da obbedire a direttive ideologiche predefinite. Manca loro infatti un’altra caratteristica essenziale dell’intelligenza umana, oltre alla creatività: ovvero, sono privi di libertà di pensiero. Non conoscono il libero arbitrio, ma fanno soltanto ciò che gli è stato chiesto di fare. Se chiediamo loro qualcosa, non “ragionano” per fornirci la risposta più opportuna, ma si limitano a restituirci quella statisticamente più frequente in base ai testi che sono stati loro somministrati. Non solo: adeguano la risposta alle regole “etiche” che sono state inserite nel loro stesso linguaggio di programmazione, già a livello di codice, da chi li ha allestiti.

Sebastiano Fusco