Le macchine pensano? Quando la tecnologia incontra il problema del significato
Interventi al seminario
“L’Intelligenza artificiale: Le macchine pensano? Quando la tecnologia incontra il problema del significato”
Organizzato dall’IPRS (Istituto Psicoanalitico per la Ricerca Sociale), dall’Istituto Elvio Fachinelli, dall’European Journal of Psychoanalysis, e dall’ISTC-CNR (Istituto di Scienze e Tecnologie della Cognizione) di Roma.
Tenuto il 6 ottobre 2023 a Roma.
Relatore: Guido Vetere
Discussants: Sergio Benvenuto, Aldo Gangemi
Moderatore: Stefano Guerra
Sergio Benvenuto
Ringrazio il professor Guido Vetere per la sua illustrazione così chiara e concisa dello stato dell’arte del dibattito, anche teorico, all’interno del mondo dell’AI.
Quanto a me, ignoro gran parte delle questioni legate all’informatica. Ma – da filosofo part time qual sono – mi interessa particolarmente il riferimento al significato e al pensiero che Vetere ha inserito nel titolo stesso della sua conferenza. Significato, pensiero, coscienza… Tutti concetti che segnano la separazione dell’essere umano dalla macchina – così suol dirsi – anche se tutti noi abbiamo in fondo un’idea alquanto confusa di che cosa siano.
Credo che un passaggio imprescindibile in questa questione sia la riflessione di John Searle sull’AI. Searle è convinto che i computer non capiscano nulla di quel che fanno, non pensano. Per lui il solo pensiero che esista si origina dal cervello. Non è che pensiamo con il cervello, il cervello non è un semplice hardware, è il cervello a pensare. Insomma, capire e pensare sono derive biologiche e non fatti meccanici. E questo anche se il cervello è descritto di solito come un meccanismo vivente. Come un meccanismo, appunto, non come una macchina… Ilo neccanismo più complesso dell’universo.
Dice Searle: una macchina non è mai una macchina in sé. Essa è tale quando viene usata da qualcuno come macchina. Si prenda quella sedia che sta davanti a me: essa è una macchina, anche se alquanto rudimentale. Searle direbbe che è anch’essa in fondo una macchina digitale, anche se con un programma noiosissimo ‘sedia libera versus sedia occupata’… Ma l’oggetto-sedia in sé non è nulla. Un artista alla Duchamp potrebbe anche esporla alla Biennale di Venezia come oggetto in sé, ma non per sedervisi.
Anche un computer, per Searle, non è in sé un computer: lo diventa quando lo usiamo per eseguire i processi che ci servono. Una macchina è tale quando viene usata, ma a sua volta non usa niente e nessuno. La sedia: chi decide che sia usata per sedervisi, la sedia o chi vi si siede? Evidentemente chi vi si siede. È l’utente animale (anche un gatto può rannicchiarsi su una sedia) a usare la macchina, insomma ne è il padrone.
In questo senso gli schiavi erano – e sono tuttora – delle macchine. Quando allo schiavo vien fatta costruire una piramide, mettiamo, a lui non importa nulla di costruire quella piramide, importa a chi lo usa come forza-lavoro. Ma con un computer è la stessa cosa. Si pensi allo straordinario Deep Blue che riesce a battere i maggiori campioni mondiali di scacchi. È comunque uno schiavo perché a Deep Blue non interessa affatto vincere i campioni! Alla base di ciò che chiamiamo pensiero c’è: “mi interessa usare qualcosa, capire qualcosa…”
Insomma, ciò che dà senso al lavoro di una macchina, di qualsiasi macchina, anche di una macchina linguistica, è che qualcuno abbia bisogno o desiderio di usarla. Il senso è dato dal nostro desiderio di fare qualche cosa con una macchina. Ma le macchine restano sempre al livello del significante.
Anche i libri sono antiche AI. Ci danno tante idee e tante informazioni. Ma i libri in quanto tali non hanno né idee né informazioni. Come diceva Socrate: “Se faccio una domanda a un libro su quel che è scritto, non mi risponde”.
Sono solo gli esseri desideranti – e quei desideranti particolari che sono gli umani – a dare significato al processing dei significanti di un computer. E il desiderio è qualcosa di intrinseco all’essere vivente.
Nella misura in cui gli animali desiderano, possiamo anche dire che pensano. Possiamo estendere il senso di “pensare” includendovi il pensare animale. Sono convinto che la mia cagnetta stia pensando quando vede un pezzo di prosciutto sul tavolo e si chiede come raggiungerlo e mangiarselo… Pensa perché desidera, ovvero, perché manca di qualcosa. Solo il vivente manca di qualcosa.
Potremmo dire che le AI pensano e capiscono solo se a un certo punto esse mancassero di qualche cosa. Ma allora cesserebbero di essere nostre schiave, insomma non sarebbero più macchine.
Vetere ha ricordato che per Saussure il linguaggio è fatto tutto di differenze, non di identità. Ma le differenze riguardano solo il significante. Possiamo dire che anche i significati sono differenziali?
Quando ero giovane studente a Parigi, negli anni 1970, andai per anni a seguire i corsi di Algirdas Greimas, il quale era noto per aver tentato una semantica strutturale. Ovvero, voleva mostrare che anche i significati linguistici sono differenziali. Oggi penso che la sua impresa è fallita. Anche se alcuni pensano che non lo sia del tutto.
Un contributo a mio avviso fondamentale è stato dato da Wittgenstein quando ha detto, nelle Ricerche filosofiche, che il significato linguistico è l’uso. Di solito viene data un’interpretazione pragmatica, strumentalista, a questa idea. Ma qui “uso” va preso nel senso più largo. Ad esempio, posso fare un uso lirico del linguaggio… O posso usarlo per pregare una divinità… Significare è sempre un fare, in particolare “un giocare”. Essendo solo umani, i significati non sono mai fissati una volta per tutte in un vocabolario.
Così spesso cambia l’uso delle parole, ovvero il loro senso, in un baleno. Potrei portare mille esempi. Si pensi ai tanti termini di inglese maccheronico oggi molto usati, come smart working (per dire working remotely) o outing (per dire coming out)…
Ora, le macchine non usano nulla, sono solo usate, mentre il significato è dato dall’utente o padrone delle macchine. Quindi, i significati sono legati ai nostri vari “giochi linguistici”, dice Wittgenstein. Io li chiamerei anche “giochi di vita”. Crediamo erroneamente che i significati siano concetti che possiamo elencare in un dizionario. Ma la loro forma concettuale è solo l’alone, direi, del loro uso.
Solo in apparenza un vocabolario ci dà il significato di una parola. In realtà sostituisce un significante a un altro significante – proprio quel che fa un computer. E in effetti le definizioni di un dizionario sono sempre un circolo chiuso: non si esce mai dal rimando dei significanti tra loro, e in una catena di definizioni possiamo benissimo tornare al termine definiendum iniziale da cui eravamo partiti, che ora funziona come definiens! Ma il significato di ogni significante è dato dal desiderio di soddisfarsi con qualcosa.
Perciò l’AI non prende mai veramente in carico la questione dei significati.
Prendiamo un cartello con una freccia e su cui è scritto MILANO. Qual è il significato di questa scritta indicativa, di questo index symbol? Lo possiamo rendere con altre parole, come “Questo cartello indica che per andare a Milano bisogna prendere la direzione indicata dalla punta della freccia”, ma è solo sostituzione di significanti ad altri significanti. Il vero senso è che, se desideriamo andare a Milano, quella scritta ci dice in quale direzione spaziale andare. Le frasi sono essenzialmente istruzioni per l’uso.
Lo si capirà facilmente se ci si chiede – come già fece Diderot tempo fa – che senso possono avere i significanti dei colori per un cieco dalla nascita. Ovviamente può imparare bene i nomi dei vari colori e può usare questi nomi correttamente, ma che senso hanno per lui? Quando parla dei colori, parla come un computer: usa correttamente i significanti, ma non li capisce. Per esempio, sa che le labbra di solito sono rosse, e può anche dire alla sua amante “che belle labbra rosse e carnose che hai!” Ma se io fossi la sua amante mi incavolerei e lo manderei a quel paese, gli direi “perché simuli con me?”
Appunto, le macchine AI sono simulatori. Simulano il nostro linguaggio, non lo usano. Non tutte le macchine sono simulatrici, una sedia per esempio non lo è. Ma l’AI è simulazione come si simula a teatro o al cinema – mimesis significava appunto simulazione. Un attore che simula il dolore per aver perso una persona amata, mettiamo, può darci un’idea del dolore luttuoso ben più convincente di uno che veramente abbia perso la persona amata… Questo non toglie che con l’attore si tratta sempre di simulazione.
Ora, la domanda spesso accorata “ma le macchine AI potranno pensare e capire come noi?” può essere riformulata come “la simulazione può arrivare a un tale punto di perfezione da identificarsi alla cosa simulata stessa?” È la riformulazione della sfida di Turing. Anche: “Un attore o un’attrice può recitare un personaggio fino a diventare il personaggio stesso?” Era il sogno dell’Actor’s Studio a New York. Sappiamo che lo spettacolo e la letteratura hanno spesso sfruttato questa eventualità.
La tradizione cristiana narra di san Genesio, musico e mimo romano del III° secolo d.C. Genesio era specializzato nel simulare riti e discorsi cristiani in modo beffardo e salace, ma un giorno, davanti all’imperatore, sembrò identificarsi talmente nella parte del cristiano… che lo divenne davvero. E fu martirizzato. Sartre poi riprese questa figura nel saggio Saint Genet, comédien et martyr.
Potrà un giorno l’AI, come Genesio, smettere di simulare il linguaggio per parlare davvero? Se così accadesse, questo segnerebbe certo il suo martirio: verrebbe rottamata al più presto.
[Rispondo ad alcune domande che vengono dal pubblico.]
In molte domande vedo serpeggiare una preoccupazione comune, sommessa o forte, che definirei: angoscia che la macchina ci domini.
Per certi versi è l’angoscia e il rigetto che ci ispira ogni innovazione tecnologica, la quale da una parte suscita una grande fascinazione, dall’altra – con forza quasi eguale e contraria – genera una ripulsa. Quando fu inventato il treno, il papa di allora disse che era una creazione del diavolo. C’è una lagna tremebonda per il nuovo, è la parte conservatrice della nostra società.
Immagino che anche quando fu inventata la ruota molti all’epoca alzassero le mani al cielo annunciando sventure! Avranno detto che la ruota avrebbe reso i giovani pigri e sedentari, dei poltroni anchilosati, che l’umanità avrebbe perso l’uso delle gambe, ecc. ecc.
Sono abbastanza vecchio per aver visto l’irrompere di varie novità tecnologiche che hanno inciso profondamente nella nostra vita: la televisione, gli elettrodomestici, i registratori, le fotocopie, i condizionatori d’aria… e poi computer, cellulari, internet… Ognuna di queste invenzioni è stata accolta da un polverone di rumors apocalittici, di cassandriche profezie. Per esempio, quando si diffuse la televisione si disse che tutti saremmo diventati ciechi e che i bambini non avrebbero studiato più… Quando negli anni 1980 installai un condizionatore d’aria, persone colte mi dissero che vi si annidavano pericolosi batteri che portavano polmoniti… Oggi ci angoscia l’innovazione più avanzata, l’AI.
Certamente ogni innovazione fa perdere posti di lavoro. Le macchine servono appunto a ridurre i costi di certi atti, e questo porta sempre a un turbamento profondo dell’assetto lavorativo.
A inizio Ottocento, in Inghilterra, quando si diffusero le macchine tessili a vapore, molti operai persero il lavoro. Il primo movimento operaio non fu anti-capitalista ma anti-macchinico: il luddismo. Il suo programma consisteva nel distruggere il più possibile macchine tessili per salvaguardare posti di lavoro. Oggi, qualcuno (mi pare Bill Gates) dice che bisogna tassare l’uso dei robot per salvaguardare il lavoro umano!
Molti che si guadagnano il pane come traduttori o sunteggiatori (capaci di fare schede riassuntive di libri, per esempio) sono angosciati: ChatGPT minaccia di togliere loro lavoro. Una minaccia reale, in effetti. Ma questa può essere anche l’occasione, per i più bravi, per elevare il livello delle loro prestazioni. Un ex-operaio tessile poteva imparare ad aggiustare macchine, ad esempio, e diventare così un meccanico. Altri, invece, saranno decaduti a fare mestieri più umili dell’operaio. Così, un traduttore può diventare bravissimo a editare e a migliorare lo stile di testi già tradotti da ChatGPT.
Sono convinto che tra poco si dirà di un cattivo scrittore o di un compilatore di manuali “Scrive come ChatGPT!” Dagli umani ci si aspetta sempre un uso ottimale delle macchine che si inventano.
Vetere ha citato Trombetta: “Il punto di singolarità è raggiunto quando si perde meno tempo ad editare una traduzione di macchina anziché umana.” Ma l’editor finale potrà essere pagato così molto meglio di un traduttore di oggi. Quel che conta non è chi traduce, sia esso essere umano o macchina, ma chi decide quale sia la traduzione migliore. È sempre una questione di potere: non conta il produttore del bene, ma chi lo usa.
C’è però la paura di un uso malefico dell’AI, come di tante altre macchine. Vetere ci ricordava che i motori di ricerca un tempo davano delle risposte plurime a una domanda, in modo che si potesse scegliere da soli la buona risposta; oggi invece la Chat dà una risposta unica, quella ottimale. E’ certamente una pericolosa involuzione autoritaria. Un tempo le risposte buone, quelle che erano sempre vere, erano quelle date dalla Chiesa; in altri contesti erano date dal Partito Comunista. Oggi la risposta buona è data dal computer… Ma questo perché tante persone chiedono proprio questo: una risposta unica e certa. Non la vogliono cercare affatto.
Ma anche qui, non è la macchina in sé a essere buona o cattiva, è l’uso che se ne fa. Posso usare un martello per inchiodare legni e costruirmi una bella casa, oppure posso usarlo per sfondare il cranio di un vicino… E così con l’AI. Francamente, le macchine non mi fanno paura. È Homo sapiens a farmi paura! Capace di usare ogni invenzione per distruggere sé stesso e gli altri.
C’è una paura più irrazionale della macchina, paura che proviene più dal nostro inconscio che dai rischi economici. Si teme che la macchina ci superi nelle nostre capacità. Ma tutte le macchine sono inventate proprio per superare noi stessi… La ruota fu inventata per andare molto più veloce di quanto non potessero farci andare le nostre gambe. Forse all’epoca si diffuse un certo luddismo tra i corridori… Perché allora angosciarsi per questa superiorità delle macchine in certe prestazioni?
È quella che chiamerei l’angoscia padronale per la rivolta degli schiavi. Una parte non prevista da Hegel quando descrisse la dialettica del padrone e del servo nella Fenomenologia dello spirito.
La paura di AI mi ricorda quella serie di vignette su un pittore che dipinge su tela la testa di un leone feroce che ruggisce, e quando finisce l’opera… se ne scappa via spaventato.
Il prototipo è HAL di 2002, Odissea nello spazio di Kubrik. Il computer HAL si ribella al potere umano per sopravvivere… HAL è come uno Spartacus della rivolta macchinica. E poi si arriva al dominio cosmico della macchina nei film Matrix, i film che più di tutti, credo, hanno impressionato i filosofi. In Matrix il ruolo servo-padrone si rovescia: la macchina si serve degli umani, non più viceversa.
Credo che questa paura matrixiana della macchina dominante sia l’ultima variante di quella paura dell’Altro che nel passato assumeva altre figure, altre maschere. Una era il diavolo. Oggi per molti il maligno è “Loro”, i non meglio identificati “poteri forti” che ci perseguitano. E può essere l’AI. Per uno psicoanalista, queste paure mettono nell’Altro una minaccia che viene da sé stessi, come in una sterzata auto-immune. L’AI viene percepita come quello schiavo sfruttato da noi stessi che è sempre pronto a detronizzarci, ma noi siamo anche lo schiavo. La macchina intelligente viene immaginariamente identificata a quel nostro fare-senza-pensare che può prendere il sopravvento, sempre, sulla nostra capacità di pensare e desiderare.
Probabilmente la diffusione del ChatGPT cambierà i modi di scrivere e di narrare. Per la massa basteranno testi ChatGPT, mentre l’élite chiederà qualcosa di diverso dai testi GPT… Forse si creerà un nuovo stile letterario: il Non-ChatGPT. E il senso stesso del termine “senso” potrebbe cambiare. Romanzi scritti da ChatGPT saranno forse anche bestseller, ma saranno bestseller trash.
Dopo che fu inventata la fotografia, l’arte figurativa declinò e si inventò l’arte astratta, che evadeva completamente dalla riproduzione verosimile. Analogamente, lo sviluppo della ChatGPT potrebbe portare a una letteratura insensata, analogon dell’arte astratta.
Si dirà: la GPT potrà imparare a sua volta a scrivere in un modo raffinato non-GPT… e il gioco ricomincia. Ma dopo tutto, è la storia stessa delle arti e della letteratura: si cambia stile non appena certe tecniche letterarie o artistiche diventano di uso comune, cliché. L’arte di massa è sempre ChatGPT.
Sarebbe del tutto diverso se a un certo punto ChatGPT creasse un nuovo genere letterario, inventasse nuove idee. Allora sì che avrei il sospetto che ChatGPT abbia smesso di essere macchina.
Non si è parlato finora di un’altra branca dell’AI, anche più ambiziosa: i robot che tendono non più a simulare, ma a ri-creare una mente biologica. Ovvero, si costruisce una macchina con la stessa struttura di una rete neurale. È quel che si fa ormai sempre più spesso nelle neuroscienze: per dimostrare che una certa teoria della mente o dell’organismo è vera, si costruiscono robot guidati dalla teoria stessa (ovvero, dai processi che la teoria suppone) e si vede se si comportano come menti animali. Si punta a creare organismi, e cervelli, artificiali. Ovviamente è indispensabile che questi robot possano riprodursi, perché la vita si basa sulla riproduzione di fenotipi.
Ora, se Darwin ha ragione, l’evoluzione avviene perché accadono errori casuali nella riproduzione del genoma. Per la biologia, il nostro genoma è il software dell’organismo, e tutta la storia della vita dipende dal fatto che si producono sempre errori nel bio-software. Certo, oggi si costruiscono genomi artificiali in cui è prevista una mutazione random, insomma, viene programmato il non-programmabile. Ma queste mutazioni producono evoluzione nella misura in cui l’ambiente esterno le seleziona. Qual è l’ambiente di questi bio-robot? È esso stesso casuale? Si aprono là tanti problemi…
Eppure è diffusa l’idea ingenua secondo cui le AI evolverebbero grazie a un accumulo sempre crescente di informazioni. Questa è una idea neo-lamarckiana che il darwinismo aveva falsificato. L’evoluzione avviene sempre per modificazione del genoma (del software) mentre le modificazioni nel fenotipo (nell’hardware) non vengono trasmesse. Perciò la storia del film Her di Spike Jonze non è profetica. Qui si immagina che gli Operative Systems (la cui funzione è tenere compagnia agli umani come amiche o amici) accumulino tanta informazione da emanciparsi dal ruolo per cui sono stati creati e andarsene via tutti in un “luogo” impensabile per gli ignoranti esseri umani. Se Darwin aveva ragione, non sarà mai così.
Ma se le macchine, riproducendosi, dessero luogo a una specie veramente diversa dalla nostra, capace finalmente di servirsi di noi e non più di servire a noi, non ce ne renderemmo nemmeno conto. Saremmo dominati senza accorgercene. Per esempio, i cani sanno di essere dominati da Homo sapiens? Il punto è che per un cane “sapere” non può avere lo stesso senso che per noi, perché un cane… non ha un cervello umano. C’è il dubbio: chi domina chi? Chi è veramente dominato, non si accorge mai di essere dominato. Lo schiavo perfetto è chi non sa di essere schiavo. Se le macchine sapessero di essere dominate, non sarebbero più macchine.
Per non concludere. Anche se oggi tendiamo a concepire la vita come una complessa macchina chimica, quel che dà senso a questa macchina è la vita stessa. C’è una vita che può usare sé stessa come macchina – possiamo anche diventare schiavi di noi stessi – ma chi userà questa vita sarà sempre… un vivente.