Giuliano Amato si dimette dalla Commissione algoritmi. Domanda: cosa ci faceva Amato lì? Al suo posto viene messo un frate, Paolo Benanti. Perplessità. Cosa c’entra un frate con l’intelligenza artificiale? Poi vedi l’immagine di lui col saio all’Onu e dici wow, meglio di una fiction Rai: il francescano esperto di tecnologia che rivoluziona i palazzi del potere. Stupore, campanello del dubbio. Successivamente apri tutti i giornali e c’è l'effetto Mario Draghi. Paolo Benanti super professore universitario, super esperto di intelligenza artificiale, super competente, cintura nera di etica degli algoritmi. Enigmistica delle agiografie: dubbio confermato. È giusto o sbagliato che un frate francescano occupi una posizione del genere? L’etica è questo, l’interrogazione su ciò che è bene e su ciò che è male, e dalle intuizioni di Hume fino agli studi di Damasio sappiamo che ogni decisione intorno al bene e al male ha una relazione con le emozioni. L’emozione di ciò che è sconosciuto è quasi sempre la paura. Potenza delle immagini: di fronte alle sfide poste dall’intelligenza artificiale, in cui è l’ignoto a farla da padrone, bisogna ammettere che la foto di un francescano col saio ha un effetto atavicamente rassicurante. Fratello algoritmo, sorella ia, direbbe oggi San Francesco: l'effetto mentale di chiamare le cose con appellativi famigliari, è quello di vincolarle a un’emozione positiva, attribuendogli quindi una valenza morale positiva. Amore verso il fratello, uguale bontà dell’algoritmo. Il problema che le commissioni devono affrontare, però, è che gli algoritmi non hanno emozioni, e prendono decisioni in base ai dati, che a loro volta sono moralmente neutrali. La domanda è: possiamo davvero convertire un’intelligenza artificiale all’etica cristiana? Aprendo la pagina della commissione Onu, la prima cosa che compare sono le linee guida. Il primo principio, si legge, è quello dell’inclusività. Ora, l’etica cristiana, in quanto sistema morale di tipo religioso, non è mai stata campionessa di inclusione, nonostante le aperture di Papa Francesco, che hanno più il sapore di mosse di marketing che altro. Paolo Benanti tiene diversi corsi alla Pontificia Università Gregoriana. Molti sono dedicati alle questioni etiche dell'intelligenza artificiale, campo in cui è sicuramente competente. Le perplessità nascono intorno alle modalità con cui esercita la sua competenza.
Mi spiego: il nuovo presidente della Commissione algoritmi tiene, ad esempio, un corso universitario sulla “morale sessuale, coniugale e familiare”. Nella scheda del corso, si può leggere che “si indicheranno le condizioni per una vita morale che sia riflesso nella persona della somiglianza divina, approfondendo i seguenti temi: la dualità uomo donna; sessualità come rivelazione della vocazione all’amore; la norma morale nella sfera sessuale; l’ideologia gender; l’autoerotismo; l’omosessualità; la pedofilia; la sessualità nell’adolescenza, nella giovinezza e nel fidanzamento; i rapporti prematrimoniali; amore coniugale, fedeltà e fecondità; la procreazione responsabile alla luce di Gaudium et spes, Humanae vitae e del successivo magistero della Chiesa”. La bibliografia, poi, indica che il corso verrà tenuto unicamente “sulla base di testi biblici, patristici e magisteriali fondanti per la morale sessuale”. Se è questa l'etica che dovrà instradare le decisioni dell'intelligenza artificiale, direi che il primo principio delle linee guida Onu va, è il caso di dirlo, a farsi benedire. Senza pregiudizi di sorta, è ovvio che, se chiami un frate in qualità di consulente sullo sviluppo morale delle macchine, perché di questo si tratta, lui proporrà un principio etico che non può andare né oltre né contro i dogmi della religione a cui è votato. Gli stessi dogmi, peraltro, di cui era esponente Giuliano Amato, che nel 2000, da Presidente del Consiglio, si rammaricò di non aver impedito il gay pride, e che nel 2007, da ministro dell'interno, emanò una circolare a sindaci e prefetti in cui ricordava l'impossibilità di trascrivere i matrimoni gay celebrati all'estero “in quanto contrari all'ordine pubblico interno”. Per concludere la domanda iniziale: Paolo Benanti è senz’altro competente in materia di intelligenza artificiale, ma il metodo della sua competenza morale rischia di mettere dei paletti troppo stretti alla cosiddetta algoretica, riportandola nel vicolo chiuso delle restrizioni religiose. Il suo obiettivo è quello di mettere “guardrail” all'etica degli algoritmi, e quella che potrebbe essere una grande autostrada, è così destinata a rimanere una strada provinciale, piena zeppa di autovelox morali.