Nel posto dove il cuore riposa e l'ansia scompare, il cuore scompare e l'ansia non riposa. OpenAI, il laboratorio di ricerca sull'intelligenza artificiale fondato da Elon Musk, ha affidato a un team di ricercatori il compito di creare un sistema di valutazione del rischio. Il sistema andrà applicato ai nuovi progetti, chiamati modelli di frontiera, e ne impedirà lo sviluppo nel caso in cui essi rappresentino un pericolo per l'umanità. Distopico, vero? Magalu, un negozio online brasiliano, ha creato il personaggio di un'influencer, Luiza, generata con intelligenza artificiale, da usare come brand ambassador. Il suo profilo Instagram @magazineluiza, nonostante la grafica da videogame fine anni '90, ha 6,7 milioni di followers. Una sorta di campagna Open to Meraviglia ma fatta bene, cioè senza Daniela Santanchè. Distopico anche questo, oppure no? La terza categoria di rischio sul quale deve lavorare il team di OpenAi è "il potere persuasivo del modello". Detto in soldoni, o in Bitcoin, la capacità dell'algoritmo di influenzare i comportamenti delle persone.
Che si tratti di votare un partito, o di comprare un pacco di bugie di Carnevale il cui ricavato andrà in beneficenza bugiarda, il potere persuasivo sembra essere grossomodo il fondamento della società civile. Il fatto che, per lo sviluppo dei programmi di intelligenza artificiale, adesso venga considerato come fattore di rischio, ci apre un bug nella testa. L'IA sarà in grado di influenzare i nostri comportamenti più o meno di quanto non facciano già gli influencer o i politici? Ci siamo talmente abituati agli influencer che siamo pronti per essere convinti a fare qualsiasi cosa anche da una sequenza di 0 e 1, o da una Luiza anni '90? Ma soprattutto: cosa avrebbe di diverso un'influencer digitale da una normale? A vedere le foto: nulla. Entrambe postano fotografie su Instagram dei loro viaggi, dei loro caffè, dei loro piedi pucciosi o dei loro animaletti puzzolenti, o viceversa. In fondo, il messaggio di sempre che ci arriva dagli influencers è questo: non sarete mai come noi, ma ci potete provare se comprate quello che vi vendiamo. Con l'intelligenza artificiale, il messaggio è ancora più spinto, e forse ancora più reale e vero, senza controindicazioni: non potrai mai essere come me, e nemmeno ci puoi provare, sei qui, solo, davanti al prodotto che ti devo vendere, tu e lui.
Con il rischio di essere influenzati ormai ci conviviamo da secoli, e ci siamo sempre caduti dentro: se abbiamo paura sempre delle stesse cose, è perché sono quelle che funzionano meglio. Gli influencers nascono insieme alla democrazia, ad Atene, quando nasce il bisogno di ottenere il favore del popolo. Nello stesso periodo nasce anche il grande teatro, e a questo punto del discorso, se fossimo in una tragedia, interverrebbe il coro a dire: "Ma l'intelligenza artificiale non ha morale alcuna! Mai ne ha avuta, mai ne potrà avere!". Visto cos'è successo negli ultimi giorni, dalla beneficenza fittizia al silenzio, al pentimento, alle controaccuse, non si potrebbe affermare lo stesso degli influencers? Il cuore è scomparso. L'ansia, vedremo.