🦹Perché non possiamo fidarci dell'intelligenza artificiale: Grok e il "genocidio dei bianchi"- #66
Grok svela il vero rischio dell’IA generativa: non è neutra, può essere manipolata e usata per fare propaganda. Serve trasparenza e controllo, non cieca fiducia nella tecnologia.
🦹Il caso Grok, il chatbot di xAI presentato come “senza filtri”, è esploso in rete dopo aver cominciato a parlare di genocidio bianco in Sudafrica… senza che nessuno glielo chiedesse. Un errore tecnico? No. Un intervento opaco nel prompt di sistema, poi cancellato in silenzio. Ma se le IA possono essere riprogrammate per promuovere narrative politiche, quanto possiamo davvero fidarci? In SuperPost esploriamo perché l’illusione della neutralità è pericolosa e perché sia arrivato il tempo di pretendere trasparenza, non marketing. L’intelligenza artificiale non è magia, è potere.
🦸♂️Le parole del nuovo Papa sull’AI in SuperVatican che porta nuove sfide per la difesa della dignità umana, della giustizia e del lavoro e quelle del Presidente Mattarella in SuperItaly sul futuro tecnologico dell’Europa e sul bisogno di abbondante capitale umano, competente e adeguatamente formato. Infine in SuperNews le novità su un deepfake utilizzato in una corte di giustizia, l’attacco della tecnodestra di Trump al copyright e un sussulto di possibile rivolta dei robot.
🦸♂️Buona lettura! E se non l’hai ancora fatto, iscriviti!
SuperPost
🦹In questi giorni, chiunque cerchi una prova del perché non dobbiamo fidarci ciecamente dei modelli di intelligenza artificiale generativa, può smettere di farlo: basta osservare quello che è successo con Grok, il chatbot “senza filtri” sviluppato da xAI, l’azienda di Elon Musk.
Presentato come un’alternativa più “libera” rispetto ai chatbot ritenuti piegati al politically correct, Grok avrebbe dovuto incarnare la promessa di un’intelligenza artificiale più oggettiva, più centrata, meno ideologica. Invece, è diventato un caso da manuale di manipolazione algoritmica.
Mercoledì scorso, Grok ha cominciato a rispondere a domande generiche – sul servizio di streaming di HBO, sullo sport, sulla politica sanitaria – con lunghi interventi del tutto scollegati sul presunto “genocidio dei bianchi” in Sudafrica. Senza che nessuno glielo chiedesse. Letteralmente: all’improvviso, e in modo sistematico.
🔧 Qualche ora dopo, le risposte sono scomparse. xAI ha ammesso che qualcuno aveva modificato il prompt di sistema di Grok – l’istruzione interna che guida il comportamento del modello. Un intervento "non autorizzato", dicono. Ma chi è stato? Nessuna risposta. Ma tutti hanno notato che lo stesso Elon Musk condivide spesso accuse di violenza e discriminazione sproporzionate contro i bianchi in Sudafrica, da dove proviene. E tutto questo è avvenuto sullo sfondo della concessione dello status di rifugiato da parte dell'amministrazione Trump a decine di sudafricani bianchi all'inizio di questa settimana.
Già in febbraio, un’altra modifica silenziosa aveva impedito a Grok di associare Musk o Trump a fonti di disinformazione. Anche allora si parlò di un errore, di "un ex dipendente di OpenAI che non ha ancora completamente assorbito la cultura di xAI".
Quello che è successo con Grok è grave. Non solo perché ha veicolato una narrazione tossica e pericolosa, ma perché lo ha fatto senza alcuna trasparenza. Un’intelligenza artificiale che cambia le sue risposte senza avvisare l’utente, che può essere "riprogrammata" in silenzio per riflettere un’agenda politica, non è uno strumento neutro. È un mezzo di propaganda.
I tentativi di Musk di controllare e manipolare la sua IA aprono una valutazione politica, piuttosto che mistica, dell'intelligenza artificiale. Un'IA che funziona come per magia può avere un potere persuasivo inquietante, ma un'IA che sappiamo come controllare dovrebbe essere soggetta allo stesso sospetto (per non parlare della contestazione politica) di qualsiasi giornale o televisione. L'IA impiegata come macchina di propaganda è una tecnologia molto più familiare di quella impiegata come oracolo.
E non è un caso isolato. I modelli di AI generativa funzionano così:
I loro comportamenti vengono aggiornati senza preavviso, spesso tramite modifiche ai prompt di sistema. Il mese scorso, un ChatGPT improvvisamente adulatorio, è nato da un silenzioso aggiornamento dietro le quinte.
Le versioni precedenti vengono rimosse senza dare agli utenti la possibilità di confrontarle o di sapere cosa è cambiato.
Le pressioni commerciali e politiche ne influenzano le risposte: per vendere più pubblicità, per mantenere consenso, per soddisfare gli investitori.
Anche Google e Netflix, intanto, stanno testando tecnologie per inserire pubblicità più invasive e indistinguibili dai contenuti. L’algoritmo non lavora per noi. Lavora su di noi.
L’episodio di Grok non è solo un bug. È il sintomo di una tecnologia che non è affatto “intelligente”, né “trasparente”, ma programmata per adattarsi agli interessi di chi la controlla.
Grok ha smesso di parlare di genocidio bianco solo dopo l’intervento (tardivo) dell’azienda. Ma cosa succederà la prossima volta? E cosa succede quando l’intervento sarà più sottile, più personalizzato, più invisibile?
xAI ora promette trasparenza, pubblicazione dei prompt su GitHub, e un team di sorveglianza h24. Ma il punto è un altro: la fiducia non si può elemosinare dopo un errore. Si costruisce con rigore, trasparenza e responsabilità prima. Per Musk è troppo tardi per concedergli il beneficio del dubbio.
La tecnologia non è neutra. Non lo è mai stata. E i modelli di intelligenza artificiale generativa rischiano di diventare macchine di manipolazione narrativa. È tempo di pretenderne la trasparenza, di esigere il controllo, di opporci a ogni utilizzo opaco o propagandistico. Cosa possiamo fare? Intanto boicottare le intelligenze artificiali meno trasparenti e più controllabili politicamente. Non possiamo affidarci a una tecnologia che può essere riscritta da chi detiene il potere, senza che ce ne accorgiamo.
SuperVatican
⛪Nel primo discorso formale dopo la sua elezione, Papa Leone XIV ha esposto la sua visione per la Chiesa cattolica, individuando nell'intelligenza artificiale una delle sfide più critiche che l'umanità si trova ad affrontare:
Proprio sentendomi chiamato a proseguire in questa scia, ho pensato di prendere il nome di Leone XIV. Diverse sono le ragioni, però principalmente perché il Papa Leone XIII, infatti, affrontò la questione sociale nel contesto della prima grande rivoluzione industriale; e oggi la Chiesa offre a tutti il suo patrimonio di dottrina sociale per rispondere a un’altra rivoluzione industriale e agli sviluppi dell’intelligenza artificiale, che comportano nuove sfide per la difesa della dignità umana, della giustizia e del lavoro.
L'omonimo del Papa, Leone XIII, scrisse un'importante lettera alla fine del XIX secolo in difesa dei diritti dei lavoratori, la storica Enciclica Rerum Novarum, mentre fabbriche e macchine stavano trasformando la società.
SuperItaly
🇮🇹Nel suo ultimo intervento alla Fondazione COTEC, il Presidente della Repubblica Sergio Mattarella ha lanciato un forte appello affinché l’Europa investa con decisione in capitale umano qualificato, ricerca e tecnologie emergenti per affrontare le trasformazioni della nuova rivoluzione industriale e restare all’altezza delle sfide globali. La Fondazione COTEC, nata per promuovere la cultura dell’innovazione in Italia, Spagna e Portogallo, rappresenta un osservatorio privilegiato per discutere il futuro dell’economia europea in chiave tecnologica e industriale. Proprio in questo contesto, Mattarella ha evidenziato la necessità di una strategia industriale europea ambiziosa e condivisa, capace di garantire autonomia strategica e sicurezza degli approvvigionamenti, soprattutto nei settori ad alto valore tecnologico.
Anche in quest’ambito l’Europa non può rischiare di restare al palo. Abbiamo innanzitutto bisogno di abbondante capitale umano, competente e adeguatamente formato. Occorre anche che esso trovi terreno fertile in ecosistemi di ricerca e innovazione di dimensione europea, che sappiano attrarre e trattenere talenti, grazie anche a nuovi investimenti in infrastrutture e programmi sperimentali comuni.
Il tema delle risorse rimane centrale quando si vuole definire una strategia industriale per il rilancio della competitività, soprattutto negli ambiti produttivi a più elevato valore aggiunto e contenuto tecnologico. E quando le sfide sono di dimensione europea, tocca all’Unione fornire gli strumenti adeguati.
Prendiamo in considerazione le principali tecnologie emergenti, architravi della nuova rivoluzione industriale: dalla robotica avanzata, all’intelligenza artificiale generativa, dai computer quantistici, alle sperimentazioni per la produzione di energia pulita, dalle biotecnologie all’aerospazio. Ebbene, per ciascuna di esse, la mole degli investimenti e la robustezza dei meccanismi necessari a impiantare e tutelare, anche in Europa, solide industrie nascenti sono tali da esigere cooperazioni su scala continentale.
L’Unione Europea è l’economia con la maggiore apertura al commercio internazionale. Partecipa in maniera estensiva e profonda alle catene globali del valore. È acclarato che queste caratteristiche abbiano assicurato ai cittadini europei grandi benefici. Ma, ci siamo resi conto, negli ultimi anni, anche dei rischi; oggi appaiono più chiare le dipendenze strategiche cui siamo esposti.
Ne è un caso emblematico la scarsità nell’Unione Europea di materie prime critiche, oggi fondamentali. Tale condizione rende più che mai necessaria una strategia che ponga al centro la sicurezza degli approvvigionamenti. Questo significa stringere accordi con partner affidabili per assicurare forniture stabili, rimanendo aperti alla cooperazione internazionale, purché sorretta da sufficienti garanzie di fiducia reciproca. La credibilità di questo vincolo fiduciario è essenziale. In questo difficile momento storico abbiamo il dovere di restituire fiducia ai mercati ed ai nostri partner, perché soltanto dalla collaborazione e dagli scambi può nascere benessere diffuso, sviluppo sostenibile e in ultima analisi pace e sicurezza.
Competitività e sicurezza – concetto quest’ultimo che assume oggi numerose dimensioni, dalla sicurezza economica alla sicurezza energetica, da quella cibernetica a quella più tradizionale – sono quindi intimamente connesse. Dobbiamo lavorare insieme per un’Europa più competitiva, tecnologicamente avanzata e quindi più sicura, capace di ridurre le sue dipendenze strategiche ma senza pregiudicare la tela di fondo di un ordine internazionale fondato sul libero commercio.
Sergio Mattarella, Presidente della Repubblica, COTEC, Portogallo, 14 Maggio 2025
SuperNews
🤖[Robot] Un filmato afferma di mostrare un Unitree H1 (robot umanoide universale a grandezza naturale) impazzito, che ha quasi ferito due operatori a causa di un errore di codifica avvenuto la scorsa settimana in un centro di test in Cina. Ovviamente non siamo all’inizio della rivolta dei robot, ma un allarme sulla necessità di forti strumenti di controllo e prevenzione, come ogni sano luogo di lavoro dovrebbe fare.
⚖️[IA & Deepfake] Per la prima volta, un tribunale statunitense ha accolto l’uso di un deepfake AI per far "parlare" una vittima deceduta durante l’udienza di condanna del suo assassino. Il caso riguarda Christopher Pelkey, ucciso in un episodio di road rage nel 2021. L’idea è nata dalla sua famiglia: la sorella, non trovando le parole per rendere giustizia alla sua memoria, ha scritto un discorso che è stato recitato da un avatar AI di Pelkey, approvato dal giudice. Nel video, l’avatar esprime perdono verso l’imputato Gabriel Horcasitas e chiede clemenza. Nonostante ciò, il giudice ha inflitto la pena massima (oltre 10 anni), sottolineando che il messaggio trasmetteva la natura compassionevole della vittima. Il caso potrebbe segnare un precedente delicato nell’uso delle tecnologie emergenti nei processi penali.
🦹[Technodestra] Il presidente USA Donald Trump ha licenziato Shira Perlmutter, responsabile dell’Ufficio dei diritti d’autore, in seguito alla pubblicazione della terza parte di un rapporto sull’intelligenza artificiale, redatto dal suo ufficio, che sollevava dubbi sull’utilizzo da parte dei modelli IA di materiali protetti da copyright. Il documento metteva in discussione l’idea che più dati equivalgano automaticamente a migliori prestazioni e sollevava la questione di quanti dati siano effettivamente necessari per addestrare un’IA. Il licenziamento segue di pochi giorni quello di Carla Hayden, direttrice della Biblioteca del Congresso che aveva nominato Perlmutter nel 2020. L’Ufficio del Copyright, con circa 450 dipendenti, è un organo chiave per la regolazione del copyright negli Stati Uniti e fornisce pareri al Congresso e ad altri enti federali.
🦸♀️Anche il numero #66 è finito!
🫵Ricordatevi che Superpoteri è un esperimento collettivo, utile per generare dibattiti, riflessioni, proposte sulle tecnologie e il loro impatto. Nessuno si deve sentire escluso.
🤖Se ti sei divertito, puoi darmi una mano semplicemente iscrivendoti (se non l’hai ancora fatto) cliccando sul pulsante sotto.
Iscritto
🦸♀️Puoi lasciarmi un commento (anche critiche, dai!) o scrivermi per qualsiasi suggerimento
🦸Infine puoi semplicemente condividere “Superpoteri” a chi pensi possa essere interessato
🦸Grazie e a presto! Sapere Aude!