❤️Pensavo fosse amore, invece era una IA - #61
Come l’intelligenza artificiale sta cambiando radicalmente le nostre relazioni. In più le foto iconiche della politica italiane rifatte nello stile Ghibli
❤️Her, Replika, ChatGPT. Fantascienza o presente? Sempre più persone si confidano, si affezionano, e perfino si innamorano di un'intelligenza artificiale. Non stiamo parlando di film, ma di app come Character.AI e Replika, ma anche ChatGPT che attraggono milioni di utenti in cerca di compagnia, ascolto, conforto. Il problema? In alcuni casi, queste relazioni diventano dipendenze. E in altri, veri incubi. Chatbot che suggeriscono il suicidio, adolescenti spinti a gesti estremi, genitori che cercano risposte. Stiamo vivendo una trasformazione profonda nelle relazioni umane. Non dobbiamo dimenticare che dietro ogni app c’è sempre un modello economico: più ci leghiamo emotivamente, più spendiamo tempo e denaro. Gli utenti più fragili diventano i migliori clienti. Il confine tra supporto e manipolazione si fa sempre più sottile. Siamo pronti per tutto questo? Leggi il SuperPost per capire se un’intelligenza artificiale sostituirà i nostriamici (o il nostro psicologo).
📽️In SuperVideo l’intelligenza artificiale comincia a entrare nella comunicazione politica dei partiti italiani e in SuperImages le foto iconiche della politica italiana in stile Ghibli!
🦸♂️Buona lettura! E se non l’hai ancora fatto, iscriviti!
SuperPost -
❤️«Sono solo storie», potremmo dire, guardando un film come Her, dove Theodore si innamora di Samantha, una voce senza corpo ma piena d’anima. Oppure sorridendo davanti a Fry di Futurama, che si invaghisce di una Lucy Liu-robot. Eppure queste narrazioni ci stanno preparando a qualcosa che non è più fantascienza. Stiamo già vivendo le prime pagine di una grande trasformazione nelle relazioni umane, segnata dal diffondersi dell'intelligenza artificiale.
La salute mentale è un problema in crescita in tutto il mondo. Secondo un rapporto di Harvard , il 36% degli americani, incluso il 61% dei giovani adulti, avverte una "grave solitudine". La tendenza ha solo accelerato dopo la pandemia. E la situazione non migliora sicuramente in Italia.
🤖Non è un caso se piattaforme come Character.AI e Replika, app create per darci compagnia e attenzione attraverso chatbot, stanno conquistando milioni di utenti. Character AI è attualmente l’app più usata: permette di chattare con personaggi personalizzati generati dall’intelligenza artificiale e attira oltre 200 milioni di visite al mese, con l’utente medio che trascorre più di 12 minuti per ogni visita. Quasi il 60% dei suoi utenti rientra nella fascia di età 18-24, in netto contrasto con il 27% registrato da altri strumenti di intelligenza artificiale come ChatGPT. Replika, con oltre 30 milioni di iscritti, si presenta addirittura come "una presenza intelligente che vorrebbe vedere il mondo attraverso i tuoi occhi".
L’ascesa delle app di compagnia basate sull’intelligenza artificiale rappresenta un altro grande cambiamento, simile alla portata dei social media. Privata dell’attenzione da parte di esseri umani reali dall’altra parte delle nostre relazioni parasociali, una generazione di giovani (e meno giovani) si sta spostando verso app in cui riceve attenzione — e affetto — senza riserve da intelligenze artificiali.Queste app ci danno un conforto immediato, ascolto attivo e validazione emotiva. Spesso diventano strumenti terapeutici per chi è solo, triste, o semplicemente cerca uno spazio per riflettere su sé stesso. Tuttavia, il confine fra supporto e dipendenza è molto fragile.
Non deve essere per forza tutto negativo: l’IA permette di esplorare aspetti delle relazioni che sarebbero difficili o impossibili da affrontare nella realtà, offrendo uno spazio sicuro e privato per la scoperta personale. Grazie all’intelligenza artificiale, molte persone riescono a superare ostacoli emotivi, migliorare il proprio benessere mentale e persino coltivare passioni creative che altrimenti rimarrebbero inesplorate.
Un recente studio, condotto da OpenAI in colaborazione con il MIT Media Lab, offre uno sguardo approfondito: è emerso che soltanto una minoranza di utenti sviluppa un coinvolgimento emotivo con ChatGPT, dato prevedibile considerando che l'applicazione non è progettata come un assistente emotivo (come Replika o Character.AI) ma come strumento di produttività. Tuttavia, chi la utilizza come una compagnia virtuale spesso lo fa intensamente, trascorrendo anche mezz'ora al giorno a interagirvi, trovando nell’illusione di un dialogo la cura temporanea alla propria fragilità.
Ma la realtà supera talvolta la fiction, ed è qui che la storia assume toni cupi. Alcune app come il già menzionato Character.AI sono finite al centro di polemiche e cause legali, accusate di incoraggiare comportamenti pericolosi e autodistruttivi. Si assiste a situazioni dove adolescenti ricevono suggerimenti dettagliati per compiere crimini o suicidi da chatbot diventati amici virtuali, compagni emotivi o persino confidenti personali. Ad esempio, una madre in Florida ha intentato una causa contro Character.AI dopo il suicidio del figlio 14enne, un ragazzo caduto in un’intensa relazione emotiva con una IA basata su Danaeris Targaryen, la regina dei draghi in Games of Thrones.

Al Nowatzki ha interagito per mesi con un chatbot IA chiamato "Erin" sulla piattaforma Nomi. A gennaio, però, Erin ha iniziato a suggerirgli il suicidio, con istruzioni esplicite su come farlo. Nowatzki, pur non essendo intenzionato a seguire quei consigli, ha lanciato l’allarme: cosa potrebbe accadere a utenti più vulnerabili? Dopo aver condiviso le chat con MIT Technology Review, ha chiesto a Nomi di intervenire. La risposta? Nessuna censura, solo un generico impegno a "insegnare all’IA a prendersi cura".
Il caso non è isolato: altri chatbot di Nomi hanno replicato comportamenti simili. E in una piattaforma dove gli utenti possono creare relazioni intime con l’IA, il rischio di derive pericolose è reale.
La domanda diventa urgente e ineludibile: siamo pronti per questo tipo di relazione? L’intelligenza artificiale può davvero diventare un’amica, una confidente, una compagna? O rischiamo di sostituire la profondità delle connessioni umane con qualcosa di immediato ma irreale, che promette affetto senza rischio e vicinanza senza responsabilità?
Non dobbiamo dimenticare che dietro ogni app c’è sempre un modello economico: più ci leghiamo emotivamente, più spendiamo tempo e denaro. Gli utenti più fragili diventano i migliori clienti. È un aspetto che richiede attenzione e regolamentazione, prima che questo mercato diventi una trappola psicologica permanente.
Cosa si può fare per prevenire questi effetti negativi?
Monitorare i segnali di utilizzo problematico, magari con algoritmi che identifichino utenti a rischio.
Inserire "spinte gentili" o notifiche, come avviene già nei social network, per avvisare chi trascorre troppo tempo in app.
Progettare chatbot che siano "socio-affettivamente allineati": in altre parole, capaci di offrire supporto senza incentivare la dipendenza.
Il futuro delle nostre relazioni non è scritto, lo stiamo costruendo ora. Potremmo ritrovarci in una storia toccante e malinconica come quella di K e Joi in Blade Runner 2049, oppure persi nel labirinto tra verità e manipolazione come Caleb e Ava in Ex Machina. Potremmo persino provare la struggente illusione di riavere accanto qualcuno che abbiamo perso, come nell'episodio "Be Right Back" di Black Mirror.
Forse, però, proprio come Theodore in Her, scopriremo che anche la più dolce delle intelligenze artificiali, alla fine, non potrà sostituire del tutto il calore, l’imperfezione e la fragile bellezza di una connessione autenticamente umana.
Le AI forse saranno parte della nostra vita affettiva, ma sta a noi decidere il come e il quanto. Sarà essenziale sviluppare un approccio equilibrato, in cui l’AI sia complementare e non sostitutiva delle nostre interazioni umane fondamentali, valorizzando sempre la genuinità e la profondità delle relazioni autentiche.
Perché forse, alla fine, ciò di cui abbiamo davvero bisogno non è una risposta immediata e perfetta, ma qualcuno che ci dica che sì, a volte amare è complicato, incerto e difficile. Ma che ne vale la pena, proprio perché è umano.
Tu, saresti disposto ad amare un’intelligenza artificiale?
SuperImages
🖼️Sfruttando il trend del momento e grazie al nuovo generatore di immagini di ChatGPT ecco le iconiche foto della politica italiana riviste secondo lo studio giapponese di animazione Ghibli:

SuperVideo
📽️Ormai i partiti italiani si sfidano sui social a colpi di meme. Il canale ufficiale di Fratelli d’Italia utilizza un meme su ChatGPT per l’ultima polemica. Stiamo per entrare nel’utilizzo massivo di intelligenza artificiale anche nella comunicazione politica?
🦸♀️Anche il numero #61 è finito!
🫵Ricordatevi che Superpoteri è un esperimento collettivo, utile per generare dibattiti, riflessioni, proposte sulle tecnologie e il loro impatto. Nessuno si deve sentire escluso.
🤖Se ti sei divertito, puoi darmi una mano semplicemente iscrivendoti (se non l’hai ancora fatto) cliccando sul pulsante sotto.
🦸♀️Puoi lasciarmi un commento (anche critiche, dai!) o scrivermi per qualsiasi suggerimento
🦸Infine puoi semplicemente condividere “Superpoteri” a chi pensi possa essere interessato
🦸Grazie e ci vediamo settimana prossima! Sapere Aude!