🧠 La sottile linea rossa tra distopia e utopia: governare le neurotecnologie e l'intelligenza artificiale -#43
Il Partito Democratico e la Rete per i diritti umani digitali propongono una nuova Authority su neurotecnologie e IA, per prepararsi agli scenari futuri
🦸Benvenuti nel numero #43 di Superpoteri!
🧠Le nuove tecnologie come le interfacce mente-macchina e l’intelligenza artificiale sono in grado di analizzare emozioni, pensieri e comportamenti, aprendo scenari che vanno dall’utopia al controllo e alla manipolazione. Mentre queste innovazioni permettono progressi straordinari, ad esempio nella lotta contro malattie neurologiche, sollevano anche gravi questioni etiche legate alla privacy e al rischio di disuguaglianze.
🧠Per evitare abusi e garantire uno sviluppo tecnologico che rispetti i diritti umani, alcuni senatori del PD propongono un’Autorità nazionale indipendente per l'Intelligenza Artificiale e le Neurotecnologie, in alternativa al piano del governo Meloni che delega la gestione dell'AI Act ad ACN e AgID. Questa Authority dovrebbe favorire la crescita del settore in un contesto regolamentato, proteggendo al contempo i diritti dei cittadini. La sfida è garantire che queste tecnologie rimangano uno strumento di progresso, evitando derive di controllo invasivo e possibili errori che, come dimostrano casi recenti raccontati in SuperPost, possono trasformare il futuro in un incubo.
🦸In SuperItaly lo spot all’intelligenza artificiale del Presidente Mattarella, mentre in SuperImages le versioni coccolose stile-Pixar dei nostri politici. Immancabili poi le SuperNews sulle tensioni Arabia-Cina legate all’uso dell’IA, la “Habermas Machine” di Google Deepmind che potrebbe sostituire l’attuale modello democratico e l’approccio frammentario alla regolamentazione dei singoli stati americani.
🦸Buona lettura e se non lo avete ancora fatto, iscrivetevi!
SuperPost
🧠Possono leggere le emozioni, il pensiero, il comportamento e analizzarci fin nei minimi dettagli. Possono aiutarci a fare grandi progressi scientifici per affrontare problemi come l’invecchiamento e il cambiamento climatico, ma possono anche diventare il nostro incubo peggiore, con un alto rischio di controllo e manipolazione. Le nuove tecnologie, come le interfacce mente-macchina e l’intelligenza artificiale, ci mostrano scenari futuri che spaziano dall’utopia alla distopia. Da Robocop a Terminator, passando per Her e Black Mirror, abbiamo fantasticato sui possibili usi di queste tecnologie. Ma non è più fantascienza: gli ultimi modelli di intelligenza artificiale “ragionano” (pensiamo a o1 di OpenAI) e i primi test su impianti neurali umani dimostrano che il futuro è già qui.
La relazione mente-macchina diventa sempre più pervasiva grazie alle nuove scoperte nel campo delle neurotecnologie e dell'intelligenza artificiale, che permettono una connessione profonda e diretta con la mente umana. Ora si possono controllare dispositivi con il pensiero, superare limitazioni fisiche, migliorare le capacità umane e analizzare grandi quantità di dati tramite l’intelligenza artificiale. Questa crescente integrazione tra mente e macchina offre opportunità immense per migliorare la qualità della vita, ma al contempo richiede una riflessione profonda su questioni etiche, inclusa la prevenzione di potenziali abusi alimentando la sfida di un difficile bilanciamento tra innovazione e regolamentazione.
🧠Le neurotecnologie e l'intelligenza artificiale offrono ai ricercatori strumenti senza precedenti per studiare il cervello in tempo reale, migliorando la comprensione di malattie neurologiche come Alzheimer, autismo e sclerosi multipla. Queste tecnologie permettono anche di esplorare funzioni cerebrali complesse, come il processo decisionale, la coscienza e le emozioni, o di restaurare la mobilità per pazienti paralizzati, oltre a trattare o addirittura ripristinare vista e udito. Tuttavia, gli effetti negativi di queste tecnologie sono immaginabili, specialmente in termini di privacy, controllo e integrità personale. Le interfacce cervello-computer potrebbero monitorare e persino decodificare le attività cerebrali. Un’azienda potrebbe raccogliere dati su pensieri, emozioni o decisioni senza consenso, per fini commerciali o manipolativi. Oppure, un datore di lavoro potrebbe accedere ai nostri schemi mentali per valutare la produttività o le attitudini, violando la privacy. I dispositivi di stimolazione cerebrale profonda, già usati per trattare malattie come il Parkinson, potrebbero essere programmati per influenzare umore e comportamento, portando a un uso non etico di queste tecnologie, magari contro la volontà dei pazienti o per fini non terapeutici. Senza contare che le neuroprotesi o i dispositivi impiantabili possono dipendere da aggiornamenti software o autorizzazioni delle aziende produttrici. Cosa accadrebbe se l’azienda fallisse? Infine, l'accesso a queste neurotecnologie avanzate potrebbe essere limitato a chi può permettersi trattamenti costosi, creando nuove disuguaglianze. Ad esempio, chi può potenziare le proprie capacità cognitive potrebbe avere vantaggi ingiusti sul mercato del lavoro, mentre chi non può permettersi queste tecnologie rischia di essere lasciato indietro.
🧠Se neurotecnologie e intelligenza artificiale saranno centrali nello sviluppo futuro della società, è cruciale che la loro regolamentazione sia affidata a un organismo indipendente, come avvenuto per la tutela della privacy e l’anticorruzione. Solo così si può garantire che i diritti dei cittadini siano rispettati, evitando pressioni politiche che invece potrebbe avere un’agenzia governativa e assicurando stabilità e autonomia, come previsto da altre norme e accordi internazionali.
Proprio per questo, giovedì scorso, alcuni senatori del Partito Democratico hanno proposto l'istituzione di un'Autorità nazionale indipendente per l'Intelligenza Artificiale e le Neurotecnologie, per gestire la governance delle nuove tecnologie in conformità con i diritti umani, i valori democratici e il regolamento europeo sull'AI: un approccio che favorisca l’innovazione senza frenare lo sviluppo. Il testo, redatto con il contributo della Rete per i Diritti Umani digitali, ha una doppia finalità: garantire che l'AI e le nuove tecnologie siano utilizzate nel rispetto e nell'interesse delle persone e dei loro diritti e creare condizioni per un ecosistema pubblico che favorisca la crescita e lo sviluppo tecnologico. Per questo serve un'Authority indipendente, dotata di competenze multidisciplinari, come interfaccia unica per la pubblica amministrazione, capace di fornire risposte rapide e univoche, garantendo al contempo il rispetto dei diritti umani e la competitività del settore tecnologico e imprenditoriale. La proposta del PD si contrappone a quella del governo Meloni, che intende delegare la governance dell'AI Act all’Agenzia per la Cybersicurezza Nazionale (ACN) e all’Agenzia per l’Italia Digitale (AgID), due agenzie governative sotto il controllo di Palazzo Chigi.
🧠Non sappiamo cosa ci riserverà il futuro delle tecnologie emergenti, ma la direzione che vogliamo dare non può essere lasciata a una “macchina a guida autonoma”: siamo noi a dover decidere come utilizzarle, amplificando gli sforzi su tutte le possibili ricadute sociali. Dobbiamo immaginare un futuro in cui le tecnologie ci aiuteranno a risolvere grandi sfide o a migliorare la qualità della vita, ma non possiamo dimenticare che un piccolo errore o un aggiornamento sbagliato potrebbe trasformare tutto in un incubo. Lo abbiamo visto a luglio, quando un errore di CrowdStrike ha bloccato i voli di mezzo mondo per un semplice aggiornamento sbagliato. Possiamo solo immaginare cosa accadrebbe se qualcosa andasse storto con un impianto collegato al cervello: “il tuo pensiero è temporaneamente sospeso per manutenzione, riprova più tardi."
SuperImages
🦸E se i politici italiani fossero un film della Pixar? Indovinali tutti (a parte l’ultimo sono facili):
Immagini realizzati con Dall-E utilizzando foto con licenza gratuita eil prompt: “The character in the image should be rendered in a 3D animated style, similar to modern Disney or Pixar films. the background should be [add information]”
SuperItaly
🦸Di nuovo il Presidente Mattarella interviene su intelligenza artificiale, non solo raccontando nuovamente l’ ”umanocentrismo” della tecnologia, ma anche portando esempi pratici su quali potrebbero essere gli effetti positivi, soprattutto in medicina e nella gestione delle risorse :
"Emerge con forza la necessità di un adeguato sistema di governance che favorisca lo sviluppo dell'intelligenza artificiale assicurando che venga utilizzata per affermare e non per violare la dignità delle persone. Come sempre nella storia i risultati che la scienza consegna all'umanità aprono grandi prospettive di progresso e presentano rischi di utilizzazione perversa. La scelta è affidata alle persone. Sul fronte dell'IA, ci si chiede se si sia avviata una nuova rivoluzione: così come quella industriale ha surrogato la forza fisica, sostituendo le macchine alle persone, così adesso l'intelligenza artificiale appare, secondo taluno, destinata a surrogare le capacità intellettive proprie degli esseri umani. Si pongono, con evidenza, rilevanti interrogativi di natura etica. Quali decisioni devono rimanere saldamente nelle mani degli esseri umani e quali possono essere delegate a un supercalcolatore? Pensiamo davvero che una macchina possa sostituire un medico nella cura delle persone o un giudice nello scrivere una sentenza? Non si può fare a meno di riflettere sulla irripetibilità di ogni singola persona umana e sulla irripetibilità di ogni situazione di vita. Non vi è dubbio, d'altronde che l'intelligenza artificiale possa dare un grande contributo allo sviluppo del benessere dell'umanità e fornire un apporto di grande beneficio alla soluzione di problemi globali, ivi inclusi quelli di natura ambientale. Pensiamo alle applicazioni dell'intelligenza artificiale nella gestione delle risorse idriche e nell'organizzazione del sistema dei trasporti. Nella medicina, dove può aprire grandi prospettive di speranza. Pensiamo ai progressi nella telemedicina che accrescono le possibilità di cura delle persone anche nei Paesi più poveri.”
Sergio Mattarella - Presidente della Repubblica - Festival delle Regioni e delle Province - 21/10/24
SuperNews
🌏[IA & Geopolitica] Il nuovo presidente dell'Università King Abdullah per la Scienza e la Tecnologia (Kaust), Sir Edward Byrne, ha promesso di evitare collaborazioni in ambito AI con la Cina che potrebbero compromettere l'accesso ai chip statunitensi. Ha sottolineato l'importanza di mantenere stretti legami con Stati Uniti, Regno Unito e Europa. Il suo predecessore aveva ampliato le collaborazioni con la Cina, suscitando preoccupazioni per le restrizioni statunitensi sull'esportazione di tecnologia avanzata in AI.
📜[IA & Democrazia] Il sistema di intelligenza artificiale sviluppato dal team di Google DeepMind potrebbe contribuire a ridurre i conflitti legati alle guerre culturali attraverso la mediazione. Questo strumento, chiamato "Habermas Machine", prende le opinioni individuali all'interno di un gruppo e genera dichiarazioni collettive che riflettono sia la maggioranza che le minoranze. In uno studio con più di 5.000 partecipanti, le dichiarazioni prodotte dall'AI sono state preferite il 56% delle volte rispetto a quelle create da mediatori umani, risultando più chiare e informative. L'IA riconosceva le opinioni minoritarie, cercando di evitare che queste si sentissero escluse. Tuttavia, alcuni esperti come la Dr. Melanie Garson hanno sollevato preoccupazioni. Hanno notato che il sistema non traduce facilmente queste discussioni in politiche e potrebbe non dare sufficiente voce alle minoranze molto piccole. Inoltre, il processo non permette ai partecipanti di spiegare le loro emozioni o sviluppare empatia.
🗽[IA & Regolamentazione] Mentre l'UE adotta una regolamentazione orizzontale sull'IA, gli Stati Uniti cercano di prevenire esiti negativi affrontando il problema pezzo per pezzo, con un'eccezione: l'AI Act del Colorado. Nel 2024, i singoli stati statunitensi hanno approvato 113 leggi per governare diversi usi dell'IA, e ne hanno discusse almeno altre 580. Ciò segnala una spinta crescente a livello statale per regolamentare l'IA, mentre i legislatori a livello federale statunitensi non stanno facendo nulla. È un esperimento parallelo affascinante su quale sia il modo migliore per regolamentare le nuove tecnologie in evoluzione: una regolamentazione orizzontale come l'AI Act dell'UE, che adotta un approccio comprensivo all'IA, o la regolamentazione frammentaria in atto negli stati americani? ovviamente credo che la nostra soluzione sia la migliore.
👏Siamo arrivati alla fine del numero 43!
🫵Ricordatevi che Superpoteri è un esperimento collettivo, utile per generare dibattiti, riflessioni, proposte sulle tecnologie e il loro impatto. Nessuno si deve sentire escluso.
🤖Puoi darmi una mano semplicemente iscrivendoti (se non l’hai ancora fatto) cliccando sul pulsante sotto.
🦸♀️Puoi lasciarmi un commento (anche critiche, dai!) o scrivermi per qualsiasi suggerimento
🦸Infine puoi semplicemente condividere “Superpoteri” a chi pensi possa essere interessato
Grazie e ci vediamo settimana prossima! Sapere Aude!👋