🦸♂️Ma davvero l'intelligenza artificiale è come la bomba atomica? #2
E poi un nuovo esperimento di comunicazione politica: e se i leader politici fossero italiani di seconda generazione?
🦸♂️Benvenuti nel secondo numero di Superpoteri! Sono molto soddisfatto di come sia andato il “debutto”, grazie a tutti! Questa settimana ho cercato di riprendere una riflessione che ho sentito spesso, soprattutto sulla scia del successo di Oppenheimer: ma bisogna aver paura dell’AI come se fosse una minaccia nucleare? (Spoiler: No).
🦸♀️E poi profezie sul futuro, il superotere della multimodalità, le superletture e un nuovo esercizio di comunicazione politica: e se i leader politici fossero italiani di seconda generazione?
🦹♀️Buona lettura, fammi sapere cosa ne pensi e, se non l’hai ancora fatto, iscriviti!
Superpost
Altman non è Oppenheimer: perché non si può paragonare l’intelligenza artificiale al nucleare?
💣Complice anche il successo (meritato) di Oppenhaimer, in questi mesi molto si è parlato dell’intelligenza artificiale come una nuova possibile bomba atomica.
Lo stesso regista Christopher Nolan ha affermato che gli scienziati con i quali ha parlato stanno vivendo un "momento Oppenheimer", ovvero temono il potenziale distruttivo della loro creazione. In effetti, qualcuno sta già paragonando Sam Altman di OpenAI al padre della bomba atomica. Altman stesso non fa niente per scrollarsi di dosso il ruolo di profeta dell’apocalisse o, come direbbe Oppenheimer, di “distruttore di mondi”. In un’audizione al Senato ha dichiarato: “se questa tecnologia va storta, può andare molto storta”.
Sam Altman è anche uno degli oltre 300 firmatari (oltre a Geoffrey Hinton e Yoshua Bengio, considerati tra i più eminenti scienzati del settore) di una "dichiarazione pubblica sui rischi dell’AI” pubblicata a giugno dal Center for A.I. Safety, un'organizzazione di ricerca senza scopo di lucro:
Mitigare il rischio di estinzione dell’intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare.
✴️Ecco che ritorna l’analogia AI = arma nucleare, alimentando scenari apocalittici e oscuri. Credo sia profondamente sbagliato seguire questa narrativa, spesso utilizzata per fare grandi titoli sui giornali, ottenere interesse e far parlare di sé. Perché non è corretto paragonare l’intelligenza artificiale al nucleare?
Il nucleare è gestito dagli Stati. Pochi individui potrebbero raccogliere le risorse colossali e le competenze tecniche necessarie per costruire e usare una bomba nucleare. Per fortuna le armi nucleari sono da sempre dominio degli stati-nazione. Inoltre l’utilità delle armi nucleari è puramente militare. Invece i sistemi più evoluti di intelligenza artificiale sono in mano a poche imprese, tutte americane, e possono essere utilizzate sia per scopi civili che militari. Un’applicazione di intelligenza artificiale creata per diagnosticare le malattie potrebbe essere in grado di crearne una nuova, trasformandola in arma.
Le armi nucleari non si diffondono facilmente. I rischi legati a un’arma sono gestiti più facilmente quando solo pochi attori possono accedere alle risorse necessarie per costruirle. Anche se i governi riescono a controllare con successo l’accesso ai materiali necessari per costruire i modelli più avanzati – come sta tentando di fare l’amministrazione Biden impedendo alla Cina di acquisire chip di alto livello – possono fare poco per fermare la proliferazione di quei modelli una volta che sono stati addestrati e sviluppati: poiché sono principalmente software, possono essere facilmente copiati, modificati e trasferiti. Uno dei modelli di intelligenza artificiale più avanzati di Meta, Llama2, è totalmente open source, progettato per essere accessibile pubblicamente. Chiunque può vederlo, modificarlo e distribuirlo secondo le proprie necessità. Ciò significa che l’accesso a grandi quantità di hardware informatico rappresenta un ostacolo alla creazione di nuovi modelli, ma non all’utilizzo di modelli già pronti per l’uso, rendendo l’intelligenza artificiale molto più facile da diffondere rispetto alla tecnologia nucleare.
Il nucleare è fisico. I sistemi di AI non sono come le armi chimiche o nucleari, che sono difficili e costose da sviluppare e immagazzinare. Man mano che i loro enormi vantaggi diventeranno evidenti, i sistemi di intelligenza artificiale non potranno che diventare più grandi, migliori, più economici e più onnipresenti. Diventeranno persino capaci di una quasi autonomia – in grado di raggiungere obiettivi concreti con una supervisione umana minima – e, potenzialmente, di auto-miglioramento. Ognuna di queste caratteristiche metterebbe in discussione i modelli di governance tradizionali.
☠️E quindi smettiamo di parlare di AI e nucleare? No, in realtà c’è qualche esperienza interessante nella gestione del rischio di una guerra nucleare che possiamo utilizzare anche oggi:
Una maggior cooperazione tra Stati. Bisogna puntare al miglioramento della cooperazione internazionale per garantire che l’intelligenza artificiale venga sviluppata in modo sicuro, soprattutto con l’altra grande rivale tecnologica, la Cina. Il governo cinese si è mosso più velocemente di quello degli Stati Uniti nel regolamentare l’intelligenza artificiale, emanando regolamenti sui deepfake e pubblicando progetti di regole sull’intelligenza artificiale generativa. Potrebbe aver interesse nel partecipare a un organismo internazionale.
Investire in ricerca e sviluppo. Europa e Stati Uniti hanno un grande vantaggio tecnologico sulla Cina: il loro controllo sulla tecnologia necessaria per produrre chip avanzati è come avere l’opportunità di controllare la produzione globale di uranio nel 1938. Il controllo sull’hardware specializzato necessario per addestrare grandi modelli di intelligenza artificiale determinerà in modo simile l’equilibrio di potere globale. Essere anche in futuro leader tecnologici nel settore dei semiconduttori avanzati ci permetterà di gestire questo “superpotere” senza dover dipendere da nessun altro.
Affinché la governance globale dell’IA funzioni, deve essere adattata alla natura specifica della tecnologia, alle sfide che pone e alla struttura e all’equilibrio di potere in cui opera. Ma poiché l’evoluzione, gli usi, i rischi e i benefici dell’IA sono imprevedibili, la governance di una struttura che ambisce a mitigarne i rischi non può essere completamente specificata e dettagliata: deve essere innovativa e flessibile quanto la tecnologia che cerca di governare. Questo significa non copiare o adattare modelli del passato, ma ripensarli da zero. L’intelligenza artificiale è come un grande albero di opportunità e rischi. Invece di provare a segare il tronco, ormai troppo robusto per essere tagliato, proviamo ad analizzare i singoli rami, i singoli problemi, le singole opportunità. Certo, è un lavoro complicato e faticoso, ma necessario per accompagnare nel modo migliore i cambiamenti che stiamo vivendo.
Superoracoli
🧙♂️Vediamo come “invecchiano bene” alcune profezie e previsioni che fanno gli esperti e i politici sul futuro della tecnologia e dell’intelligenza artificiale:
“La prima ondata di intelligenza artificiale riguardava la classificazione. Il deep learning ha dimostrato che possiamo addestrare un computer a classificare vari tipi di dati: immagini, video, audio, linguaggio. Ora siamo nella seconda onda: quella generativa, dove inserisci un input e produci nuovi dati. La terza ondata sarà la fase interattiva. Ecco perché scommetto da tempo che la conversazione sarà l’interfaccia del futuro: invece di limitarti a fare clic sui pulsanti e digitare, parleremo con l’Intelligenza artificiale”.
09/23 MIT Technology review - Mustafa Suleyman, co-fondatore DeepMind, autore del libro “The Coming wave”
“La battaglia globale per il futuro sarà combattuta tra tecno-democrazie e tecno-autocrazie”.
09/23 FT - Anu Bradford, autrice di Digital Empires: The Global Battle to Regulate Technology
Superpoteri
🦸La multimodalità è il “superpotere” delle prossime applicazioni di intelligenza artificiale: app che possono sia ricevere input che produrre output in vari formati come testo, immagini, video e così via. Ad esempio, è possibile scrivere del testo per ottenere un’immagine, oppure partire da un video per ottenere una sintesi testuale dei contenuti.
OpenAI ha appena rilasciato Dall-E 3, un nuovissimo modello di generazione di immagini AI che si integrerà con ChatGPT per produrre immagini. Tra le nuove funzionalità una migliore capacità di scrivere testo nelle creazioni (per adesso il migliore è Ideogram, che ho usato per creare il logo di “Superpoteri”) e una facilità di produzione: basta dire semplicemente a ChatGPT cosa si vuole per generare l’immagine voluta, senza elaborati suggerimenti..
Un’attenzione anche alla questione copyright, sempre più delicata: OpenAI consentirà agli artisti di escludere la propria arte dalle versioni future dei modelli AI, affermando anche che le immagini create con Dall-E potranno essere utilizzate gratuitamente per scopi commerciali senza chiedere il permesso. Ciò significa che si possono utilizzare le proprie creazioni senza preoccuparci di problemi legali.
Dall-E 3 verrà distribuito agli utenti ChatGPT Plus ed Enterprise tra poche settimane. Un motivo in più per passare alla versione a pagamento?
Ecco un breve video che mostra come funziona Dall-E 3 in ChatGPT (anche qua sembra di assistere a qualcosa di magico):
Superletture
📖Due letture sul difficile percorso di regolamentazione AI e una curiosità: si cercano poeti e letterati per addestrare i nuovi modelli.
L’OECD ha rilasciato un documento di sintesi con tutte le sfide che dovranno affrontare i governi per gestire l’impatto trasformativo dell’IA generativa.
La discussione pubblica sull’intelligenza artificiale generativa ha meno di un anno. Con le aziende tecnologiche che portano applicazioni di IA generativa sul mercato, i decisori politici di tutto il mondo sono alle prese con le sue implicazioni. […] Indipendentemente dalla posizione ideologica su questi temi, c’è un urgente bisogno di ulteriori ricerche per prepararsi ai diversi possibili scenari futuri. Data la grande incertezza e l’impatto potenzialmente ampio che la tecnologia potrebbe avere sia a livello micro che macro, i politici devono rimanere informati e preparati ad intraprendere azioni adeguate attraverso politiche lungimiranti sull’IA.
L’Assemblea generale delle Nazioni Unite si è riunita a New York la scorsa settimana e uno dei principali argomenti di discussione è stato, ovviamente, l’intelligenza artificiale. Sul Time un approfondimento su cosa potremmo aspettarci da un organismo internazionale di regolamentazione dell'IA.
[…] potrebbe essere necessario un grave incidente legato all’intelligenza artificiale per generare la volontà politica per formare un accordo sostanziale tra i paesi. Nel frattempo, potrebbe essere prudente istituire un organismo internazionale, sia attraverso le Nazioni Unite, sia tra un gruppo multilaterale o bilaterale più piccolo, che imponga ai partecipanti un livello minimo di adesione, che potrebbe essere utilizzato come base per una cooperazione più forte se emerge la volontà politica.
Chi l’ha detto che nel mondo AI si cerchino solo laureati in STEM? Scale AI e Appen stanno assumendo poeti e scrittori con background umanistici, anche in hindi e giapponese, allo scopo di scrivere di scrivere racconti originali per alimentare modelli di intelligenza artificiale, come parte di un tentativo di aumentare la qualità letteraria degli strumenti di scrittura generativa.
Addestrare una intelligenza artificiale per generare una scrittura letteraria di alta qualità, come la poesia, non è una sfida da poco. Molti modelli linguistici di grandi dimensioni (LLM) non sono addestrati per essere creativi. Uno dei criteri utilizzati dai ricercatori di intelligenza artificiale per giudicare la creatività è la novità: quanto è diversa la scrittura generata da un modello da ciò che già esiste nel mondo. Ma strumenti come ChatGPT sono stati creati per imitare la scrittura umana, non per innovarla.
Superimmagini
🦸♀️Settimana scorsa ha riscosso successo le immagini dei leader politici come migranti. Ho voluto continuare questo gioco di immaginazione…e se fossero italiani di seconda generazione? Ecco a voi il risultato (sempre Midjourney + SwapFace):
👏Ed eccoci arrivati alla fine di questa seconda uscita di Superpoteri. Settimana prossima vorrei riuscire a creare qualcosa con gli strumenti di AI che generano voci e suoni, vediamo se ci riesco!
🫵Ricordatevi che Superpoteri è un esperimento collettivo, utile per generare dibattiti, riflessioni, proposte sulle tecnologie e il loro impatto. Nessuno si deve sentire escluso.
🤖Puoi darmi una mano semplicemente iscrivendoti (se non l’hai ancora fatto) cliccando sul pulsante sotto.
🦸♀️Puoi lasciarmi un commento (anche critiche, dai!) o scrivermi per qualsiasi suggerimento
🦸Infine puoi semplicemente condividere “Superpoteri” a chi pensi possa essere interessato
Grazie e ci vediamo settimana prossima!👋