🦹Niente di nuovo sul fronte occidentale. La sconfitta dell'AI Summit - #8
Ministri e "rockstar tech" si sono riunite vicino Londra per il primo summit sulla sicurezza dell'intelligenza artificiale. Il risultato? Una Dichiarazione che pare scritta da ChatGPT
🦸Che settimana per le politiche sull’intelligenza artificiale! Dopo i principi guida internazionali del G7 e l’ordine esecutivo di Biden, la settimana scorsa si è conclusa con l’AI Summit, il grande evento mondiale organizzato dal Governo inglese sulla sicurezza dell’intelligenza artificiale. Siamo quindi a una svolta per una tecnologia più inclusiva e sicura? Non credo proprio e lo scrivo qua sotto.
🦸♀️Non potevan mancare SuperItaly, con le parole della Meloni all’AI Summit e una nuova SuperImage con una nuova poesia segreta. Infine le SuperNews con alcune storie della settimana.
🦸Buona lettura e, se non l’hai ancora fatto, iscriviti!
Superpost
Niente di nuovo sul fronte occidentale. La sconfitta dell’AI summit
“L’ago della bilancia si è spostato a favore dell'umanità”.
🦸Con queste “sobrie” parole, Rishi Sunak, premier inglese, chiude la prima conferenza mondiale sulla sicurezza dell’intelligenza artificiale.
Ma è davvero così? L’umanità è più sicura? L’evento, senza dubbio di alto profilo, con ospiti importanti tra ministri e “rockstar tech”, arriva dopo un anno di intensa escalation nelle discussioni globali sulla sicurezza dell’intelligenza artificiale, dopo il lancio di ChatGPT esattamente un anno fa. La capacità, al limite della magia, del chatbot di OpenAI di rispondere con testi e immagini alle nostre richieste ha dato vita a una scuola di pensiero secondo cui l’intelligenza artificiale potrebbe, prima o poi, rappresentare un rischio esistenziale per l’umanità, e ha spinto i politici di tutto il mondo a valutare se e come regolamentare i nuovi sviluppi tecnologici.
L’evento inglese è sembrato più uno show che un ritrovo di statisti e di esperti: una riedizione di X-Factor dove si applaudiva più forte chi sparava l’esagerazione più grossa. Tutto sembrava concentrato sullo spettacolo da mostrare, a partire dalla sede dell’evento, Bletchley Park, il luogo dove nacque l’informatica moderna: qui infatti furono ideate le macchine che decodificarono il codice Enigma dei nazisti, formando i progetti per i primi computer programmabili. Sentendo il peso di questa storia, Michelle Donelan, ministro della Scienza e della Tecnologia del Regno Unito, ha aperto lo “show” sperando che i delegati riuniti per il vertice avrebbero contribuito a un risultato di simile portata, “alzando i confini di ciò che è effettivamente possibile”, facendosi “architetti dell’era dell’intelligenza artificiale”, con il potere di plasmare il futuro della tecnologia e gestirne i potenziali svantaggi.
🤖Purtroppo grandi dichiarazioni nascondono spesso piccoli risultati. Diciamo che la Dichiarazione finale sembra un testo appena uscito da ChatGPT da quanto è scontato e banale: l’intelligenza artificiale è ricca di opportunità, ma bisogna stare attenti ai rischi, per questo dobbiamo lavorare tutti insieme. Questa Dichiarazione è come un ritornello di una vecchia canzone che ha ormai stufato: segnala che i leader politici sono consapevoli che l’intelligenza artificiale pone gravi sfide e opportunità e che sono pronti ad intraprendere azioni adeguate. Ma resta sempre l’incognita di tradurre il tutto in norme efficaci, capaci di ridistribuire l’indiscusso potere dell’intelligenza artificiale. Nell’inconsistenza dei risultati, l’unico che ne è uscito vincitore è il premier britannico Sunak, che può vantare il successo di aver organizzato il primo summit sulla sicurezza AI, puntando i riflettori sul tema e, nonostante le critiche, invitando la Cina, nonostante le critiche statunitensi. Ma per il futuro dell’intelligenza artificiale niente di nuovo dal fronte occidentale. Anzi, si stanno portando avanti sempre gli stessi sbagli:
Lo sbaglio di pensare ai rischi a lungo termine sottovalutando i problemi degli attuali sistemi di intelligenza artificiale. La decisione di concentrare il vertice attorno ai rischi dell’esistenza umana, alla sicurezza informatica e al terrorismo, è pericoloso, poiché distoglie l’attenzione dai rischi molto reali e già esistenti che l’IA sta causando, come la sorveglianza o la disinformazione, che stanno punendo persone appartenenti a gruppi già emarginati. Significa inoltre dimenticarsi di tutta la discussione fatta negli ultimi dieci anni sull’etica, sulla trasparenza, sulla responsabilità degli algoritmi, di ignorare le molte proposte fatte per rendere l’intelligenza artificiale più inclusiva e sostenibile.
Lo sbaglio di far contenti tutti. Quando imprese e governi sono d’accordo su tutto, spesso vuol dire che non si è fatto niente. La volontà di essere regolamentati da parte dei grandi attori e fornitori di intelligenza artificiale a livello globale potrebbe essere vista anche come mossa a loro favore: richiedendo l’approvazione del governo prima dei test pubblici e del rilascio dei prodotti, si innalzano barriere molto alte all’ingresso per chiunque sogni di entrare nell’economia dell’intelligenza artificiale perché si favorisce chi già possiede un grande patrimonio di dati e le risorse necessarie per lo sviluppo. È fondamentale promuovere una comunità open source, come esiste adesso nel settore della sicurezza informatica. Non solo per dare più opportunità di aprire il mercato con nuove soluzioni, ma anche per evitare che sistemi non regolamentati creati da modelli open source possano essere utilizzati per usi illeciti ed essere troppo pericolosi per essere distribuiti liberamente.
Lo sbaglio di considerare le istituzioni pubbliche e i governi come arbitri o commentatori. Ma questi ultimi non vincono le partite, assistono solo alla “partita”. Dobbiamo aumentare drasticamente il sostegno pubblico alla ricerca sull’intelligenza artificiale, sia per lo sviluppo che per la sicurezza, per garantire che diventi una tecnologia per il bene comune nei secoli a venire. Inoltre i governi devono chiedere più trasparenza: fino ad ora le uniche persone che hanno testato la sicurezza dei nuovi modelli di intelligenza artificiale sono state le stesse aziende che li hanno sviluppati. E’ come se gli studenti si correggessero da soli i compiti a casa.
Lo sbaglio di non essere ambiziosi. Quello che il vertice non ha fatto è stabilire un percorso di consenso verso la definizione di standard internazionali e approfondire quali meccanismi istituzionali attivare per la collaborazione internazionale. A parte i Paesi che hanno firmato, non è chiaro come allargare il consenso ai molti governi mancanti. I prossimi passi sono altre due conferenze annunciate, in Corea del Sud e in Francia. Un modello che sembra ricalcare le riunioni COP sul clima, che purtroppo abbiamo visto essere sempre più fallimentari. Risultati poco stimolanti per un evento “che ha spostato l’ago della bilancia a favore della comunità”.
🦹♀️E quindi? L’Intelligenza artificiale è una minaccia per la sicurezza nazionale o per la società? È un'arma geopolitica? E’ un modo di aiutare persone? La risposta è: un po' di tutto. Fare politiche tecnologiche è come fare una gara di decathlon: non abbiamo il lusso di scegliere un solo sport. Non si può scegliere tra equità, privacy, sicurezza o altro. Certo potremo iniziare a parlare meno delle similitudini tra AI e la bomba nucleare e approfondire di più l'impatto possibile su educazione, sanità, ambiente. Fare meno conferenze e discutere di più su come rendere meno energivori i processi legati all’utilizzo dell’intelligenza artificiale. Ostentare meno dichiarazioni su come la tecnologia farà perdere posti di lavoro in un futuro prossimo (è qualcosa che sento da almeno 10 anni) e sviluppare più attenzione agli attuali sfruttamenti nel mondo del lavoro, da chi lavora per allenare modelli di intelligenza artificiale per pochi dollari all’ora, a chi viene discriminato da un algoritmo.
Forse tutto questo richiede qualcosa di più di uno show, un processo dall’alto verso il basso dominato da élite tecnocratiche, ma una seria partecipazione democratica, che aiuti a far capire meglio gli effetti dello sviluppo tecnologico sull’intera società.
🦹Forse ha ragione Elon Musk, che pur avendo partecipato all’evento di Bletchley Park, in un tweet prende in giro i governi, svelando le loro possibili intenzioni: parlare di intelligenza artificiale per dimostrare di averne il potere. Anche quando non ce l’hai.
SuperItaly
🦹♀️Non poteva mancare la dichiarazione della Meloni all’AI summit di Bletchley Park. Anche qua, niente che non poteva essere scritto da ChatGPT.
“Lo sviluppo dell'intelligenza artificiale è la più grande sfida intellettuale, pratica e antropologica di quest'epoca. […]
Servono meccanismi di governance multilaterali per garantire barriere etiche all'intelligenza artificiale. Siamo chiamati a definire un quadro normativo adeguato se vogliamo sfruttare le opportunità che l'IA può offrirci. Ci vorranno molti passi e aggiustamenti negli anni a venire, collaborazione con i privati, ma innovazione e regolamentazione devono andare di pari passo. Significa che la cosa che deve preoccuparci di più è la nostra lentezza decisionale in rapporto alla velocità di sviluppo delle nuove tecnologie. […]
L’intelligenza artificiale sta entrando in ogni ambito della nostra vita. È nostra responsabilità, oggi, guidarne lo sviluppo etico e assicurarne il pieno allineamento con la libertà, il controllo e la prosperità del genere umano. Dobbiamo sviluppare l’applicazione pratica del concetto di “Algor-etica”, cioè etica per gli algoritmi.
Giorgia Meloni, Presidente del Consiglio - AI Summit 2 Novembre 2023
SuperImage
✒️Settimana scorsa mi sono divertito a rendere “grafica” la poesia di Ungaretti “M’illumino d’immenso”. Stavolta tocca a un’altra poesia, o meglio, un carme. Non è difficile, si capisce soprattutto nella terza immagine. La soluzione in fondo!
SuperNews
[AI & emozioni] LAION, l’organizzazione no-profit che costruisce set di dati di immagini e testi per l'allenamento di modelli AI, inclusa Stable Diffusion, ha annunciato il progetto Open Empathic. Open Empathic mira a “dotare i sistemi di intelligenza artificiale open source di empatia e intelligenza emotiva”. Il riconoscimento delle emozioni è molto difficile da ottenere per un’intelligenza artificiale, dato lo spettro molto ampio di possibilità e di fraintendimenti. Ma crea anche un altro livello di attenzione oltre a quelli che già abbiamo, visti i rischi molto alti di manipolazione delle persone. L’AI Act non permetterà l’uso di questi sistemi di riconoscimento delle emozioni, mentre LAION potrebbe in futuro fornirli apertamente. Un tema da seguire attentamente nel prossimo futuro.
[Supercomputer]Il governo del Regno Unito ha annunciato un investimento di 273 milioni di dollari per costruire il suo supercomputer più potente, Isambard-AI, che una volta avviato si classificherà tra i migliori supercomputer IA del mondo. Conterrà migliaia di superchip NVIDIA, consentendogli di eseguire più di 200 quadrilioni di calcoli al secondo. Perché è importante? Perché può essere messo a disposizione a università e centri di ricerca per migliorare i loro sistemi di intelligenza artificiale.
[Sviluppo AI] Sabato 4 Novembre Elon Musk ha aperto a un ristretto gruppo di utenti il suo nuovo prodotto di intelligenza artificiale, prodotto dalla sua compagnia xAI: Grok. Ovviamente non potevano mancare le roboanti dichiarazioni del padrone di X: “è la il meglio che possiamo avere oggi”. Staremo a vedere come sarà, senza dimenticare che lo stesso Musk qualche mese fa voleva una pausa sullo sviluppo delle intelligenze artificiali. Un modo per ostacolare i concorrenti?
[Sviluppo AI] Nuova release di ChatGPT. Oltre a fornire una versione “Turbo”, che attualizza all’Aprile 2023 i risultati delle richieste e protegge gli utenti da rischi di infrazione del copyright, OpenAI ha annunciato i GPT, un nuovo modo per consentire a chiunque di creare una versione personalizzata di ChatGPT per essere più utile nella vita quotidiana, in attività specifiche, al lavoro o a casa e quindi condividere la creazione con altri. Nessun codice richiesto. Una rivoluzione?
👏Ed eccoci arrivati alla fine di questa ottava uscita di Superpoteri. Purtroppo siamo ancora lontani da un percorso chiaro e concreto sulla politica dell’intelligenza artificiale, anche se qualcosa si sta muovendo. Vediamo se l’ordine esecutivo di Biden o l’AI Act europeo porteranno qualche risultato e se finalmente si vedranno azioni concrete per una governance internazionale.
✒️La soluzione all’enigma di oggi è il carme 85 di Catullo: “Odi et amo”.
🫵Ricordatevi che Superpoteri è un esperimento collettivo, utile per generare dibattiti, riflessioni, proposte sulle tecnologie e il loro impatto. Nessuno si deve sentire escluso.
🤖Puoi darmi una mano semplicemente iscrivendoti (se non l’hai ancora fatto) cliccando sul pulsante sotto.
🦸♀️Puoi lasciarmi un commento (anche critiche, dai!) o scrivermi per qualsiasi suggerimento
🦸Infine puoi semplicemente condividere “Superpoteri” a chi pensi possa essere interessato