Per combattere le fake news e le derive dell’intelligenza artificiale, il segretario generale dell’Onu guarda al “modello nucleare”.
Quello delle intelligenze artificiali è un settore particolare: l’unico, si direbbe, in cui i suoi stessi imprenditori girano il mondo denunciandone i rischi per l’umanità. Lo fa da mesi Sam Altman, co-fondatore e amministratore delegato di OpenAI, l’azienda che ha sviluppato ChatGpt, parlando con politici d’ogni nazionalità del “pericolo” che le IA avrebbero per la sopravvivenza della civiltà umana. Spesso lo si sente addirittura usare la parola “estinzione”, a conferma dei timori – fondati o meno – del suo personaggio simbolo. Pochi giorni fa, l’ex chief business officer di Google X, Mo Gawdat, ha persino invitato l’umanità a “non fare figli” proprio a causa delle incertezze sistemiche che queste tecnologie proiettano sul nostro futuro.
Lo scenario apocalittico delle intelligenze artificiali
Facile però parlare di armageddon quando ci sono di mezzo le IA. È uno scenario terrificante, ma anche a suo modo affascinante, da film di fantascienza (Terminator, ad esempio); ma soprattutto è un’eventualità lontana. Che potrebbe succedere. Prima o poi. Esistono invece rischi legati alle IA molto più vicini e contemporanei del pericolo estinzione strillato da Altman: già oggi le IA vengono usate per campagne di disinformazione e propaganda online. Così come milioni di persone hanno scoperto le capacità di ChatGpt nel generare brevi testi scritti, infatti, organizzazioni politiche d’ogni tipo le stanno usando per diffondere fake news e “rumore”. E hanno appena iniziato.
Lunedì scorso, in un incontro in cui si discuteva proprio di disinformazione, il segretario generale della Nazioni Uniti António Guterres ha attirato l’attenzione della politica internazionale proprio su questo lato delle IA, appoggiando la creazione di un ente appositamente pensato per monitorare lo sviluppo di queste tecnologie, sullo stampo dell’Agenzia internazionale per l’energia atomica (Aiea). Quest’ultima, fondata nel 1957, in piena guerra fredda, fu fortemente voluta dall’Onu con lo scopo di promuovere l’utilizzo pacifico dell’energia nucleare e di impedirne invece l’utilizzo per scopi militari.
Il parallelo tra IA e nucleare non è stato casuale: secondo il Segretario generale, infatti, la diffusione generalizzata delle intelligenze artificiali rappresenterebbe “un rischio esistenziale per l’umanità simile a quello di una guerra nucleare”. In entrrambi i casi, infatti, si tratta di tecnologie avanzate che possono sfuggire di mano ai ricercatori o essere sfruttate nel terrorismo o nel settore bellico. Guterres sembra essere quindi concorde con parte dell’industria delle IA stessa ma ritiene l’emergenza molto più vicina e realistica di quanto dicano i profeti oscuri come Altman.
La lettera aperta degli scienziati del settore tecnologico
Guterres ha notato che “le campanelle d’allarme sulle più recenti forme di intelligenze artificiali generativi sono assordanti”, sottolineando come i timori più fondati provengano proprio “dagli sviluppatori che le hanno progettate”. Il riferimento del segretario è probabilmente alla lettera aperta firmata da vari scienziati e imprenditori del settore tecnologico, tra cui Elon Musk, Steve Wozniak e Tristan Harris, lo scorso marzo, dove si chiedeva di “mettere in pausa lo sviluppo” di questa tecnologia “per almeno sei mesi”, in modo da trovare un modo di evitarne e contenerne le ripercussioni negative. Lo scrittore ed esperto di intelligenze artificiali “amichevoli” Eliezer Yudkowsky rispose alla lettera precisando che mettere in pausa la ricerca nel settore non bastava: bisogna interromperla e basta.
Lo stesso Altman, come detto, ha spesso ribadito la possibilità degli scenari più pessimistici, conquistando anche le simpatie del Congresso statunitense, lo scorso maggio, quando fu invitato a un dibattito sull’argomento. Secondo alcuni, la sua sarebbe una strategia volta proprio a terrorizzare i regulators raccontando di IA killer ed estinzioni di massa, per distogliere l’attenzione dai pericoli incombenti e probabilmente già in corso. Come la diffusione di fake news, la creazione di media “sintetici” generati con le IA, ovvero foto, video e audio in cui personaggi politici dicono e fanno cose sconvenienti, ad esempio. Sono i cosiddetti deepfake, che rischiano di inquinare i pozzi della discussione politica e culturale, creando un ambiente in cui tutto potrebbe essere falso e nulla viene preso sul serio.
Ecco, sono questi i pericoli delle intelligenze artificiali, non il risveglio di Skynet (la rete di super computer ribelle del film Terminator). Guterres sembra essersene reso conto e ha presentato la sua idea per un’Agenzia internazionale di monitoraggio del settore. Peccato che “solo gli stati membri possano crearla, non il Segretario delle Nazioni Unite”, come ha spiegato lui stesso. Prima di pensare all’apocalisse da film di fantascienza, è il caso di partire da qui.
Siamo anche su WhatsApp.
Segui il canale ufficiale LifeGate per restare aggiornata, aggiornato sulle ultime notizie e sulle nostre attività.
Quest'opera è distribuita con Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 4.0 Internazionale.