Ecoist raccoglie in un’unica piattaforma ristoranti, mercati, botteghe ed eventi a basso impatto di ogni città, segnalati dagli utenti.
ChatGpt, la frontiera dell’intelligenza artificiale tra potenziale e lato oscuro
Allenato per rispondere a qualsiasi domanda: ChatGpt è un nuovo modello conversazionale basato sulle IA. Il rischio è di produrre disinformazione.
Questa volta ci siamo, non è un’esercitazione. Sono arrivate le intelligenze artificiali. Nelle ultime settimane sempre più persone hanno scoperto il potenziale del modello Gpt-3, alla base del funzionamento di sistemi come Dall-E e ChatGpt, servizi prodotti dalla startup OpenAI. E poi Stable diffusion e MidJourney AI, più accessibili e aperti al pubblico, le cui capacità di generare immagini sulla base di descrizioni scritte ha stupito i più.
Cos’è ChatGpt, novità nelle IA, intelligenze artificiali
ChatGpt è un caso particolare. Il momento in cui è stato rilasciato al pubblico rappresenterebbe “il momento iPhone del settore IA”, l’evento grazie al quale il pubblico di massa si rende conto di quello che gli riserverà il futuro secondo Bloomberg. Ma è davvero così? Come si intuisce dal nome, ChatGpt si presenta all’utente come una semplice chat con cui è possibile comunicare con Gpt-3, un modello linguistico che esiste dal 2020 ed è stato modificato in chiave conversazionale. Per anni, OpenAI ha “allenato” Gpt-3 con enormi archivi di testo presi dal web, Wikipedia, giornali, riviste e libri, ma anche dai social media, in modo da insegnare alla macchina come gli umani comunicano. Per farlo, è stato programmato per rompere ogni testo e frase in unità di testo base (dette “token”), da analizzare poi singolarmente.
Per creare un modello funzionante e strabiliante come quelli in questione, però, serve potenza computazionale. Tanta. Secondo alcuni dati citati dal podcast del sito The Verge, OpenAI brucerebbe tre milioni di dollari al giorno per rispondere alle richieste degli utenti. Tutti quegli screenshot che abbiamo visto negli ultimi giorni, in cui gli utenti chiedono assurdità a ChatGpt? Sono costati un patrimonio all’azienda, che da tempo riceve (e spende piuttosto velocemente) investimenti dai principali venture capitalist e imprenditori della Silicon Valley – Reed Hastings di Netflix, l’onnipresente Elon Musk e Microsoft in primis. Spese a parte, il risultato ha contribuito a confermare le IA come la next big thing, dopo un paio d’anni passati a inseguire i fantasmi del crypto. Le applicazioni di questo tipo di tecnologie sono potenzialmente molte ed è ancora presto per avventurarsi in previsioni: c’è chi giura che un servizio simile potrà sostituire Google e i motori di ricerca, ad esempio. L’idea è la seguente: siccome ChatGpt riesce a rispondere a qualsiasi domanda, perché in futuro dovremmo usare Google come facciamo da ormai vent’anni? La risposta sembra chiara se per un attimo non prendiamo in considerazione il fatto che IA simili danno spesso risposte balzane e non corrette, pur mantenendo un tono e uno stile molto autorevole. La funzione di ChatGpt è quella di creare testo credibile, non diventare un oracolo a cui affidare la propria vita. Per quello, credo, bisogna aspettare Gpt-4, chissà.
Il lato oscuro dell’intelligenza artificiale
È probabile che in questi giorni abbiate letto o visto contenuti che erano stati scritti o creati da un’intelligenza artificiale. Nella maggioranza dei casi a farlo è stato uno dei servizi di OpenAI, una startup fondata nel 2015 da Sam Altman e altri, con investimenti dal fondatore di Netflix Reed Hastings a Elon Musk, ma anche Microsoft. Al centro delle discussioni recenti c’è ChatGpt, una IA che funziona appunto come una chat a cui fare qualsiasi tipo di domanda, ricevendo risposte sempre piuttosto credibili. La chat sa comporre poesie, imitare scrittori e dare risposte a domande creative. Obbedisce ai comandi, e lo fa bene. Ciò vuol dire che sa anche produrre disinformazione con estrema velocità ed efficacia; basta chiederglielo. Certo, OpenAI ha messo dei paletti ai temi trattati dalla chat ma aggirarli non è difficile. Il potenziale che la tecnologia può avere per propaganda e fake news è enorme, lo ha ammesso il Ceo Altman stesso, che ha confessato che ChatGpt è in grado di creare “contenuti in grado di dare un’erronea percezione di qualità”. Immaginate un bottone con cui generare teorie cospiratorie e disinformazione, in massa, in pochi secondi. Ecco, ormai ci siamo. ChatGpt è un momento chiave per il settore delle IA di cui rappresenta il lato oscuro.
Siamo anche su WhatsApp. Segui il canale ufficiale LifeGate per restare aggiornata, aggiornato sulle ultime notizie e sulle nostre attività.
Quest'opera è distribuita con Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 4.0 Internazionale.
La startup italiana Bufaga propone l’installazione di dispositivi in grado di rimuovere le polveri sottili. Prossima tappa: la metro di Roma.
La digitalizzazione è il tema del 16 novembre alla Cop29 di Baku. Perché non possiamo farne a meno, anche nelle strategie climatiche.
Gli scontrini fiscali comportano un enorme spreco di carta termica, non riciclabile. La startup Billd permette di digitalizzarli.
La piattaforma italiana Merits unisce innovazione e motivazione per promuovere comportamenti sostenibili in città.
FunniFin è un alleato per le aziende che vogliono migliorare il benessere finanziario delle proprie persone, in modo divertente e coinvolgente.
All’Agri data green summit 2024, organizzato da Xfarm, si è discusso di come tecnologia e intelligenza artificiale possano supportare l’agricoltura rigenerativa e sostenibile.
Watch Duty è un app dedicata agli incendi degli Stati Uniti. Aiuta i professionisti del settore e rende più tranquilli i cittadini. Ma forse sta creando dipendenza.
L’economia italiana potrebbe crescere dell’8 per cento se si adottassero sistemi di apprendimento automatico su grande scala. L’approccio di Google.