L’intelligenza artificiale ucciderà o salverà i media?

artificial_intelligence_kill_save_media

Ricerca di informazioni, produzione di contenuti, traduzione, rilevamento di discorsi di incitamento all'odio...intelligenza artificielle (IA generativa) promette significativi guadagni di produttività nel mondo media.

I media ci accompagnano quotidianamente e sono un sostegno alla democrazia: hanno la libertà di mostrare punti di vista e idee diverse, di denunciare corruzione e discriminazione, ma anche di mostrare coesione sociale e culturale.

Mentre il pubblico si rivolge ai media per ottenere informazioni, cultura e intrattenimento, i media non possono sfuggire alle preoccupazioni economiche e alla redditività di un settore misurato in termini di pubblico e vendite. In questo contesto, l’intelligenza artificiale generativa apporta nuovi potenti strumenti e sarà utilizzata sempre di più.

Ma è fondamentale ricordare che le IA generative non hanno idee e che ripetono commenti che possono essere organizzati in modi tanto interessanti quanto assurdi (si parla allora di "allucinazioni" dei sistemi di IA). Queste IA generative non sanno cosa è possibile o impossibile, vero o falso, morale o immorale.

Pertanto, la professione del giornalista deve rimanere centrale per indagare e ragionare su situazioni sociali e geopolitiche complesse. Quindi, come possono i media sfruttare gli strumenti di intelligenza artificiale evitando le loro trappole?

Il Comitato pilota nazionale per l’etica digitale (CNPEN) ha pubblicato un rapporto a luglio opinione generale sulle questioni etiche dell’IA generativa, da me co-coordinata, al Ministro responsabile per la Transizione Digitale. Specifica in particolare i rischi di questi sistemi.

Strumenti potenti per i giornalisti

I media possono utilizzare l’intelligenza artificiale per migliorare la qualità dell’informazione, combattere le fake news, identificare molestie e incitamento all’odio, ma anche perché può aiutare a far avanzare la conoscenza e comprendere meglio realtà complesse, come lo sviluppo sostenibile o anche i flussi migratori.

Le IA generative sono strumenti favolosi che possono far emergere risultati che senza di loro non potremmo ottenere perché calcolano a livelli di rappresentazione che non sono i nostri, su una quantità gigantesca di dati e con una velocità che un cervello non sa trattare. Se sappiamo dotarci di tutele, si tratta di sistemi che ci faranno risparmiare tempo nella ricerca delle informazioni, nella lettura e nella produzione e che ci permetteranno di combattere gli stereotipi e ottimizzare i processi.

Questi strumenti non arrivano adesso per caso. Mentre siamo effettivamente sommersi da un'ondata di informazioni trasmesse continuamente dai canali tradizionali o dai contenuti accessibili su Internet, strumenti come ChatGPT ci permettono di consultare e produrre riassunti, programmi, poesie, ecc., da un insieme di informazioni gigantesche inaccessibili a un cervello umano nel tempo umano. Possono quindi essere estremamente utili per molti compiti ma anche contribuire a un flusso di informazioni non fornite. Dobbiamo quindi domarli e capire come funzionano e i rischi.

Imparare l’intelligenza artificiale generativa

Le prestazioni dell’IA generativa dipendono dalla capacità di apprendimento autosupervisionato (cioè senza essere guidati da una mano umana, che è un concetto diverso dall’adattamento in tempo reale) dei loro modelli interni, detti “modelli di fondazione", che vengono formati da enormi corpora di dati costituiti da miliardi di immagini, testi o suoni molto spesso nelle culture dominanti su Internet, ad esempio GPT3.5 di ChatGPT è alimentato principalmente con dati in inglese. Altri due tipi di apprendimento sono stati utilizzato anche: prima della sua disponibilità alla fine del 2022, ChatGPT era ottimizzato utilizzando a apprendimento supervisionato poi grazie ad a insegnamento rafforzativo dagli esseri umani al fine di affinare i risultati ed eliminare commenti indesiderati.

Anche questa ottimizzazione da parte dell'uomo è stata ampiamente criticata. Come vengono addestrati? Chi sono questi "uomini clic sottopagati ? Questi commenti “indesiderati”, inoltre, non vengono decisi da un comitato etico o dal legislatore, ma solo dall’azienda.

Un apprendimento che dimentica le fonti

Quando si apprendono i modelli di base sui testi, il sistema apprende quelli che vengono chiamati "vettori di incorporamento lessicale" (di dimensione 512 in GPT 3.5). Questo è il sistema dei "trasformatori". Il principio di formazione del modello di fondazione si basa sull'ipotesi distributiva proposta dal linguista americano John Ruppert Fith nel 1957: non possiamo conoscere il significato di una parola solo dalle sue frequentazioni ("Conoscerai una parola dalla compagnia che frequenta").

Queste entità (“gettone" in inglese) sono in media quattro caratteri in GPT3.5. Possono essere costituiti solo da uno e uno spazio vuoto. Possono quindi essere parti di parole o parole con il vantaggio di poter combinare agilmente queste entità per ricreare parole e frasi senza alcuna conoscenza linguistica (a parte quella implicita nella sequenza delle parole), con lo svantaggio ovviamente di essere meno interpretabili. Ogni entità è codificata da un vettore che contiene informazioni su tutti i contesti in cui questa entità è stata vista grazie a meccanismi di attenzione. Pertanto due entità aventi lo stesso vicinato verranno considerate vicine dal sistema AI.

Il sistema di AI generativa sui testi apprende così un modello di produzione con meccanismi che nulla hanno a che vedere con la produzione umana localizzata in un corpo, però è in grado di imitarlo dai testi di apprendimento. Questa operazione ha la diretta conseguenza di perdere le fonti da cui vengono estratti i quartieri individuati, il che pone un problema fondamentale per la verifica dei contenuti prodotti. Non è facile produrre alcuna verifica della veridicità delle dichiarazioni. Dobbiamo trovare le fonti e quando chiediamo al sistema di farlo, può inventarle!

Quando fornisci una richiesta a ChatGPT, questo predice l'entità successiva, poi quella successiva e così via. Un parametro fondamentale è quello della “temperatura” che esprime il grado di casualità nella scelta delle entità. Ad alta temperatura il modello è più "creativo" perché può generare output più diversificati, mentre a bassa temperatura il modello tende a scegliere gli output più probabili, rendendo il testo generato più prevedibile. Lo strumento di conversazione Bing di Microsoft (GPT4) offre tre opzioni di temperatura (più preciso, più equilibrato, più creativo). Spesso gli iperparametri del sistema non vengono rivelati per ragioni di sicurezza informatica o di riservatezza come nel caso di ChatGPT... ma la temperatura consente risposte diverse alla stessa domanda.

“Allucinazioni” e altri rischi

È quindi facile immaginare alcuni dei rischi dell’intelligenza artificiale generativa per i media. Altri appariranno sicuramente man mano che vengono utilizzati.

Appare urgente trovare il modo di minimizzarli in attesa della promulgazione per l'Unione Europea di un Legge sull'AI dotandosi di guide di buone pratiche. Ilpreavviso del CNPEN sull’IA generativa e le questioni etiche comprende 10 raccomandazioni per la ricerca e 12 per la governance. Ecco alcuni dei rischi identificati per i media:

  • Confidare troppo in ciò che dice la macchina senza effettuare controlli incrociati con altre fonti. L’incrocio di più fonti dati e la necessità di indagare stanno diventando fondamentali per tutte le professioni: giornalisti, scienziati, professori e non solo. Sembra fondamentale anche insegnare come utilizzare questi sistemi a scuola e all'università coltivare l’arte del dibattito per sviluppare le tue idee.

  • Tieni presente che ChatGPT è costruito con dati prevalentemente in inglese e che la sua influenza culturale potrebbe essere significativa.

  • Utilizzo massiccio e pigro di ChatGPT nei media, produzione di molti nuovi dati artificiali non verificati su Internet che potrebbero essere utilizzati per addestrare nuova intelligenza artificiale. Sarebbe tragico se non ci fosse più alcuna garanzia di verità su questi dati ricostituiti dalla macchina. Ad esempio, due avvocati americani sono rimasti intrappolati facendo riferimento durante un procedimento, su consiglio dell'algoritmo, a giurisprudenza che non esisteva.

  • Sostituisci determinati compiti in molte professioni legate ai media con sistemi di intelligenza artificiale. Alcuni lavori scompariranno, altri appariranno. È necessario creare interfacce con misure di rafforzamento della fiducia favorire la cooperazione tra esseri umani e sistemi di intelligenza artificiale.

  • Usare i sistemi di intelligenza artificiale e demistificarli sta diventando una necessità assoluta, facendo attenzione a non disimparare e potendo farne a meno.

  • È necessario capire che ChatGPT commette molti errori, ad esempio non ha il concetto di storia o la comprensione dello spazio. Il diavolo sta nei dettagli ma anche nella scelta dei dati utilizzati per creare il modello. La legge sull’IA chiede maggiore trasparenza su questi sistemi di IA per verificarne la robustezza, la non-manipolazione e consumo di energia.

  • È necessario verificare che i dati prodotti non invadano il diritto d'autore e che i dati utilizzati dal sistema siano utilizzati correttamente. Se i dati “sintetici” domani sostituiranno la nostra conoscenza nella formazione dei futuri modelli di base, sarà sempre più difficile distinguere i fatti dalla finzione.

  • Fornire accesso ai sistemi di intelligenza artificiale (ad es. Lastra ou Diffusione stabile) che può essere utilizzato per creare hyperfake (deepfake in inglese) per produrre immagini. Il fenomeno ci ricorda l'importanza di verificare non solo l'attendibilità delle fonti degli articoli, ma anche delle immagini e dei video. Si tratta di mettere filigrane (o filigrane) nei testi, nelle immagini o nei video prodotti per scoprire se sono stati realizzati dall'intelligenza artificiale o per etichettare i dati come “organici” (o prodotti dall'uomo).

Laboratorio di intelligenza artificiale sulla nascita e i limiti dell’intelligenza artificiale generativa

L'arrivo di ChatGPT è stato uno tsunami per tutti. Ha stupito esperti e non esperti con le sue capacità di produzione di testi, traduzione e persino di programmazione informatica.

La precisa spiegazione scientifica del fenomeno della "scintilla delle emergenze" nei modelli di fondazione è un argomento di ricerca attuale e dipende dai dati e dagli iperparametri dei modelli. È importante sviluppare in modo massiccio la ricerca multidisciplinare sull’emergenza e sui limiti dell’intelligenza artificiale generativa e sulle misure da adottare per controllarli.

Infine, è necessario educare a scuola sui rischi, sull’etica e sulla programmazione, e anche formare e demistificare i sistemi di intelligenza artificiale affinché utilizzino e innovino in modo responsabile pur essendo consapevoli delle conseguenze etiche, economiche, sociali e dei costi ambientali.

La Francia potrebbe svolgere un ruolo importante in Europa con l’ambizione di essere un laboratorio di intelligenza artificiale per i media studiando questioni etiche ed economiche al servizio del bene comune e delle democrazie.


Questo contributo a The Conversation France estende un intervento dell'autore a Jéco 2023 che si sono svolti a Lione dal 14 al 16 novembre 2023.

Laurence Devillers, Professore di Intelligenza Artificiale, Università della Sorbona

Questo articolo è ripubblicato da The Conversation sotto licenza Creative Commons. Leggi ilarticolo originale.

Le opinioni espresse in questo articolo non riflettono necessariamente quelle di InfoChrétienne.

Credito immagine: Shutterstock / Skorzewiak


Nella categoria Media >



Notizie recenti >