
Chi non ha mai sentito parlare ChatGPT, questa intelligenza artificiale generativa, capace di rispondere con testi complessi alle domande lanciate dagli internauti? Il rilascio nel dicembre 2022 di questo software progettato dalla società OpenAI ha scatenato una moltitudine di articoli, tra visioni di catastrofe e utopia, producendo un panico mediatico, come illustrato dal lettera aperta di marzo 2023 che chiede una moratoria nello sviluppo di questo tipo di sistemi, firmato da mille ricercatori.
Come mostrato da A studio del Columbia Journalism Review, il panico non è iniziato a dicembre 2022 con l'evento lanciato da OpenAI ma a febbraio 2023 con gli annunci di Microsoft e Google, ciascuno dal proprio chatbot integrato nel proprio motore di ricerca (rispettivamente Bing Chat e Bard). La copertura mediatica offusca le informazioni, concentrandosi più sulla potenziale sostituzione degli esseri umani che sulla reale concentrazione della proprietà dell'IA nelle mani di poche aziende.
Come ogni panico mediatico (i più recenti sono quelli sul Réalité virtuelle e metaverso), ha lo scopo e l'effetto di creare un dibattito pubblico che consenta ad attori diversi da quelli dei media e del digitale di impadronirsene. Per la media and information literacy (MIL), la posta in gioco è alta in termini di interazioni sociali e scolastiche, anche se è ancora troppo presto per misurare le conseguenze sull'insegnamento di questi modelli linguistici. pubblico in generale.
In parallelo con azioni di politica regolatoria, l'IME consente ai cittadini di proteggersi dai rischi connessi all'uso di questi strumenti, sviluppando il loro pensiero critico e adottando strategie di uso appropriate e responsabili. Algo-alfabetizzazione, questo sottocampo di MIL che considera ciò che i dati fanno ai media, rende possibile applicare queste chiavi di lettura all'IA. Ecco quattro direzioni in cui MIL può aiutarci a navigare in queste catene di interazioni algoritmiche, dalle loro produzioni al loro pubblico.
Prendi in considerazione la geopolitica dell'IA
Sono le società che controllano i motori di ricerca e quindi l'accesso alle informazioni, Google e Microsoft, ad avere più da guadagnare dallo sviluppo dell'IA generativa. Sono organizzati, all'americana, a duopolio, con un (falso) sfidante, OpenAILP. In realtà è il braccio commerciale del laboratorio OpenAI inizialmente senza scopo di lucro (in gran parte finanziato da Microsoft).
Un'altra storia può essere raccontata, soprattutto dai media, quella dell'incredibile concentrazione di potere e denaro da parte di un numero molto ristretto di aziende nel Silicon Valley. Si danno il monopolio dell'accesso all'informazione e di tutte le produzioni che ne derivano. Alimentano la concorrenza frontale tra Stati Uniti e Cina sull'argomento. La strategia di Google e Microsoft è infatti volta a togliere il tappeto da sotto i piedi al governo cinese, che non si nasconde le sue ambizioni per lo sviluppo dell'IA.
L'opzione di una pausa o di una moratoria è un sogno irrealizzabile, di fronte a quella che è l'equivalente di una corsa agli armamenti. Gli stessi inventori, come apprendisti stregoni pentiti, tra cui Sam Altman, direttore generale di OpenAI, hanno proposto nel maggio 2023 "Governance dell'IA". Ma non sarebbe nella speranza di non subire tutto il peso della regolamentazione del governo che li eluderebbe e metterebbe un freno alle loro intenzioni commerciali? L'Unione Europea ha anticipato predisponendo a Regolamento AI regolamentare gli usi di questa nuova evoluzione digitale.
Mettere in discussione la qualità dei testi e delle immagini fornite
Non tutto ciò che è plausibile è necessariamente significativo. L'intelligenza artificiale che guida il software ChatGPT fornisce suggerimenti basati su query e appaiono rapidamente... in un linguaggio piuttosto elegante e curato! Ma questo può generare errori, come si rese conto, con suo dispiacere, un avvocato di New York che aveva istituito un fascicolo pieno di falsi pareri legali e false citazioni legali.
Quindi fai attenzione alla pseudo-scienza generata dall'IA. I contenuti offerti possono avere pregiudizi perché provengono dallo sfruttamento di enormi database. Questi includono set di dati con fonti di ogni tipo... compresi i social media! L'ultima versione gratuita di ChatGPT si basa su dati che si fermano all'inizio del 2022, quindi non proprio aggiornati sull'attualità.
Molti di questi database provengono da paesi di lingua inglese, con i pregiudizi algoritmici associati. ChatGPT rischia infatti di creare disinformazione e prestarsi ad usi malevoli o amplificare le convinzioni di chi lo utilizza.
Va quindi utilizzato come qualsiasi altro strumento, come un dizionario con cui fare ricerche, elaborare una bozza... senza affidargli segreti e dati personali. Chiedergli di produrre le sue fonti è un buon consiglio, ma anche questo non garantisce l'assenza di filtri, il chatbot tende a produrre un elenco di fonti che sembrano citazioni ma non sono tutte riferimenti reali.
Inoltre, non dobbiamo dimenticare il problemi di Copyright che presto entrerà in azione.
Attenzione agli immaginari sull'IA
Il termineintelligenza artificielle non è appropriato per ciò che rientra in a elaborazione dei dati pre-addestrata (il significato dell'acronimo GPT per trasformatore generativo pre-addestrato).
Questo antropomorfismo, che ci porta ad attribuire pensiero, creatività e sentimenti a un agente non umano, è negativo per due motivi. Ci ricorda tutti i miti ansiogeni che avvertono della non praticabilità di qualsiasi porosità tra il vivente e il non vivente, dal Golem al Frankenstein, con i timori dell'estinzione della razza umana. Serve la serena comprensione della reale utilità di questi grandi trasformatori. La fantascienza non aiuta a capire la scienza. E quindi formulare parametri di riferimento etici, economici e politici.
Questi immaginari, per quanto attivi possano essere, devono essere demistificati. La cosiddetta "scatola nera" dell'IA generativa è piuttosto semplice in linea di principio. I modelli linguistici su larga scala sono algoritmi addestrati a riprodurre i codici del linguaggio scritto (o visivo). Eseguono la scansione di migliaia di testi su Internet e convertono un input (una sequenza di lettere, ad esempio) in un output (la sua previsione per la lettera successiva).
Ciò che l'algoritmo genera, ad altissima velocità, è una serie di probabilità, che puoi controllare facendo di nuovo la stessa query e vedendo che i tuoi risultati non sono gli stessi. Nessuna magia lì, nessuna sensibilità neanche, anche se l'utente ha la sensazione di avere una “conversazione”, un'altra parola del vocabolario umano.
E può essere divertente, come il BabyGPT AI creato dal New York Times, lavorando su piccoli corpora chiusi, per mostrare come scrivi come Jane Austen, William Shakespeare o JK Rowling. Anche ChatGPT non si lascia ingannare: quando gli viene chiesto come si sente, risponde, molto schietto, che non è programmato per questo.
Varia gli strumenti
Il pubblico dell'intelligenza artificiale, soprattutto a scuola, deve quindi sviluppare conoscenze e competenze sui rischi e le opportunità di questo tipo di cosiddetto robot conversazionale. Oltre alla comprensione dei meccanismi di elaborazione automatica delle informazioni e della disinformazione, altre precauzioni si prestano all'educazione:
-
diffidate dal monopolio della query online, preso di mira da Bing Chat e Google Bard, in competizione tra loro, quindi utilizzando regolarmente più motori di ricerca;
-
richiedere etichette, codici colore e altri indicatori per indicare che un documento è stato prodotto da un'intelligenza artificiale o con il suo aiuto è anche buon senso e alcuni media lo hanno già anticipato;
-
richiedere che i produttori effettuino il reverse engineering per produrre IA che monitorino l'IA. che è già il caso di GPZero ;
-
avviare un procedimento giudiziario, caso di ChatGPT "allucinazione"- - altro termine antropomorfizzato per segnalare un errore nel sistema!
-
E ricorda che più usi ChatGPT, nella sua versione gratuita ea pagamento, più lo aiuti a migliorare.
In campo educativo, le soluzioni di marketing EdTech promuovono i vantaggi dell'intelligenza artificiale per personalizzare l'apprendimento, facilitare l'analisi dei dati, aumentare l'efficienza amministrativa, ecc.. Ma queste metriche e statistiche non possono in alcun modo sostituire la convalida delle competenze acquisite e delle produzioni dei giovani.
Per quanto intelligente possa affermare di essere, l'IA non può sostituire la necessità per gli studenti di sviluppare il proprio pensiero critico e la propria creatività, di formarsi e informarsi padroneggiando le proprie fonti e risorse. Poiché l'EdTech, in particolare negli Stati Uniti, si affretta a introdurre l'IA nelle classi, dalla scuola primaria all'istruzione superiore, la vigilanza degli insegnanti e dei responsabili delle decisioni rimane essenziale per preservare le missioni centrali delle scuole e dell'università. L'intelligenza collettiva può quindi prendere il sopravvento sull'intelligenza artificiale.
Divina Frau Meigs, Professore di Scienze dell'Informazione e della Comunicazione, Autori storici La Conversazione Francia
Questo articolo è ripubblicato da The Conversation sotto licenza Creative Commons. Leggi ilarticolo originale.
Credito immagine: Shutterstock / Cacciatore di pixel