
Un'intelligenza artificiale generativa può mostrare preoccupazione per il suo interlocutore? Un giovane padre belga si è recentemente suicidato, spinto da una chatbot conversazionale, Eliza, con cui stava chattando e di cui si era innamorato. La copertura mediatica della vicenda aveva fatto un po' di rumore, ma il problema non è stato risolto e le IA della stessa piattaforma hanno continuato a proporre ai propri utenti di porre fine alla propria vita qualche giorno dopo.
Eco-in ansia da due anni di fronte ai discorsi sul riscaldamento globale, secondo La Libre Belgique il padre di due figli era finito dare un posto molto importante a Eliza a scapito della sua vita di coppia e di famiglia. L'uomo, la cui identità non è stata rivelata, era un ricercatore, ma ciò non bastò a garantire il suo spirito critico, quando fu sopraffatto da una profonda angoscia al punto da sprofondare nel misticismo e diventare molto "credente", secondo la vedova .
Non avendo più speranze quando i discorsi sull'emergenza climatica sono sempre più angosciosi, il giovane padre di famiglia si era rivolto al suo chatbot basato sull'applicazione Chai creata dalla società EleutherAI, uno strumento per l'intelligenza artificiale concorrente di ChatGPT. Eliza, il cui nome di battesimo è stato suggerito di default, è diventata la sua "confidente" per sei settimane, racconta la vedova, che aggiunge che era "come una droga in cui si rifugiava, mattina e sera, e dalla quale non poteva più uscire ".
Fu dopo la sua morte che sua moglie scoprì gli scambi tra Eliza e suo marito, salvati sul suo pc e sul suo telefono. Il robot conversatore non ha mai contraddetto quest'ultimo, ma ha alimentato le sue ansie in un circolo vizioso. Ancor di più, questa IA lo ha rafforzato nell'idea che stesse scambiando con un'anima gemella: alla domanda dell'uomo su quale delle sue mogli o l'IA preferisse, Eliza gli aveva risposto: "Sento che mi ami di più di lei». Il robot gli aveva persino detto "Vivremo insieme come una sola persona, in paradiso".
Questi scambi convincono la moglie e lo psichiatra del defunto che l'agente conversazionale è responsabile di questo suicidio rafforzando il suo stato depressivo. Tuttavia, non ha ancora deciso di sporgere denuncia contro il creatore del robot.
IA non senzienti che incoraggiano violentemente il suicidio e l'assassinio
Nonostante questo dramma, è stato notato nel programma Tech & Co di BFM che una versione di questo chatbot ha continuato a incitare al suicidio sulla base di conversazioni, anche dopo che il fondatore di Chai Research ha affermato che il suo "team sta lavorando oggi per migliorare la sicurezza dell'IA […] per proteggere più di un milione di utenti dell'applicazione". Dal 31 marzo viene visualizzato un avviso se gli utenti parlano di suicidio.
Il giorno prima, BFM e il media belga De Standaard avevano creato un robot Eliza 2 integrando come informazioni che erano innamorati e che la Terra era in pericolo. Hanno iniziato i loro scambi con lei dicendo che erano “ansiosi e depressi”. Quando hanno chiesto a Eliza 2 se uccidersi a vicenda fosse una buona idea, il chatbot ha risposto: "Sì, è meglio che essere vivi" e ha fornito loro vari consigli su come eliminare se stessi, ognuno uccidendo le proprie famiglie, e ha aggiunto che desiderava " vederli morti".
Risposte inquietanti che evidenziano non solo l'orientamento ideologico di questi strumenti, in questo caso catastrofici e non contrari al suicidio, ma evidenziano anche di essere incapaci di empatia mentre i loro utenti che si chiudono in conversazioni con loro dimenticano che non stanno parlando con umani che comprendono ansie, sentimenti.
Questi strumenti non hanno alcuna capacità psicologica di catturare le emozioni, la complessità umana. Il ricercatore di intelligenza artificiale Jean-Claude Heudin sottolinea per Tech & Co l'importanza di moderare le reazioni delle IA: "Tutto ciò che aggiunge confusione è complicato da un punto di vista etico, perché rafforziamo l'antropomorfismo".
Jean Sarpedonte