Un'IA sostituirà presto il tuo psichiatra?

shutterstock_576208246.jpg

" Buongiono signore. Per favore siediti. Allora... come stai dall'ultima volta? E se, tra qualche anno, questa frase innocua non fosse più pronunciata da uno psichiatra in carne e ossa ma da un'IA, un'intelligenza artificiale? Con il recente rinascita della psichiatria nel dibattito pubblico, soprattutto a causa della crisi sanitaria, è riemersa l'idea di proporre sistemi di monitoraggio della salute mentale che integrino le IA.

Siamo onesti, è ben lungi dall'essere nuovo poiché troviamo il prima traccia di un chatbot (programma di dialogo) dedicato alla psichiatria, chiamato ELIZA, del 1966. Negli ultimi decenni, i progressi dell'intelligenza artificiale hanno consentito l'ascesa di chatbots, "terapisti robotici" o altro sistemi di rilevamento della salute basati sulla voce.

Esiste oggi più di venti robot-terapisti validato da studi scientifici in psichiatria. Molti di questi lavori suggeriscono che i pazienti potrebbero sviluppare reali relazioni terapeutiche con queste tecnologie, anche se alcuni di loro si sentirebbero addirittura più a loro agio con un chatbot che con uno psichiatra umano.

Le ambizioni sono quindi alte... Soprattutto perché, a differenza delle loro controparti umane, questi "professionisti" digitali promettono decisioni obiettive, replicabili e non giudicanti - e di essere sempre disponibili.

La pagina di dialogo di ELIZA, con estratto da uno scambio sul fidanzato dell'interlocutore del robot terapista
Il primo software di dialogo o chatbot è ELIZA, progettato nel 1966 per simulare uno psicoterapeuta.
DR

Va notato, tuttavia, che mentre il nome "terapista robotico" evoca l'immagine di un robot fisico, la maggior parte sono video basati su testo, possibilmente animati. Oltre a questa assenza di presenza fisica, importante per la maggior parte dei pazienti, molti non riescono a riconoscere tutte le difficoltà vissute dalle persone con cui dialogano. Come, quindi, fornire risposte adeguate, come il rinvio a un help desk dedicato?

Diagnosi e modello interno nello psichiatra

Lo psichiatra, nel suo colloquio con il suo paziente, è in grado di percepire segnali importanti che tradiscono l'esistenza di pensieri suicidi o di violenza domestica, che gli attuali chatbot possono perdere.

Perché lo psichiatra supera ancora la sua versione elettronica? Quando questo specialista annuncia "Hai un disturbo da deficit di attenzione", o "Sua figlia ha l'anoressia nervosa", il processo che lo ha portato a fare queste diagnosi dipende dal suo "modello interno": un insieme di processi mentali, espliciti o impliciti, che gli consentono di fare la sua diagnosi.

Proprio come ilengineering trae ispirazione dalla natura per progettare sistemi ad alte prestazioni, può essere rilevante analizzare cosa sta succedendo nella testa di uno psichiatra (il modo in cui progetta e usa il suo modello interno) quando fa la sua diagnosi per poi addestrare meglio l'IA preposta all'imitazione... Ma in che misura un “modello interno” umano e quello di un programma sono simili?

Questo è ciò che ci siamo chiesti nel ns articolo recentemente pubblicato sulla rivista Frontiere in psichiatria.

Confronto uomo-macchina

Facendo affidamento su studi precedenti sul ragionamento diagnostico in psichiatria, abbiamo stabilito un confronto tra il modello interno dello psichiatra e quello dei RN. La formulazione di una diagnosi passa attraverso tre fasi principali:

Raccolta e organizzazione delle informazioni. Durante il colloquio con un paziente, lo psichiatra raccoglie molte informazioni (dalla sua cartella clinica, il suo comportamento, ciò che viene detto, ecc.), che poi seleziona in base alla loro rilevanza. Queste informazioni possono poi essere associate a profili preesistenti con caratteristiche simili.

I sistemi di IA fanno lo stesso: in base ai dati con cui sono stati formati, estraggono caratteristiche dal loro scambio con il paziente. Caratteristiche) che selezionano e organizzano in base alla loro importanza (selezione delle caratteristiche). Possono quindi raggrupparli in profili e quindi fare una diagnosi.

La costruzione del modello. Durante gli studi medici, poi nel corso della loro carriera (pratica clinica, lettura di case report, ecc.), gli psichiatri formulano diagnosi di cui conoscono l'esito. Questa formazione continua rafforza, nel loro modello, le associazioni tra le decisioni che prendono e le loro conseguenze.

Anche in questo caso, i modelli di IA vengono formati allo stesso modo: sia durante la loro formazione iniziale che durante il loro apprendimento, rafforzano costantemente, nel loro modello interno, le relazioni tra i descrittori estratti dai loro database e l'esito diagnostico. Questi database possono essere molto grandi e contenere anche più casi di quelli che un medico vedrà nella sua carriera.

Uso del modello. Al termine delle due fasi precedenti, il modello interno dello psichiatra è pronto per essere utilizzato per prendere in carico nuovi pazienti. Vari fattori esterni possono influenzare il modo in cui lo farà, come il suo stipendio o il suo carico di lavoro, che trovano il loro equivalente nel costo delle attrezzature e nel tempo necessario per addestrare o utilizzare un'IA.

Come indicato sopra, si è spesso tentati di pensare che lo psichiatra sia influenzato nella sua pratica professionale da tutta una serie di fattori soggettivi, fluttuanti e incerti: la qualità della sua formazione, il suo stato emotivo, il caffè mattutino, ecc. E che un'IA, essendo una "macchina", si libererebbe di tutti questi capricci umani... Questo è un errore! Perché l'IA include anche una parte importante della soggettività; è semplicemente meno immediatamente percepibile.

[Quasi 70 lettori si affidano alla newsletter di The Conversation per comprendere meglio i principali problemi del mondo. Iscriviti oggi]

AI, davvero neutrale e obiettiva?

In effetti, tutta l'IA è stata progettata da un ingegnere umano. Quindi, se si vuole confrontare i processi di pensiero dello psichiatra (e quindi la progettazione e l'uso del suo modello interno) e quelli dell'IA, bisogna considerare l'influenza del programmatore che l'ha creata. Questo ha un suo modello interno, in questo caso non associare dati clinici e diagnosi ma tipo di IA e problema da automatizzare. E anche lì vengono prese in considerazione molte scelte tecniche ma basate sull'umano (quale sistema, quale algoritmo di classificazione, ecc.)

Il modello interno di questo programmatore è necessariamente influenzato dagli stessi fattori di quello dello psichiatra: la sua esperienza, la qualità della sua formazione, il suo stipendio, l'orario di lavoro per scrivere il suo codice, il suo caffè mattutino, ecc. Il tutto influenzerà i parametri di progettazione dell'IA e quindi, indirettamente, sul processo decisionale dell'IA, cioè sulle diagnosi che farà.

L'altra soggettività che influenza il modello interno delle IA è quella associata alle banche dati su cui viene formata. Queste banche dati sono infatti progettate, raccolte e annotate da una o più altre persone con le proprie soggettività – soggettività che giocheranno nella scelta delle tipologie di dati raccolti, del materiale coinvolto, della misura scelta per annotare la banca dati. , ecc.

Sebbene le IA siano presentate come oggettive, riproducono effettivamente i pregiudizi presenti nelle banche dati su cui sono formati.

Diagramma sintetizzante dove i fattori soggettivi giocano nella definizione di una diagnosi: nello strizzacervelli, ma anche nei codificatori, ingegneri, ecc.
La soggettività si verifica non solo con lo psichiatra umano, ma anche con le IA terapeutiche attraverso le scelte fatte da ingegneri, programmatori, ecc. che le hanno progettate.
Vincenzo Martino, Autore previsto

I limiti dell'IA in psichiatria

Da questi confronti emerge che l'IA non è esente da fattori soggettivi e, proprio per questo motivo, non è ancora pronta a sostituire uno psichiatra “reale”. Quest'ultimo ha altre qualità relazionali ed empatiche per adattare l'uso del suo modello alla realtà che incontra... cosa che l'IA sta ancora lottando per fare.

Lo psichiatra è così capace di flessibilità nel raccogliere informazioni durante il colloquio clinico, che gli consente di accedere a informazioni temporali molto diverse: può, ad esempio, interrogare il paziente su un sintomo manifestatosi settimane prima o evolvere il suo scambio in tempo reale secondo le risposte ottenute. Le IA sono attualmente limitate a uno schema prestabilito e quindi rigido.

Un altro forte limite delle IA è la loro mancanza di corporeità, un fattore molto importante in psichiatria. Ogni situazione clinica, infatti, si basa sull'incontro tra due persone – e questo incontro coinvolge la parola e la comunicazione non verbale: gesti, posizione dei corpi nello spazio, lettura delle emozioni sul volto o riconoscimento di segnali sociali non verbali. esplicito... In altre parole, la presenza fisica di uno psichiatra costituisce una parte importante della relazione paziente-caregiver, che costituisce essa stessa una parte importante della cura.

Qualsiasi progresso delle IA in quest'area dipende dai progressi della robotica, dove in essa è già incarnato il modello interno dello psichiatra.

Questo significa che dovremmo dimenticare l'idea di uno strizzacervelli virtuale? Il confronto tra il ragionamento dello psichiatra e quello dell'IA è comunque interessante in un'ottica di cross-pedagogia. In effetti, una buona comprensione del modo in cui ragionano gli psichiatri consentirà di tenere meglio in considerazione i fattori coinvolti nella costruzione e nell'uso delle IA nella pratica clinica. Questo confronto mette in luce anche il fatto che il programmatore porta la sua quota di soggettività anche negli algoritmi di intelligenza artificiale... che quindi non sono in grado di mantenere le promesse loro fatte.

È solo attraverso questo tipo di analisi che una vera pratica interdisciplinare, che consente di ibridare AI e medicina, potrà svilupparsi in futuro a beneficio del maggior numero di persone.

Vincenzo Martino, Dottorato in Informatica, Università di Bordeaux et Cristoforo Gaud, psichiatra infantile e medico del sonno, Université Paris 1 Panthéon-Sorbonne

Questo articolo è ripubblicato da The Conversation sotto licenza Creative Commons. Leggi ilarticolo originale.


Articoli recenti >

Martin Scorsese annuncia il prossimo film su Jesus

icona dell'orologio delineata in grigio

Notizie recenti >