
Nel loro lavoro,L’intelligenza artificiale non è una questione tecnologica"(Éditions de l'Aube), Laurent Bibard, direttore del dipartimento di Management e Filosofia dell'ESSEC, e Nicolas Sabouret, professore all'Università di Paris-Saclay dove dirige la scuola di specializzazione in Informatica e Scienze Digitali, sottolineano che "esiste nessun problema con l'intelligenza artificiale, c'è solo il problema delle nostre aspettative su ciò che noi stessi abbiamo creato". Dimostrazione con un estratto che riproponiamo su The Conversation France.
Anche se facciamo fatica ad ammetterlo, nella nostra società la tendenza è piuttosto tecnologica. Nonostante alcune resistenze espresse attraverso la richiesta di "meno tecnologia" e "più persone", la tendenza generale è che la società diventa sempre più "tecnologizzata", senza necessariamente riflettere collettivamente sulle ragioni per cui ciò avviene. E questo ci porta a questo tipo di situazione in cui rinnoviamo le macchine molto spesso e in cui calcoliamo a tutti i costi, quindi dentro generando molto inquinamento. [...]
È necessario distinguere, in questi strumenti di calcolo che sono molto costosi e che inquinano, da un lato, i calcoli che vengono effettuati con un obiettivo collettivo di progresso per la società - sia da ricercatori che da aziende che cercano di lavorare per il bene comune bene – dall’altro gli usi individuali che talvolta possono rientrare in questa moderna schiavitù.
Moda e diffusione delle foto dei gattini i social network sono molto costosi dal punto di vista ecologico, per un guadagno economico che si basa esclusivamente sugli introiti pubblicitari. Al contrario, durante la pandemia di Covid-19, i centri di calcolo hanno permesso di simulare e comprendere le modalità di diffusione della malattia, per seguire l’evoluzione delle varianti, in modo innegabilmente efficiente.
In entrambi i casi (pubblicità e ricerca sul Covid-19), tutto ciò è reso possibile dagli algoritmi diintelligenza artificielle (IA). Quindi questi sono anche questi algoritmi, il cui utilizzo critichiamo sui social network, che ci hanno permesso di uscire dalla pandemia in due anni, con un numero di vittime che, nonostante tutto, rimane limitato – dieci volte inferiore, per esempio, a quello dell'influenza spagnola degli inizi del XXe secolo. Grazie alla tecnologia siamo riusciti a controllare relativamente bene una situazione potenzialmente catastrofica. Questo è stato fatto con questi centri informatici molto inquinanti […].
Dobbiamo quindi fare la differenza tra la foto di un gattino che metteremo su Internet e tecnologie messi a disposizione nell’interesse collettivo del bene comune, per problematizzare la questione del rapporto con le tecnologie direttamente sul piano della filosofia morale e politica. Ciò dimostra ancora una volta che le tecnologie da sole non rappresentano un problema. È il rapporto che abbiamo con loro che pone un problema, in relazione alle nostre aspettative, in relazione alla conformazione ai gruppi, in relazione alla moda, e così via.
Funzionalismo
Possiamo, come abbiamo appena visto, problematizzare la questione sul piano della filosofia morale e politica, ma possiamo problematizzarla anche sul piano che possiamo qualificare come “epistemologico”, vale a dire che riguarda la solidità della nostra conoscenza. C'è una riflessione fondamentale su questo argomento da parte di un filosofo poco conosciuto di nome Jacob Klein. Egli osserva che a partire dal Rinascimento, lo sviluppo della fisica matematica sulla base dell'algebra porta le scienze a inevitabilmente puntano ai propri metodi. Scrive qualcosa del genere:
"Gli antichi non avrebbero mai preso il metodo come obiettivo."
Con ciò intende dire che l'elaborazione delle scienze moderne ha come fondamento l'idea che il metodo è uno scopo. L'idea che la modalità operativa sia l'obiettivo, in un certo senso, della ricerca. E se c’è del vero in quanto dice, è fondamentale sapersene allontanare per utilizzare la ricerca solo come mezzo per un fine diverso dalla ricerca stessa, che non è fatta per servire se stessa, ma per servire la vita sociale, il bene comune.
Ciò si traduce nella nostra vita concreta, nella vita sociale, attraverso quello che in sociologia viene chiamato funzionalismo. Il funzionalismo è un modo di affrontare le organizzazioni che identifica in modo molto convincente che un’organizzazione rischia sempre di prendersi il proprio scopo.
La grande depotenziamento
C'è un esempio notevole di ciò all'inizio del film Volo sopra il nido di un cuculo di Miloš Forman, con Jack Nicholson. La scena mostrata da Forman all'inizio del film è indicativa della difficoltà che stiamo affrontando qui. Si svolge in un momento in cui i pazienti in un ospedale psichiatrico dovrebbero riposare. E vediamo che il personale sanitario, molto subdolamente, invece di calmare i pazienti, li infastidisce. Così gli operatori sanitari tornano utili: chiamiamo perfino i barellieri per mettere Nicholson nella camicia di forza.
Ci ridiamo sopra perché è un film, ma questo è purtroppo tragicamente vero, e accade più che di frequente in tutti i contesti: invece di agevolare il funzionamento della struttura, di mettersi al servizio degli utenti, gli attori agiscono in modo tale modo da restare utili, vale a dire che il loro funzionamento si conferma nella sua attualità. In altre parole, manteniamo il problema perché noi ne siamo la risposta. E può darsi che il problema di cui stiamo discutendo abbia perso la sua rilevanza, o addirittura sia diventato obsoleto, non abbia significato, o addirittura non ne abbia mai avuto uno...
Le distorsioni del sistema di questo ordine sono un vero problema nel nostro mondo. E le tecnologie sono un ingranaggio sempre più centrale. Diventano fini a se stessi per migliorare le capacità di calcolo dei computer, dell’intelligenza artificiale, ecc., indipendentemente dall’interesse che ciò può portare all’uomo, alla società, al bene comune.
Ci troviamo quindi, ancora una volta, di fronte ad un problema fondamentalmente umano. Uno dei modi interessanti per dirlo è dire che quando ci rifugiamo nelle teorie dei sistemi, non ammettendo che esista una responsabilità degli individui e quindi presupponendo che gli esseri umani e gli individui siano annegati nei sistemi, tutti sono sollevati dalla responsabilità. , giocando di fatto il gioco di un’umanità annegata nei sistemi, in qualsiasi sistema.
Le teorie che insistono solo sull’aspetto sistemico del funzionamento contribuiscono alle nostre alienazioni, al fatto che diventiamo ingranaggi delle macchine. Diventiamo i mezzi delle macchine perché immaginiamo di essere dominati dai sistemi.
Lorenzo Bibardo, Professore di Management, titolare della Edgar Morin Chair in Complexity, ESSEC et Nicola Sabouret, insegnante di informatica, Université Paris-Saclay
Questo articolo è ripubblicato da The Conversation sotto licenza Creative Commons. Leggi ilarticolo originale.