di Sara Gandini e Paolo Bartolini

Nella ricerca scientifica oramai da anni è entrata la cosiddetta intelligenza artificiale (AI). La potenza di calcolo dei computer ora permette di elaborare grandi quantità di dati che fino a poco tempo fa non era pensabile di analizzare. Ad esempio noi li usiamo per analizzare i dati del microbioma intestinale in relazione con la dieta e gli effetti collaterali delle terapie oncologiche o le immagini diagnostiche per aiutare i medici nelle diagnosi tumorali. Usiamo tecniche che si chiamano machine learning (letteralmente “macchine che imparano”), che rappresentano una branca dell’intelligenza artificiale che riguarda l’implementazione di algoritmi per fare previsioni in modo automatico.

Pensiamo all’algoritmo di Google che si basa su un auto-aggiornamento che permette di incrementare le proprie informazioni migliorando nel tempo la capacità di fare ricerche in modo sempre più mirato e preciso. È indubbio che siano strumenti utili, ma i rischi che intravediamo sono vari.

Se si parla così tanto dell’AI in questo momento è perché attira enormi capitali in ogni ambito. Dagli psicologi ai biologi, tutti si buttano su queste tecnologie, e la tentazione che possano sostituire attività umane di pensiero e relazionali è molto forte. Prima di tutto dobbiamo ricordarci che per usare questi strumenti la realtà deve essere stata trasformata, preventivamente, in una congerie di dati binari. Ogni informazione deve essere codificabile, e le persone, le malattie, le cure, tutto quello che accade nella relazione tra medico e paziente, tutto deve essere riducibile a un dato bidimensionale. Solo così potrà essere analizzato, riducendo alcuni imprevisti imputabili a quanto, nell’umano, eccede questa logica lineare (la soggettività, l’inconscio, l’eros, la magia delle relazioni, i desideri).