17/11/2025

Come orientare l’uso clinico dell’IA

Fonte: Il Telespettarore periodico dell’associazione aiart

Fonte: Il Telespettarore periodico dell’associazione aiart
Il Telespettatore 7-10 luglio/ottobre 2025
Articolo di Tonino Cantelmi

Di fronte all’ingresso capillare dell’intelligenza artificiale nella sanità, la questione decisiva è come preservare e rafforzare la relazione medico-paziente. L’innovazione non è un semplice aggiornamento tecnico: modifica l’epistemologia della medicina e il modo in cui si prendono decisioni, si comunica l’incertezza, si distribuiscono responsabilità. È dunque una trasformazione che investe etica, diritto, antropologia della cura e organizzazione dei servizi, molto oltre l’efficienza dei processi.

Oggi sistemi di analisi per immagini, modelli predittivi, robotica chirurgica, monitoraggio remoto e triage automatizzato sono già operativi. Hanno accresciuto l’accuratezza e la tempestività, ma hanno anche spostato il baricentro della decisione: il medico riceve output probabilistici che richiedono interpretazione critica e mediazione comunicativa, mentre il paziente deve essere accompagnato a comprendere che cosa significhi una previsione di rischio e come tradurla in scelte pratiche. Il dibattito oscilla fra potenzialità e timori: alle promesse di precisione e personalizzazione si affiancano l’opacità delle “scatole nere”, i bias nei dati, la difficoltà di spiegare gli esiti, il rischio di delega acritica e l’erosione della fiducia.

Per orientare l’uso clinico dell’intelligenza artificiale occorre distinguere tra IA “debole”, effettivamente in uso, e ipotesi di IA “forte”, ancora teorica. La prima pone sfide concrete e immediate: validazione clinica, verifiche indipendenti, trasparenza, standard di qualità dei dati, tracciabilità delle decisioni e catena di responsabilità chiara. Senza queste garanzie, si moltiplicano i vuoti di responsabilità, si indebolisce il consenso informato, si ampliano disuguaglianze preesistenti, soprattutto quando i dataset non rappresentano adeguatamente popolazioni e contesti. Di qui la necessità di una governance etica che incorpori i principi classici della bioetica – autonomia, beneficenza, non maleficenza e giustizia – in un ecosistema digitale in rapida evoluzione.

Gli “agenti artificiali” introducono ulteriori opportunità e rischi. Se ben progettati e regolati, possono sostenere prevenzione personalizzata, ottimizzare percorsi e alleggerire il carico cognitivo dei professionisti. Ma il “soluzionismo tecnologico” semplifica la complessità della cura e può disintermediare la relazione, specie quando l’interazione è mediata da sistemi opachi o interfacce conversazionali che simulano empatia. Per questo occorrono criteri di proporzionalità e valutazioni di impatto ex ante: non ogni problema clinico richiede una soluzione tecnologica, e non ogni soluzione tecnologica migliora la qualità umana della cura.

Scarica tutto l’articolo