Tuttavia secondo uno studio la vera sfida non è più lo sviluppo delle tecnologie, ma la loro validazione nel contesto reale in cui verranno utilizzate.
Non basta infatti che un algoritmo funzioni correttamente nel luogo in cui è stato sviluppato: per essere davvero sicuro, deve dimostrare di mantenere la stessa efficacia nel sistema sanitario, nella popolazione e con le apparecchiature del clinico che lo adotta.
Lo studio sottolinea un concetto chiave: l’AI non è un sistema statico. Le sue prestazioni possono variare sensibilmente a seconda di:
- caratteristiche demografiche e cliniche della popolazione;
- protocolli diagnostici adottati;
- apparecchiature radiologiche utilizzate;
- workflow e modalità operative dello studio.
Sono già documentati casi in cui algoritmi per la rilevazione della carie o per l’analisi cefalometrica hanno perso precisione quando applicati a nuove popolazioni o dispositivi, dimostrando come un buon risultato ottenuto “altrove” non garantisca automaticamente un’adeguata performance nel proprio ambiente clinico.
Il documento mette in guardia sui potenziali rischi legati a un uso “generalizzato” dell’AI senza un controllo adeguato:
- algoritmi che sovra o sotto-diagnosticano patologie in gruppi specifici;
- errori dovuti a immagini acquisite con apparecchiature non presenti nel set di addestramento;
- valutazioni errate legate a differenze scheletriche o etniche della popolazione;
- possibili disuguaglianze nell’accesso o nella qualità delle cure, amplificate dall’uso indiscriminato di sistemi non calibrati.
In altri settori della medicina sono già stati registrati casi di bias sistemici causati proprio da mancate validazioni locali.
Secondo l’autore, ogni organizzazione – dallo studio privato al grande sistema sanitario – dovrebbe adottare un modello di validazione che includa:
- Definizione dello scopo clinico (es. rilevazione carie, bone loss, pianificazione implantare).
- Creazione di un dataset locale, con immagini realmente rappresentative del proprio contesto.
- Confronto tra AI e clinici per stabilire un “ground truth”.
- Analisi delle prestazioni per sottogruppi, per identificare eventuali bias.
- Condivisione trasparente dei risultati all’interno della comunità professionale.
Lo studio cita anche iniziative come il progetto VALID del Dipartimento VA negli USA, che utilizza radiografie reali per valutare l’efficacia di software AI approvati dalla FDA, dimostrando come una validazione interna sia non solo possibile, ma altamente utile.
Il contesto normativo sta rapidamente evolvendo.
- Il Final EU AI Act (2025) classifica i sistemi AI sanitari come tecnologie “alto rischio”, imponendo maggiore trasparenza e monitoraggio post-market.
- La FDA (USA) richiede che ogni software AI/ML fornisca prove della sua applicabilità nel mondo reale, non solo nei test di sviluppo.
Questo significa che la validazione locale non è più solo una buona pratica, ma un requisito emergente.
Un ulteriore tema emerso nello studio riguarda la formazione. Le ricerche citate mostrano che la conoscenza dell’AI tra dentisti e studenti è ancora limitata, con punteggi medi di competenza attorno al 60–70%.
Per un uso responsabile delle nuove tecnologie serve un cambiamento culturale che includa:
- comprensione dei principi di bias e generalizzabilità;
- capacità di interpretare i risultati della validazione locale;
- competenze critiche nell’uso clinico dell’AI.
Lo studio afferma con forza che l’AI cambierà profondamente la professione odontoiatrica, ma che l’innovazione, da sola, non è sufficiente.
Senza una validazione indipendente e contestualizzata, nessun sistema può garantire sicurezza, equità e precisione.
La regola da adottare, secondo l’autore, è chiara: ogni organizzazione che utilizza un sistema di AI deve richiedere la propria validazione locale, prima dell’adozione clinica.
Solo così l’odontoiatria potrà integrare l’Intelligenza Artificiale in modo etico, sostenibile e realmente utile per i pazienti.