intelligence-artificielle-3382507_640-3_web.jpg
Accueil » Actualités » Intelligence artificielle éthique : normes potentielles pour les fabricants de dispositifs médicaux
|

Intelligence artificielle éthique : normes potentielles pour les fabricants de dispositifs médicaux



Les principes éthiques émergents pourraient fournir un point de départ aux fabricants de dispositifs médicaux aux prises avec des préoccupations potentielles concernant l’IA.

Alors que l’intelligence artificielle (IA) a le potentiel de révolutionner un certain nombre d’industries, la technologie n’est pas sans controverses. Au cours des dernières années, les chercheurs et les développeurs ont fait part de leurs inquiétudes concernant les impacts potentiels de l’adoption généralisée de l’IA et comment un manque de cadres éthiques existants peut mettre les consommateurs en danger.

Ces préoccupations peuvent être particulièrement pertinentes pour les fabricants de dispositifs médicaux, qui utilisent de plus en plus l’IA dans de nouveaux dispositifs médicaux tels que les moniteurs intelligents et les appareils portables de santé. De nouvelles normes et réglementations sur l’IA éthique peuvent fournir des orientations essentielles aux fabricants de dispositifs médicaux intéressés à tirer parti de l’IA.

Défis éthiques dans les applications actuelles d’intelligence artificielle

L’utilisation généralisée de l’IA pourrait poser un certain nombre de défis éthiques. Certains de ces défis sont encore hypothétiques. Par exemple, lorsqu’une IA commet une erreur, qui est tenu responsable ? Comment éviter les erreurs pour commencer ?

Si une voiture autonome est impliquée dans un accident, les entreprises peuvent avoir du mal à déterminer quel système a causé l’accident – une panne mécanique ou une erreur commise par l’algorithme de conduite AI.

En cas d’accident du travail, les travailleurs ont généralement droit à une indemnisation de la part de leur employeur. L’utilisation de l’IA rendrait-elle le processus de détermination de la faute dans cette situation plus difficile ?

D’autres problèmes éthiques potentiels ont déjà eu des conséquences dans le monde réel. Amazon, par exemple, a abandonné un outil expérimental d’analyse de CV après avoir découvert que l’algorithme d’IA développé par l’entreprise dévalorisait les CV des femmes.

Les systèmes de santé alimentés par l’IA ont été confrontés à des problèmes similaires. Un rapport 2020 en Scientifique américain, par exemple, a noté que les algorithmes de diagnostic basés sur l’IA étaient souvent moins performants lorsqu’il s’agissait d’analyser les données de santé de groupes sous-représentés. Par exemple, l’article faisait référence à un rapport décrivant des IA destinées à aider les médecins à lire des radiographies pulmonaires qui ont fini par donner de moins bons résultats lorsqu’on leur a présenté une radiographie d’un « genre sous-représenté ». SA a également souligné un autre article, « Machine Learning and Health Care Disparities in Dermatology », qui partageait les inquiétudes concernant les conséquences potentielles des algorithmes de détection du cancer de la peau formés principalement sur des données provenant d’individus à la peau claire.

Les appareils tels que les appareils portables de santé intelligents ont le potentiel de révolutionner les soins de santé, mais si les algorithmes sur lesquels ils s’appuient sont biaisés, leur utilité peut être limitée.

Le problème réside dans les vastes ensembles de données sur lesquels l’IA s’appuie. Les algorithmes d’IA fonctionnent généralement moins bien lors de l’analyse de nouvelles données provenant de groupes sous-représentés dans les données d’entraînement. En pratique, cela signifie souvent que la formation encode les biais existants dans un nouvel algorithme. Dans le même temps, l’utilisation de l’IA peut donner à ces biais un vernis objectif, leur permettant parfois de passer inaperçus.

Normes éthiques potentielles pour l’IA

Bien qu’il n’y ait pas encore de solutions claires à bon nombre de ces problèmes, un certain nombre d’organisations d’IA sont déjà pionnières dans la création de nouvelles réglementations et normes qui peuvent aider les entreprises intéressées par le développement de l’IA.

Un grand nombre de cadres d’éthique de l’IA ont vu le jour au cours des dernières années. Un rapport de Deloitte résumait les principales tendances de ces cadres et identifiait quelques principes généraux – « la bienfaisance, la non-malfaisance, la justice et l’autonomie » – qu’ils ont tendance à souligner.

Ces cadres, et les principes sur lesquels ils se concentrent, pourraient fournir un point de départ aux fabricants d’appareils aux prises avec l’impact potentiel de l’IA dans les nouveaux appareils. Le développement de certifications et de normes réglementaires plus spécifiques peut également aider à fournir des conseils aux entreprises préoccupées par les implications éthiques de l’adoption de l’IA.

Par exemple, l’Institute of Electrical and Electronics Engineers (IEEE) a lancé le programme de certification éthique pour les systèmes autonomes et intelligents (ECPAIS) en 2018. L’objectif du programme est de développer des spécifications et un cadre de certification pour les développeurs de systèmes d’IA qui travaillent à atténuer les problèmes de transparence, de responsabilité et de biais de l’IA. En fin de compte, l’organisation espère que les certifications ECPAIS fourniront l’assurance aux utilisateurs finaux et aux consommateurs individuels que certains produits d’IA sont sûrs, et que leurs développeurs prennent des mesures actives pour gérer les défis éthiques que l’IA peut poser. Les biais dans l’IA pourraient nécessiter une élaboration plus approfondie des meilleures pratiques des développeurs et de nouvelles directives.

Les principales organisations d’IA font déjà des progrès pour comprendre comment les biais dans les ensembles de données se traduisent par des biais dans les algorithmes d’IA. Cette compréhension les a aidés à développer de nouveaux cadres pour prévenir les biais dans les nouveaux algorithmes d’IA.

La division IA de Google, par exemple, a déjà publié un ensemble de recommandations pour une utilisation responsable de l’IA. Le framework Fairness 360 d’IBM propose une « boîte à outils complète de métriques open source » qui peut aider les développeurs à découvrir des biais indésirables dans les nouveaux algorithmes d’IA.

Dans tous les cas, de meilleures méthodologies de formation et de collecte de données seront probablement nécessaires pour les fabricants de dispositifs médicaux souhaitant minimiser les biais dans les nouveaux algorithmes de soins de santé.

De nouvelles normes peuvent aider les développeurs à relever les défis éthiques de l’IA

L’utilisation croissante de l’IA signifie que les entreprises ont commencé à réfléchir sérieusement à la manière dont elles géreront les problèmes éthiques que les algorithmes d’IA peuvent poser.

Le développement de nouveaux cadres, directives et normes peut aider les entreprises à orienter le développement de nouveaux systèmes et produits d’IA. Un certain nombre d’organisations ont déjà publié les meilleures pratiques pour le développement éthique de l’IA, et les certifications en cours de développement pourraient bientôt fournir une structure supplémentaire aux entreprises.

Publications similaires