intelligence-artificielle-4736369_640_web.jpg
Accueil » Actualités » Des données de qualité sont essentielles pour éviter les défaillances des logiciels d’IA

Des données de qualité sont essentielles pour éviter les défaillances des logiciels d’IA



Lors du prochain événement virtuel MD&M BIOMEDigital, Pat Baird, spécialiste principal de la réglementation et responsable des normes logicielles mondiales chez Philips, partagera certaines manières spécifiques dont les mauvaises données peuvent avoir un impact sur les résultats de l’IA.

Contrairement aux logiciels traditionnels qui utilisent un algorithme conçu par un programmeur pour exécuter une fonction spécifique, les décisions logicielles d’IA peuvent être imprévisibles, a déclaré Pat Baird, spécialiste principal de la réglementation et responsable des normes logicielles mondiales chez Philips, dans une interview avec MD+DI. « Pour ces systèmes d’apprentissage automatique, le programmeur ne dit pas au logiciel comment résoudre le problème », a-t-il expliqué. « Le programmeur développe un logiciel qui trouve des modèles dans les données. Le programmeur ne sait vraiment pas pourquoi le logiciel a pris une décision, il sait juste qu’il a mis en place un moteur qui calcule un tas de choses.

La clé pour éviter les problèmes potentiels avec les logiciels d’IA est d’obtenir de bonnes données pour commencer, a déclaré Baird. À l’instar des logiciels traditionnels, « c’est des ordures qui entrent, des ordures qui sortent », a-t-il déclaré. « Ce qui va se passer, c’est que vous avez des déchets dans vos données, et comme vous ne savez pas comment fonctionne le logiciel, cela va être un problème. »

Dans un exemple réel de la façon dont de mauvaises données peuvent donner des résultats inexacts, il a raconté comment lui et sa femme ont entrepris une aventure tout-terrain dans une Jeep, et bien qu’ils soient dans la Jeep pendant la majeure partie de la journée, sa femme est portable enregistré plus de 20 000 pas ce soir-là. « C’était à cause de tous les nids-de-poule et de tout ce que nous avons été jetés dans la Jeep », a déclaré Baird.

Dans sa prochaine présentation MD&M BIOMEDigital, « Intelligence artificielle et gestion des risques : nouvelles façons d’échouer », Baird parlera de certaines manières spécifiques dont de mauvaises données peuvent affecter les résultats. L’un d’eux est le biais. Par exemple, il a mentionné qu’un certain logiciel a été conçu pour détecter le cancer du sein à un stade précoce. Il a été formé à l’aide de données provenant de personnes d’une même ethnie. Cependant, les femmes d’autres ethnies ayant une densité de tissu mammaire différente, le logiciel ne fonctionnait pas aussi bien pour elles.

« Mais, en tant que programmeur, aurais-je su qu’il y avait une différence dans la densité des tissus ? » demanda Baird. Il a souligné qu’outre des quantités massives de données, les programmeurs ont besoin du contexte et des connaissances des professionnels cliniques pour développer le logiciel.

« Le surapprentissage est l’endroit où il y a une tonne de données, mais le logiciel détecte des modèles qui ne sont pas vraiment les modèles que vous recherchez », a déclaré Baird. Il a cité un exemple de logiciel de reconnaissance d’images dont le but était de pouvoir faire la différence entre un chien Husky d’Alaska et un loup. Il a dit que les données fonctionnaient bien, mais qu’elles reprenaient des indices de fond, plutôt que ceux que le programmeur avait prévus.

« Ce qui s’est réellement passé », a déclaré Baird, « c’est que la plupart des photos que les gens avaient de leur chien ont été prises pendant l’été ou l’automne dans leur jardin, alors que les photos des loups ont été prises pendant l’hiver dans la nature. Le logiciel qui avait l’air génial pour détecter la différence entre le Husky d’Alaska et le loup détectait en fait s’il y avait ou non de la neige sur le sol.

Un autre sujet que Baird expliquera est le sous-apprentissage, où il n’y a tout simplement pas assez de données. « Donc, vous prenez la décision, mais elle est basée sur le bruit », a-t-il déclaré. « Ce n’est basé sur rien de réel. »

La confiance excessive, c’est lorsque les gens croient aveuglément à la technologie ou à l’infaillibilité de leurs médecins, a déclaré Baird. Il a expliqué comment les gens peuvent être sensibles aux programmes malveillants. Ces schémas utilisent une fenêtre contextuelle sur l’ordinateur qui indique que l’utilisateur est vulnérable aux logiciels malveillants et invite à installer le logiciel. Parce qu’ils font entièrement confiance à la technologie, les utilisateurs cliquent sur la fenêtre contextuelle, qui installe alors le virus.

Un autre domaine à considérer est le niveau d’autonomie, a déclaré Baird. « Le logiciel vous donne-t-il simplement des indications routières ou est-ce que cette voiture autonome fait la conduite à votre place ? Quelle part de responsabilité lui donnons-nous ?

Les entreprises savent déjà faire beaucoup en termes de contrôle qualité, a déclaré Baird, et elles peuvent appliquer ces connaissances aux données des logiciels d’IA. Il a rappelé qu’à l’époque où il était conducteur de chariot élévateur pour un fabricant de bouteilles en plastique, il déchargeait le camion de plastique brut dans une section de quarantaine pour que les personnes chargées de l’assurance qualité puissent le tester avant qu’il ne passe sur la chaîne de fabrication. « Et nous n’avons pas obtenu les perles en plastique de n’importe qui », a déclaré Baird, notant qu’elles provenaient d’un fournisseur qualifié. « Et donc, pour moi, c’est comme si nous ne pouvions pas utiliser d’anciennes données », a-t-il expliqué. « Nous voulons obtenir des données d’un fournisseur qualifié. Nous voulons savoir ce qu’il faut tester dans les données avant de pouvoir les utiliser.

« Nous n’y avons tout simplement pas pensé pour les données et les logiciels, mais le service d’expédition et de réception de votre entreprise a déjà ces contrôles en place. Alors, allons apprendre d’eux », a-t-il conclu. « Il y a quelques différences mais ce n’est pas aussi étrange et différent que vous le pensez. »

Baird présentera « Intelligence artificielle et gestion des risques : nouvelles façons d’échouer », de 15 h 00 à 16 h 00 le 6 avril 2021.

Publications similaires