Nous avons déjà à quelques reprises abordé certains aspects de l’IA touchant les algorithmes de profilage, la mécanisation des tâches. Ce qui retient cette fois notre attention est plus particulièrement lié aux possibilités de biais dans les algorithmes et plus spécifiquement à la possibilité de les éviter. La Maison Blanche y fait référence dans le rapport précédemment cité et recommande, entre autre, que les universités offrant des formations en IA intègrent au cursus des cours portant sur l’éthique et la sécurité. C’est qu’il a été démontré que les algorithmes répètent les biais des humains qui les ont créés. Ces biais ne sont pas nécessairement volontairement intégrés aux datas, mais entraînent néanmoins des résultats biaisés. Des occurrences ont été notées notamment sur un système utilisé par les forces de l’ordre américaines utilisant l’IA pour prédire les possibilités de récidive de criminels. L’algorithme amplifiait un biais raciste, augmentant de manière significative les possibilités de récidives des personnes non blanches.
Pour éviter ce type de dérives, les chercheurs proposent d’introduire un algorithme « normalisant » qui pourrait permettre de neutraliser les biais dès que la machine les détecte.
Mais des questions demeurent. Comment faire pour repérer les biais qui doivent être neutralisés? Sur quelle base juge-t-on qu’il s’agit de biais? N’introduirait-on pas un autre biais en voulant éviter le premier? Les chercheurs croient qu’en multipliant les expériences et l’information fournies à la machine, celle-ci, puisant dans des data plus vastes, en viendrait à éviter les biais. Cependant, comment pourra-t-on éviter, même avec les meilleures intentions, qu’une machine introduise d’elle-même des biais, si ce qui lui est demandé est de « réfléchir » à la manière des humains?
Évidemment, beaucoup de recherche doit encore être faite. Mais cette prise de conscience de biais, qu’ils soient introduits volontairement ou involontairement, ainsi que des conséquences qu’ils peuvent induire, demande à ce que l’utilisation de l’IA dans des contextes où une neutralité complète est souhaitée, porte à réfléchir.