L’IA, d’un point de vue légal…

Si l’intelligence artificielle est appelée à changer le monde des affaires, elle crée aussi nombre de situations auxquelles nous ne sommes pas préparés. Par exemple, si la sélection de CV de candidats est faite grâce à un algorithme, comment faire en sorte que celui-ci n’ait pas de biais discriminatoires ? Tour d’horizon.

Le débat fait rage en ce moment sur la manière de gérer l’arrivée soudaine d’applications nées de l’apprentissage automatique qui prennent des décisions sans intervention humaine. « On a vu les biais observés dans les systèmes d’association d’images de Google, dans les algorithmes plus anciens comme COMPAS -l’algorithme mis en œuvre aux États-Unis et censé évaluer le risque de récidive des accusés au criminel- qui est extrêmement défavorable pour les minorités raciales », énumère la professeure d’informatique à l’UQAM, Marie-Jean Meurs. 

« Le cadre légal en frais de biais algorithmiques n’est pas forcément inadapté, mais le problème est dans son usage », affirme la professeure. Elle déplore que les juristes n’utilisent pas nécessairement les réglementations en vigueur puisqu’ils ne font souvent pas le lien entre les problématiques d’intelligence artificielle et les outils légaux dont ils disposent. 

Mme Meurs soutient toutefois que de nombreux travaux législatifs sont en cours, mentionnant à titre d’exemple la nouvelle Directive sur la prise de décision automatisée à laquelle toutes les institutions fédérales devront se conformer d’ici avril 2020, qui introduit l’obligation de réaliser une étude d’impact avant d’utiliser un système d’apprentissage automatisé.

Des biais difficiles à éviter
Les biais algorithmiques peuvent être introduits dans le groupe d’apprentissage (les variables qu’on donne à un algorithme pour qu’il « apprenne » les relations entre elles) ou dans le postulat (l’hypothèse de départ), et ils peuvent écarter des candidatures de femmes ou de personnes issues des minorités visibles, par exemple. 

« [Pour contrer ces dérapages], il faut être conscient de ses préjugés, de ses biais, raconte Mme Meurs. Les grandes entreprises ont les moyens d’avoir des groupes d’apprentissage très diversifiés et d’embaucher des gens pour réfléchir à la composition de ces ensembles d’apprentissages. Espérons que ça aille mieux dans les prochaines années. »

Finalement, Marie-Jean Meurs donne deux points sur lesquels les entreprises qui inventent des algorithmes devraient se concentrer : la transparence, qui consiste surtout à avouer les limites de son algorithme, ainsi que la diversification des membres des équipes de travail. 

« Il y a une responsabilité des concepteurs. Les institutions se reposent sur des discours de spécialistes qui sont beaucoup trop marketing. La moindre des choses, c’est qu’il faut dire à la population qu’on fait des choses très bien, mais qu’on se trompe parfois et il faut rester en contrôle », conclut la chercheure.

Articles récents par
Commentaires

Réseau d'emplois Jobs.ca