L’intelligence artificielle n’est pas neutre

28-09-2016

Robot regardant un crâne comme Hamlet de Shakespeare

L’intelligence artificielle est souvent présentée comme « neutre » ou plus « objective » qu’un humain.

La technologie et l’adjectif « intelligent » auraient tendance à nous le faire croire.

Pour autant, il n’en n’est rien et de nombreux biais et préjugés présents dans le monde réel se reportent dans ces outils.

De la mesure de la beauté par l’intelligence artificielle

Un robot est-il capable de définir la beauté humaine ? C’est la question à laquelle plusieurs scientifiques de Youth Laboratories ont tenté de répondre en organisant un concours de beauté avec pour jury, une intelligence artificielle.

Ils ont dans un premier temps, récolté 600 000 portraits sur la base du volontariat. Puis, trois algorithmes ont scanné cette base de données et sélectionné les « plus beaux » visages selon des critères paramétrés et souhaités comme étant les plus objectifs possibles : symétrie faciale, ride, âge, etc. La couleur de la peau ne faisait pas partie des critères. Pourtant parmi les 44 vainqueurs choisis par le robot, 38 étaient blancs et 6 asiatiques.

Pour Konstantin Kiselev, directeur de la technologie au Youth Laboratories, l’algorithme a probablement été biaisé par la base de données initiales. En effet, sur les 600 000 portraits, seuls 40 000 étaient indiens et 9 000 africains. Or, le programme fonctionne avec le « Deep learning » : le programme apprend au fur et à mesure pour s’adapter en fonction des données. La présence trop importante de portraits européens auraient influencé les résultats.

Les algorithmes ne sont jamais neutres

Pour Bernard Harcourt, professeur de droit et de science politique à l’université de Columbia, « ce sont les humains qui réfléchissent même quand c’est présenté comme des algorithmes qui nous font croire que c’est neutre et scientifique ».

Les préjugés du monde réel intègrent ces technologies, utilisées pour catégoriser et diffuser de la publicité ciblée, mais pas seulement. Plusieurs dérapages récents ont indiqué les conséquences que peut avoir cette technologie : 

  • Une enquête de ProPublica datant de mai 2016 a ainsi montré qu’un programme informatique dit « de maintien de l’ordre préventif », utilisé par la police aux Etats-Unis avait deux fois plus de chance de prédire à tort qu’un individu noir est un élément à risque, mais aussi, inversement, qu’un individu blanc était un « élément à faible risque », alors qu’il est dangereux
  • Une étude scientifique de l’université Carnegie Mellon a démontré que les publicités pour des emplois au salaire supérieur à 200 000 dollars/an apparaissaient plus souvent lorsque l’internaute était un homme.
  • Enfin, Tay, un bot (ou robot) lancé par Microsoft sur Twitter a été très rapidement influencé par les nombreuses questions racistes, révisionnistes ou conspirationnistes d’une poignée d’internautes pour que le programme d’intelligence artificielle les intègre de façon dispropotionnée.

Sources :

Articles similaires :