IBM arrête de travailler sur la reconnaissance faciale par crainte d’abus raciaux



Dans une lettre adressée aux membres du Congrès américain, lundi 8 juin, le PDG d’IBM, Arvind Krishna a déclaré l’abandon de son activité de reconnaissance faciale « à des fins générales ». L’entreprise « s’oppose fermement » à l’utilisation de la technologie pour la surveillance de masse, le profilage racial et les « violations des droits et libertés fondamentaux de la personne ».

Un débat national nécessaire

« IBM s’oppose fermement à l’utilisation de toute technologie, y compris la reconnaissance faciale offerte par d’autres fournisseurs, pour la surveillance de masse, le profilage racial, les violations des droits et libertés fondamentaux des personnes, ou tout autre motif qui n’est pas conforme à nos valeurs et principes de confiance et de transparence », écrit Arvind Krishna aux membres du Congrès. « Nous croyons que le moment est venu d’entamer un dialogue national. »

Arvind Krishna a précisé que ce « dialogue national » devait avoir lieu non seulement sur la manière dont la reconnaissance faciale devrait être utilisée, mais aussi plus généralement sur sa nécessité ou non. Il a tout de même soutenu que cette intelligence artificielle était un « outil puissant » pour faire appliquer la loi, mais a insisté sur la nécessité de contrôle.

Même si la reconnaissance faciale n’est pas au centre des manifestations anti-violences policières, la lettre d’IBM s’inscrit dans un appel plus large au Congrès. Un appel qui vise à faire pression en faveur d’une plus grande responsabilisation de la police et de réformes de la conduite, y compris certaines qui font déjà partie de la Justice in Policing Act de 2020, récemment adoptée.

Actu à voir aussi ...  le top pour s'amuser dans la baignoire

Éviter les biais racistes et massifs

En parallèle, la missive répond aussi à un rapport démontrant que les systèmes de reconnaissance faciale peuvent être un vecteur de biais raciaux. Les non-Blancs et les femmes sont particulièrement touchés puisque les bases de données sont sous-représentatives de ces groupes sociaux. De surcroît, cette technologie pourrait servir au profilage de certaines personnes pour les intimider ou restreindre leurs libertés. En France, la technologie fait aussi débat. La Commission nationale de l’informatique et des libertés a, elle aussi, demandé à l’encadrer strictement et urgemment

Sources : Axios & CNBC





Source link