Entre biais algorithmiques, reconnaissance faciale et manipulations
L’avènement rapide de l’intelligence artificielle dans notre quotidien suscite un enthousiasme considérable, promettant des avancées significatives dans divers domaines. Cependant, derrière cette révolution technologique se cachent des défis éthiques cruciaux qui méritent une attention soutenue. De la déformation des représentations sociales par les biais algorithmiques aux inquiétudes liées à la reconnaissance faciale discriminatoire, en passant par la montée des deepfakes et leur potentiel de manipulation de l’information, cet article se penchera sur les risques sociaux liés à l’utilisation croissante de l’intelligence artificielle.
Biais algorithmiques dans les générateurs d’images
Les récentes percées dans le domaine des intelligences artificielles (IA), en particulier les générateurs d’images, ont suscité un enthousiasme généralisé. Cependant, derrière la façade de neutralité de ces outils se cachent des biais algorithmiques susceptibles d’exercer une influence significative sur notre perception sociale.
Un exemple révélateur de cette problématique émerge avec la campagne de Heetch, une entreprise de VTC française, intitulée « Greetings from la banlieue ». Cette campagne dénonce les clichés sur les banlieues propagés par l’IA de Midjourney. En effet, lorsqu’il est confronté au terme « banlieue », l’algorithme de génération d’images produit des représentations déformées de la réalité. Celles-ci sont souvent imprégnées de stéréotypes négatifs. Cette situation met en lumière un enjeu plus vaste. En effet, les biais algorithmiques dans les IA peuvent influencer notre perception des groupes sociaux. Et cela contribue ainsi au renforcement des préjugés.
Face à ces défis, il est impératif d’adopter une approche plus critique dans le développement et l’utilisation des intelligences artificielles. Des entreprises telles que Heetch montrent la voie en mettant en lumière ces problèmes et en recherchant des solutions créatives.
Reconnaissance faciale source de discrimination
L’émergence de l’intelligence artificielle a été accompagnée par l’utilisation croissante de la reconnaissance faciale. Ces deux technologies mises ensemble peuvent poser des problèmes de discrimination. Joy Buolamwini, chercheuse américano-ghannéene, a révélé des lacunes inquiétantes dans certains logiciels. Elle a démontré que certains algorithmes avaient des difficultés à identifier des visages féminins et des peaux foncées.
L’origine de ces problèmes réside probablement dans le processus d’apprentissage des algorithmes sur des bases de données insuffisamment diversifiées. Si ces ensembles de données ne reflètent pas adéquatement la diversité humaine, notamment en termes de femmes noires, la machine risque d’être mal entraînée. Cette révélation souligne les préoccupations éthiques entourant l’utilisation croissante de l’intelligence artificielle dans la société.
En 2017, la Commission nationale de l’informatique et des libertés (CNIL) avait déjà mis en garde les programmeurs sur le risque que l’intelligence artificielle ne reflète, voire n’amplifie, les discriminations existantes dans notre société.
Biais algorithmique et risques pour l’emploi
Actuellement, les chercheurs soulignent que les risques de discrimination constituent l’une des principales vulnérabilités de l’intelligence artificielle. Les algorithmes d’IA ont tendance à figer des stéréotypes racistes ou sexistes. Cela a été illustré de manière frappante par l’ancien algorithme de recrutement d’Amazon. Des analystes ont découvert que le programme, basé sur un système de notation automatisé, pénalisait les candidatures comportant des références aux femmes. Ces biais discriminatoires présents dans les systèmes d’intelligence artificielle trouvent leur origine principalement dans les ensembles de données sur lesquels ces IA sont formées notamment des bases de données de CV d’anciens candidats majoritairement masculins.
On peut distinguer deux catégories de biais dans l’IA : les biais algorithmiques et les biais sociétaux. Dans le premier cas, les IA sont formées sur des données biaisées. Et notamment les données biaisées par l’IA elle-même. Si l’IA s’alimente d’un contenu qu’elle produit, on risque d’avoir une amplification des biais. Dans le second cas, les biais sociétaux sont enracinés dans des préjugés et des stéréotypes ancrés dans l’inconscient collectif. Cela rend difficile leur détection et donc leur correction.
Deep fake et manipulation de l’information
À mesure que les géants d’internet renforcent leur emprise sur nos vies numériques et réelles, les progrès de l’intelligence artificielle exacerbent cette domination, souvent au service d’idéologies politiques ou de lobby. Les deepfakes résultent de l’utilisation d’algorithmes sophistiqués tels que les Generative Adversarial Networks (GAN). Ces outils permettent la manipulation de vidéos, d’images, et même la génération de fausses informations extrêmement réalistes.
Face à ces dangers croissants, les grandes entreprises technologiques tentent de contrer les deepfakes en utilisant elles-mêmes l’IA. La CNIL a exprimé son intention de créer un cadre législatif et réglementaire pour encadrer la reconnaissance faciale.
En conclusion, l’émergence de l’intelligence artificielle soulève des questions cruciales sur la préservation de la vérité, de la vie privée et la lutte contre les discriminations de tous genre. Alors que les technologies continuent de progresser, il devient impératif de développer des réglementations robustes et des mécanismes de contrôle pour minimiser les risques inhérents à ces outils. L’avenir de l’IA dépendra de notre capacité à équilibrer les avantages potentiels avec la protection contre les abus, assurant ainsi un avenir numérique plus sûr et éthique pour tous.
Retrouvez nos articles sur notre série consacrée à l’IA (intelligence artificielle) :
Qu’attendre de l’IA pour la DSI en 2024 ?
Atlassian Intelligence, les fonctionnalités