Prakhar Ganesh est étudiant à l'université nationale de Singapour, spécialiste de questions d'équité et de confidentialité dans les technologies d'apprentissage automatique. à l'automne 2022, il a mobilisé cette expertise pour remporter un concours un peu particulier. Organisée par un groupe de bénévoles appelé Bias Buccaneers, la compétition consistait à développer un algorithme capable d'indiquer correctement la couleur de peau de 15 000 visages générés artificiellement, d'évaluer leur tranche d'age et leur genre. Mais les modèles n'étaient pas jugés sur le seul taux de bonnes réponses. Ils devaient aussi afficher des performances équivalentes sur des visages à peau sombre ou claire, masculins ou féminins, jeunes ou vieux. Et face à une image sans visage, si le modèle indiquait une couleur de peau, celle-ci devait s'avérer aléatoire, aucune ne devait prédominer dans les prédictions. ? Ces critères ont été choisis en raison du fait que certaines catégories de personnes patissent du manque d'efficacité de modèles d'apprentissage automatique de ce genre ?, explique Prakhar Ganesh. C'était tout l'objet du concours. Qualifié de ? bias bounty ?, sur le modèle des programmes de récompenses ? bug bounty ? (prime au bug) dédiés à la recherche de failles de sécurité informatique, il poussait les développeurs à se préoccuper des possibles biais de leurs outils.
展开▼