© iStock/ gorodenkoff
Cet article examine comment l’intelligence artificielle peut à la fois autonomiser et désavantager les personnes handicapées dans l’emploi. Il met en lumière les efforts de l’ILO Global Business and Disability Network pour promouvoir une IA responsable et inclusive, qui améliore l’accessibilité tout en prévenant les biais et la discrimination sur le lieu de travail.
L’utilisation de l’intelligence artificielle (IA) par les personnes handicapées — par exemple les technologies de synthèse vocale ou le sous-titrage en temps réel — tend à avoir des effets positifs. En revanche, l’utilisation institutionnelle de technologies de gestion des ressources humaines basées sur l’IA — telles que les systèmes filtrant les personnes ayant des visages ou des schémas de parole «non standard» — a souvent pour effet de désavantager et d’exclure les chercheurs d’emploi et les travailleurs handicapés. Pour contribuer à la création de marchés du travail plus équitables et plus efficaces, les concepteurs d’IA et les acheteurs d’outils de recrutement propulsés par l’IA doivent s’attaquer à la discrimination fondée sur le handicap et à ses effets sur le vivier de talents, la main-d’œuvre et la clientèle des organisations. La réglementation de l’IA doit combler le déficit actuel en matière d’égalité pour les personnes handicapées et garantir que ces outils soient appliqués de manière non discriminatoire avant d’atteindre les utilisateurs, y compris les départements des ressources humaines des employeurs et les consommateurs handicapés.
L’emploi des personnes handicapées dans l’économie numérique mondiale
On estime que 1,3 milliard de personnes dans le monde vivent avec un handicap, la majorité étant en âge de travailler. Cependant, sept personnes handicapées sur dix sont en dehors de la population active, contre quatre sur dix parmi les personnes non handicapées. Les dimensions intersectionnelles, comme le genre, peuvent aggraver encore les désavantages rencontrés par les personnes handicapées, y compris sur le marché du travail.¹
L’essor de l’économie numérique offre des possibilités de réduire cet écart d’emploi. Promouvoir l’accessibilité des plateformes et des outils numériques, ainsi que la formation aux compétences numériques inclusives, est essentiel dans cette démarche. Dans le même temps, l’utilisation de l’IA ne se limite pas à l’économie numérique et présente à la fois des opportunités et des obstacles pour les personnes handicapées à la recherche d’un emploi, celles déjà en poste et celles qui deviendront handicapées au cours de leur vie professionnelle.²
L’IA comme moteur d’accessibilité au travail
L’IA fait passer les technologies d’assistance à un niveau supérieur en améliorant leur fonctionnalité et leur personnalisation. Pour les personnes ayant une déficience auditive, de la parole ou visuelle, les outils alimentés par l’IA — tels que le sous-titrage en temps réel, la reconnaissance vocale ou l’interprétation en langue des signes — peuvent ouvrir des canaux de communication autrement inaccessibles.³
Pour les personnes ayant une déficience cognitive, l’IA générative peut servir d’appui essentiel, en résumant des informations complexes et en divisant de grandes tâches en étapes plus simples et gérables afin d’aider à l’organisation et à la gestion du temps.⁴
L’IA a également le potentiel d’atténuer les préjugés humains inconscients dans les processus de recrutement. En formant les systèmes à se concentrer exclusivement sur les compétences et les qualifications, les entreprises peuvent réduire les biais humains liés au handicap lors de la présélection. Certains outils d’IA peuvent anonymiser les informations des candidats afin de garantir que les évaluations reposent uniquement sur les critères liés à l’emploi. Les entreprises qui utilisent des outils conçus de manière intentionnelle pour promouvoir une IA inclusive et non discriminatoire dans le recrutement peuvent en outre bénéficier d’un avantage concurrentiel en accédant à un vivier de talents plus large.
Les risques: biais, opacité et nouvelles barrières
L’IA présente des risques considérables lorsqu’elle est déployée sans supervision rigoureuse. Elle peut perpétuer des biais historiques et créer de nouvelles formes d’exclusion, avec des conséquences juridiques et éthiques importantes.⁵
Les systèmes d’IA entraînés sur des données historiques de recrutement risquent de reproduire et d’amplifier les schémas existants d’exclusion et de traitement inéquitable. Étant donné le taux élevé de chômage parmi les personnes handicapées, il est probable que les ensembles de données utilisés pour former ces systèmes sous-représentent cette population, renforçant ainsi les biais à leur encontre. De plus, l’IA peut introduire de nouvelles formes de discrimination fondée sur le handicap.⁶⁷
Une étude récente a révélé que les filtres de CV basés sur l’IA classaient plus bas les candidatures mentionnant des distinctions liées au handicap par rapport à des CV identiques n’incluant pas ces informations.⁸
De même, les outils vidéo alimentés par l’IA qui mesurent les signaux non verbaux — tels que le contact visuel ou la cadence vocale — peuvent discriminer les candidats atteints de paralysie faciale, de perte auditive ou de neurodivergence, en interprétant ces comportements comme des signes de désengagement ou d’incapacité.⁹
Les réglementations relatives à l’IA, telles que la EU AI Act, ont commencé à exiger des normes d’accessibilité pour les systèmes considérés «à haut risque». La EU AI Act reconnaît le risque de discrimination envers les personnes handicapées et met en évidence les dangers liés à l’utilisation de l’IA dans le recrutement et l’évaluation des performances. Dans ce dernier domaine, les systèmes de suivi alimentés par l’IA peuvent imposer des horaires rigides, désavantageant les travailleurs nécessitant de la flexibilité ou des aménagements, notamment en raison de leur handicap.¹⁰
Vers un cadre pour une IA responsable et inclusive du handicap
L’ILO Global Business and Disability Network (GBDN) a commencé à aborder l’impact de l’IA sur l’emploi des personnes handicapées dès 2019. Les sessions organisées lors de ses conférences mondiales récentes — 2024 («Inclusiveness in a digital economy: Avatars, accessibility, and Artificial Intelligence») et 2023 (« Artificial Intelligence and the future of technologies: Impact and opportunities ») —, ainsi que ses événements virtuels tels que «How do you lip-read a robot? AI-powered HR technology has a disability problem», visent à sensibiliser aux promesses et aux risques de l’IA, tant pour les employeurs que pour les personnes handicapées.¹¹
En partenariat avec des initiatives telles que «Disability Ethical? AI» et la «Equitable AI Alliance», l’ILO Global Business and Disability Network œuvre à transformer l’approche juridique, éthique et culturelle des entreprises concernant l’utilisation de l’IA dans le recrutement et l’emploi des personnes handicapées. Les principales recommandations incluent:
- Donner la priorité à une conception et un développement éthiques et non discriminatoires : les développeurs d’IA doivent impliquer activement des personnes présentant divers handicaps, leurs organisations représentatives et des experts en accessibilité tout au long du cycle de conception, de développement et de test. Cela permettrait de garantir que les outils soient intrinsèquement impartiaux, accessibles et qu’ils évaluent correctement le potentiel des candidats.¹²
- Mettre en œuvre un déploiement et une gouvernance responsables: l’IA doit compléter, et non remplacer, la prise de décision humaine. Les employeurs doivent assurer une supervision et un contrôle humains significatifs de toutes les décisions liées à l’emploi générées par l’IA, y compris celles qui concernent les personnes handicapées. Des mécanismes clairs de responsabilité doivent être établis pour évaluer les performances des systèmes d’IA et tout résultat discriminatoire éventuel.
- Favoriser une culture inclusive: les entreprises doivent intégrer les considérations éthiques relatives à l’IA dans leurs stratégies plus larges d’inclusion du handicap. Cela comprend la formation des professionnels des ressources humaines et des gestionnaires à l’utilisation éthique de l’IA, ainsi que la promotion de la littératie numérique chez les travailleurs handicapés.
- Renforcer les lois et politiques publiques liées à l’IA: la réglementation doit s’attaquer aux biais et aux obstacles existants lorsque ces systèmes sont utilisés pour évaluer les personnes handicapées, notamment dans le recrutement et l’emploi. L’accessibilité et l’inclusion doivent être au cœur du développement de ces outils, afin que les employeurs — en tant qu’acheteurs — n’encourent pas le risque d’engager des pratiques discriminatoires fondées sur le handicap.
Notes (citations originales en anglais)
1. ILO: Disability Labour Market Indicators (DLMI database)
2. ILO, 2021: An inclusive digital economy for people with disabilities
3. Digital Learning Institute: Revolutionising Accessibility: The Role of AI in Assistive Technology
6. Warden AI, 2025: Disability Bias in AI: How and Why to Audit
9. Bloomberg Law, 2025: AI Hiring Tools Elevate Bias Danger for Autistic Job Applicants
10. EU Artificial Intelligence Act
11. The ILO Global Business and Disability Network brings together more than 40 multinational enterprises, more than 45 National Business and Disability Networks, and 7 non-business members like the International Disability Alliance (IDA).
12. Nordic Welfare Center, 2025: AI for all – inclusive technology is a collective responsibility
