Passer au contenu principal

GenAI pour le développement de symboles AAC : reconnaître les biais

EA Draffan

GenAI pour le développement de symboles AAC : reconnaître les biais

L'Intelligence Artificielle Générative, comme les outils basés sur des modèles tels que DALL-E, Stable Diffusion et Flux, peut créer des images à partir de descriptions textuelles. Pour la CAA, cela signifie taper une invite telle que "un enfant heureux jouant au football dans un parc" et espérer que le résultat corresponde à vos attentes et s'adapte au contexte ou à la situation que vous pensez qu'un utilisateur potentiel reconnaîtra. Mais ce qui peut rendre cela plus difficile que prévu est un problème connu sous le nom de 'biais'

Biases in Gen AI

La GenAI n'est pas parfaite ; elle est entraînée sur d'énormes ensembles de données provenant d'Internet, qui sont pleins de biais humains. Lors de la création de symboles CAA, ces biais peuvent s'infiltrer, conduisant à des symboles qui ne représentent pas tout le monde équitablement. Les biais dans l'IA signifient que le système favorise certains groupes par rapport à d'autres — souvent basés sur la race, le genre, la culture ou l'aptitude. En CAA, cela peut signifier des symboles qui supposent qu'une "personne par défaut" est blanche, masculine ou valide, laissant les autres de côté. Par exemple

  Source Exemple réel dans les symboles CAA
1 Biais des données d'entraînement "Médecin" → presque toujours un homme blanc en blouse de laboratoire
2 Biais de conception du modèle L'entreprise supprime de nombreuses images de personnes handicapées "pour éviter l'offense" → très peu de symboles de fauteuil roulant générés
3 Invite et interface L'application ne suggère que "mère + père + enfants" quand vous tapez "famille"
4 Filtres de sécurité Les tons de peau plus foncés sont parfois éclaircis ou bloqués par les filtres

Il est donc important de surveiller...

  • Stéréotypes de genre et raciaux : Les outils peuvent amplifier les biais. Par exemple, générer des images pour "PDG" pourrait principalement montrer des hommes blancs, ou "infirmière" comme femmes — s'étendant aux symboles CAA où les professions ou actions sont représentées injustement.
  • Oublis culturels : L'IA peut avoir du mal avec des langues ou dialectes divers, rendant les symboles moins pertinents pour les cultures non occidentales. En CAA, un symbole pour "famille" pourrait par défaut être une structure familiale nucléaire, ignorant les familles étendues communes dans de nombreuses sociétés.
  • Erreurs dans les outils spécifiques à la CAA : Dans les générateurs de vocabulaire CAA basés sur des photos, les algorithmes ont montré des biais dans la reconnaissance d'objets ou de personnes d'origines diverses, conduisant à des symboles incomplets ou stéréotypés.
  • Humour et préjugés : Même dans des éléments amusants comme l'humour généré par l'IA pour la CAA, les modèles peuvent renforcer les stéréotypes, comme on l'a vu dans des études sur les sorties d'IA générative.

L'équipe de Symbol Creator AI vise à mettre en place un entraînement supplémentaire après la période de test bêta pour assurer :

  • Données d'entraînement diversifiées : utilisant des ensembles de données équilibrés incluant des perspectives globales.
  • Supervision humaine : impliquant toujours les utilisateurs de CAA, thérapeutes et experts dans l'examen des sorties d'IA.
  • Lignes directrices éthiques : une IA qui renforce, sans outrepasser l'intention de l'utilisateur.

Data Training Human Oversight and Ethics

En reconnaissant et en abordant les biais, la GenAI a le potentiel de démocratiser la création de symboles CAA. Mais comme tout outil, elle n'est aussi bonne que la façon dont nous l'utilisons. En restant vigilants sur les biais, nous pouvons assurer que ces innovations offrent une autre voie pour fournir des préférences personnelles dans la sélection du style de symbole

© 2026 Global Symbols CIC