Ga naar de hoofdinhoud

GenAI voor AAC-symboolontwikkeling: vooroordelen herkennen

EA Draffan

GenAI voor AAC-symboolontwikkeling: vooroordelen herkennen

Generatieve AI, zoals tools gebaseerd op modellen zoals DALL-E, Stable Diffusion en Flux, kunnen afbeeldingen maken van tekstbeschrijvingen. Voor AAC betekent dit dat je een prompt intypt zoals "een gelukkig kind dat voetbal speelt in een park" en hoopt dat het resultaat overeenkomt met je verwachtingen en past bij de setting of situatie die je denkt dat een potentiële gebruiker zal herkennen. Maar wat dit moeilijker kan maken dan we verwachten is een probleem dat bekend staat als "vooroordeel"

Vooroordelen in Gen AI

GenAI is niet perfect; het is getraind op enorme datasets van internet, die vol zitten met menselijke vooroordelen. Bij het maken van AAC-symbolen kunnen deze vooroordelen binnensluipen, wat leidt tot symbolen die niet iedereen eerlijk vertegenwoordigen. Vooroordeel in AI betekent dat het systeem bepaalde groepen bevoordeelt boven anderen—vaak gebaseerd op ras, geslacht, cultuur of vermogen. In AAC kan dit betekenen dat symbolen aannemen dat een "standaard" persoon blank, mannelijk of valide is, waardoor anderen worden buitengesloten. Bijvoorbeeld

  Bron Voorbeeld uit het echte leven in AAC-symbolen
1.  Trainingsdata Vooroordeel "Dokter" → bijna altijd een blanke man in een labjas
2. Model Ontwerp Vooroordeel Bedrijf verwijdert veel afbeeldingen van gehandicapte mensen "om aanstoot te voorkomen" → zeer weinig rolstoelsymbolen gegenereerd
3. Prompt & Interface De app suggereert alleen "moeder + vader + kinderen" wanneer je "familie" typt
4. Veiligheidsfilters Donkere huidskleuren worden soms verlicht of geblokkeerd door filters

 

Het is dus belangrijk om uit te kijken naar...

  • Geslacht- en Rassenstereotypen:  Tools kunnen vooroordelen versterken. Bijvoorbeeld, het genereren van afbeeldingen voor "CEO" kan vooral blanke mannen tonen, of "verpleegster" als vrouwen—dit strekt zich uit tot AAC-symbolen waar beroepen of acties oneerlijk worden afgebeeld.
  • Culturele Overschotten: AI kan moeite hebben met diverse talen of dialecten, waardoor symbolen minder relevant zijn voor niet-westerse culturen. In AAC kan een symbool voor "familie" standaard een kerngezinstructuur zijn, waarbij uitgebreide families die gebruikelijk zijn in veel samenlevingen worden genegeerd.
  • Fouten in AAC-specifieke Tools: In op foto's gebaseerde AAC-vocabulairgeneratoren hebben algoritmes vooroordelen getoond bij het herkennen van objecten of mensen uit diverse achtergronden, wat leidt tot incomplete of stereotiepe symbolen.
  • Humor en Vooroordeel: Zelfs in leuke elementen zoals AI-gegenereerde humor voor AAC kunnen modellen stereotypen versterken, zoals gezien in studies over generatieve AI-outputs.

Het Symbol Creator AI-team streeft ernaar om na de bètatestperiode verdere training in te stellen om ervoor te zorgen dat er is:

  • Diverse Trainingsdata: gebruik van gebalanceerde datasets die wereldwijde perspectieven omvatten.
  • Menselijk Toezicht: Altijd betrekken van AAC-gebruikers, therapeuten en experts bij het beoordelen van AI-outputs.
  • Ethische Richtlijnen: AI die versterkt, zonder de gebruikersintentie te overschrijven.

Data Training Menselijk Toezicht en Ethiek

Door vooroordelen te herkennen en aan te pakken, heeft GenAI het potentieel om AAC-symboolcreatie te democratiseren.  Maar zoals elk hulpmiddel, is het alleen zo goed als hoe we het gebruiken. Door waakzaam te blijven over vooroordelen, kunnen we ervoor zorgen dat deze innovaties een andere route bieden om persoonlijke voorkeuren te bieden in symboolstijlselectie

© 2026 Global Symbols CIC