Zum Hauptinhalt springen

GenAI für die AAC-Symbolentwicklung: Erkennung von Voreingenommenheit

EA Draffan

GenAI für die AAC-Symbolentwicklung: Erkennung von Voreingenommenheit

Generative KI, wie Tools basierend auf Modellen wie DALL-E, Stable Diffusion und Flux, können Bilder aus Textbeschreibungen erstellen. Für AAC bedeutet dies, eine Eingabeaufforderung wie "ein glückliches Kind, das Fußball in einem Park spielt" einzugeben und zu hoffen, dass das Ergebnis Ihren Erwartungen entspricht und zu der Umgebung oder Situation passt, die ein potenzieller Nutzer erkennen wird. Was dies jedoch schwieriger machen kann als erwartet, ist ein Problem, das als "Voreingenommenheit" bekannt ist.

Voreingenommenheiten in Gen AI

GenAI ist nicht perfekt; es wird auf riesigen Datensätzen aus dem Internet trainiert, die voller menschlicher Voreingenommenheiten sind. Bei der Erstellung von AAC-Symbolen können sich diese Voreingenommenheiten einschleichen und zu Symbolen führen, die nicht alle fair repräsentieren. Voreingenommenheit in der KI bedeutet, dass das System bestimmte Gruppen gegenüber anderen bevorzugt – oft basierend auf Rasse, Geschlecht, Kultur oder Fähigkeit. In AAC kann dies bedeuten, dass Symbole davon ausgehen, dass eine "Standard"-Person weiß, männlich oder körperlich fit ist, und andere ausschließen. Zum Beispiel:

  Quelle Beispiel aus der Praxis bei AAC-Symbolen
1. Trainingsdaten-Voreingenommenheit "Arzt" → fast immer ein weißer Mann in einem Laborkittel
2. Modell-Design-Voreingenommenheit Unternehmen entfernt viele Bilder von Menschen mit Behinderungen "um Anstoß zu vermeiden" → sehr wenige Rollstuhl-Symbole generiert
3. Eingabeaufforderung & Benutzeroberfläche Die App schlägt nur "Mutter + Vater + Kinder" vor, wenn Sie "Familie" eingeben
4. Sicherheitsfilter Dunklere Hauttöne werden manchmal von Filtern aufgehellt oder blockiert

Daher ist es wichtig, auf Folgendes zu achten:

  • Geschlechts- und Rassenstereotypen: Tools können Voreingenommenheiten verstärken. Zum Beispiel könnten bei der Generierung von Bildern für "CEO" hauptsächlich weiße Männer oder "Krankenschwester" als Frauen gezeigt werden – was sich auf AAC-Symbole erstreckt, bei denen Berufe oder Handlungen unfair dargestellt werden.
  • Kulturelle Übersehen: KI könnte mit verschiedenen Sprachen oder Dialekten Schwierigkeiten haben, was Symbole für nicht-westliche Kulturen weniger relevant macht. In AAC könnte ein Symbol für "Familie" standardmäßig eine Kernfamilienstruktur annehmen und Großfamilien ignorieren, die in vielen Gesellschaften üblich sind.
  • Fehler in AAC-spezifischen Tools: In fotobasierten AAC-Vokabulargeneratoren haben Algorithmen Voreingenommenheiten bei der Erkennung von Objekten oder Menschen aus verschiedenen Hintergründen gezeigt, was zu unvollständigen oder stereotypen Symbolen führt.
  • Humor und Vorurteile: Selbst bei unterhaltsamen Elementen wie KI-generiertem Humor für AAC können Modelle Stereotypen verstärken, wie in Studien zu generativen KI-Ausgaben zu sehen ist.

Das Symbol Creator AI-Team zielt darauf ab, nach der Beta-Testphase weitere Schulungen einzurichten, um sicherzustellen, dass es gibt:

  • Vielfältige Trainingsdaten: Verwendung ausgewogener Datensätze, die globale Perspektiven umfassen.
  • Menschliche Aufsicht: Immer Einbeziehung von AAC-Nutzern, Therapeuten und Experten bei der Überprüfung von KI-Ausgaben.
  • Ethische Richtlinien: KI, die stärkt, ohne die Absicht des Nutzers zu überschreiben.

Daten-Training, menschliche Aufsicht und Ethik

Durch die Erkennung und Behandlung von Voreingenommenheit hat GenAI das Potenzial, die AAC-Symbolerstellung zu demokratisieren. Aber wie jedes Tool ist es nur so gut, wie wir es verwenden. Durch Wachsamkeit gegenüber Voreingenommenheit können wir sicherstellen, dass diese Innovationen einen weiteren Weg zur Bereitstellung persönlicher Präferenzen bei der Symbolstilauswahl bieten.

© 2026 Global Symbols CIC