Прескачане към основното съдържание

GenAI за разработване на AAC символи: разпознаване на пристрастия

EA Draffan

GenAI за разработване на AAC символи: разпознаване на пристрастия

Генеративният изкуствен интелект, като инструменти базирани на модели като DALL-E, Stable Diffusion и Flux, може да създава изображения от текстови описания. За AAC това означава въвеждане на подсказка като "щастливо дете играе футбол в парк" и надежда резултатът да отговаря на очакванията ви и да пасва на обстановката или ситуацията, която смятате, че потенциален потребител ще разпознае. Но това, което може да направи това по-трудно от очакваното, е проблем известен като "пристрастие"

Biases in Gen AI

GenAI не е перфектен; обучен е на огромни набори данни от интернет, които са пълни с човешки пристрастия. При създаването на AAC символи тези пристрастия могат да се прокраднат, водещи до символи, които не представят всеки справедливо. Пристрастието в AI означава, че системата предпочита определени групи пред други - често на базата на раса, пол, култура или способност. В AAC това може да означава символи, които приемат "по подразбиране" личността за бяла, мъжка или здрава, изключвайки другите. Например

  Източник Реален пример в AAC символи
1.  Пристрастие в данните за обучение "Доктор" → почти винаги бял мъж в лабораторно палто
2. Пристрастие в дизайна на модела Компанията премахва много изображения на хора с увреждания "за да избегне обида" → много малко символи на инвалидна количка се генерират
3. Подсказка и интерфейс Приложението предлага само "майка + баща + деца", когато напишете "семейство"
4. Филтри за сигурност По-тъмните тонове на кожата понякога се осветляват или блокират от филтри

 

Затова е важно да внимавате за...

  • Полови и расови стереотипи:  Инструментите могат да усилват пристрастията. Например, генерирането на изображения за "генерален директор" може главно да показва бели мъже, или "медсестра" като жени - разпростирайки се до AAC символи, където професиите или действията се изобразяват несправедливо.
  • Културни пропуски: AI може да се затрудни с разнообразни езици или диалекти, правейки символите по-малко релевантни за не-западни култури. В AAC символ за "семейство" може по подразбиране да използва ядрена структура на семейството, игнорирайки разширените семейства, обичайни в много общества.
  • Грешки в специфични за AAC инструменти: В генератори на AAC речници базирани на снимки, алгоритмите показват пристрастия при разпознаването на обекти или хора от разнообразни среди, водещи до непълни или стереотипни символи.
  • Хумор и предразсъдъци: Дори при забавни елементи като AI-генериран хумор за AAC, моделите могат да засилват стереотипите, както се вижда в изследванията на генеративни AI резултати.

Екипът на Symbol Creator AI цели да постави допълнително обучение след периода на бета тестване, за да гарантира наличието на:

  • Разнообразни данни за обучение: използване на балансирани набори данни, които включват глобални перспективи.
  • Човешки надзор: Винаги включване на AAC потребители, терапевти и експерти при преглеждане на AI резултати.
  • Етични насоки: AI, който овластява, без да презаписва намерението на потребителя.

Data Training Human Oversight and Ethics

Чрез разпознаването и решаването на пристрастията, GenAI има потенциала да демократизира създаването на AAC символи.  Но като всеки инструмент, той е добър само доколкото го използваме. Чрез бдителност относно пристрастията можем да гарантираме, че тези иновации предоставят друг път за осигуряване на лични предпочитания при избора на стил на символи

© 2026 Global Symbols CIC