GenAI za razvoj AAC simbola: prepoznavanje pristranosti
EA Draffan
Generativna umjetna inteligencija, poput alata temeljenih na modelima kao što su DALL-E, Stable Diffusion i Flux, može stvarati slike iz tekstualnih opisa. Za AAC to znači upisivanje upute kao što je "sretno dijete koje igra nogomet u parku" i nadanje da će rezultat odgovarati vašim očekivanjima i uklapati se u okruženje ili situaciju za koju smatrate da će je potencijalni korisnik prepoznati. Međutim, ono što može ovo učiniti težim nego što očekujemo je problem poznat kao "pristranost".

GenAI nije savršen; treniran je na masivnim skupovima podataka s interneta, koji su puni ljudskih pristranosti. Prilikom stvaranja AAC simbola, ove pristranosti mogu se uvući, što dovodi do simbola koji ne predstavljaju sve pošteno. Pristranost u AI-u znači da sustav favorizira određene skupine u odnosu na druge—često na temelju rase, spola, kulture ili sposobnosti. U AAC-u to može značiti simbole koji pretpostavljaju da je "zadana" osoba bijela, muškog spola ili sposobna, ostavljajući druge po strani. Na primjer
| Izvor | Primjer iz stvarnog života u AAC simbolima | |
|---|---|---|
| 1. | Pristranost podataka za treniranje | "Liječnik" → gotovo uvijek bijeli muškarac u laboratorijskom mantilu |
| 2. | Pristranost dizajna modela | Tvrtka uklanja mnoge slike osoba s invaliditetom "kako bi izbjegla uvredljivost" → generira se vrlo malo simbola invalidskih kolica |
| 3. | Uputa i sučelje | Aplikacija predlaže samo "majka + otac + djeca" kada upišete "obitelj" |
| 4. | Sigurnosni filteri | Tamniji tonovi kože ponekad se posvijetle ili blokiraju filterima |
Stoga je važno paziti na...
- Rodni i rasni stereotipi: Alati mogu pojačati pristranosti. Na primjer, generiranje slika za "direktora" može uglavnom prikazivati bijele muškarce, ili "medicinsku sestru" kao žene—što se proteže na AAC simbole gdje se profesije ili radnje prikazuju nepravedno.
- Kulturni propusti: AI može imati problema s raznolikim jezicima ili dijalektima, čineći simbole manje relevantnima za nezapadne kulture. U AAC-u, simbol za "obitelj" može zadano biti nuklearna obiteljska struktura, ignorirajući proširene obitelji uobičajene u mnogim društvima.
- Greške u AAC-specifičnim alatima: U generatorima AAC rječnika temeljenim na fotografijama, algoritmi su pokazali pristranosti u prepoznavanju objekata ili ljudi iz raznolikih sredina, što dovodi do nepotpunih ili stereotipnih simbola.
- Humor i predrasude: Čak i u zabavnim elementima poput AI-generiranog humora za AAC, modeli mogu pojačati stereotipe, kao što se vidi u istraživanjima generativnih AI izlaza.
Tim Symbol Creator AI-a nastoji postaviti dodatnu obuku nakon razdoblja beta testiranja kako bi osigurao:
- Raznolike podatke za treniranje: korištenje uravnoteženih skupova podataka koji uključuju globalne perspektive.
- Ljudski nadzor: Uvijek uključivanje AAC korisnika, terapeuta i stručnjaka u pregled AI izlaza.
- Etičke smjernice: AI koji osnažuje, bez nadjačavanja korisničke namjere.

Prepoznavanjem i rješavanjem pristranosti, GenAI ima potencijal demokratizirati stvaranje AAC simbola. Ali kao i svaki alat, dobar je onoliko koliko ga koristimo. Ostanemo li budni u pogledu pristranosti, možemo osigurati da ove inovacije pružaju još jedan put za pružanje osobnih preferencija u odabiru stila simbola