GenAI per lo sviluppo di simboli AAC: riconoscere i pregiudizi
EA Draffan
L'intelligenza artificiale generativa, come gli strumenti basati su modelli quali DALL-E, Stable Diffusion e Flux, può creare immagini da descrizioni testuali. Per l'AAC, questo significa digitare un prompt come "un bambino felice che gioca a calcio in un parco" e sperare che il risultato corrisponda alle aspettative e si adatti al contesto o alla situazione che si ritiene un potenziale utente riconoscerà. Ma ciò che può rendere questo più difficile del previsto è un problema noto come "pregiudizio"

La GenAI non è perfetta; è addestrata su enormi dataset provenienti da internet, che sono pieni di pregiudizi umani. Quando si creano simboli AAC, questi pregiudizi possono insinuarsi, portando a simboli che non rappresentano tutti equamente. Il pregiudizio nell'IA significa che il sistema favorisce certi gruppi rispetto ad altri—spesso basandosi su razza, genere, cultura o abilità. Nell'AAC, questo può significare simboli che assumono che una persona "predefinita" sia bianca, maschile o abile, escludendo altri. Ad esempio
| Fonte | Esempio reale nei simboli AAC | |
|---|---|---|
| 1. | Pregiudizio nei Dati di Addestramento | "Dottore" → quasi sempre un uomo bianco in camice |
| 2. | Pregiudizio nella Progettazione del Modello | L'azienda rimuove molte immagini di persone disabili "per evitare offese" → pochissimi simboli di sedia a rotelle generati |
| 3. | Prompt e Interfaccia | L'app suggerisce solo "madre + padre + bambini" quando si digita "famiglia" |
| 4. | Filtri di Sicurezza | Le tonalità della pelle più scure a volte vengono schiarite o bloccate dai filtri |
Quindi è importante fare attenzione a...
- Stereotipi di Genere e Razza: Gli strumenti possono amplificare i pregiudizi. Ad esempio, generare immagini per "CEO" potrebbe mostrare principalmente uomini bianchi, o "infermiere" come donne—estendendosi ai simboli AAC dove professioni o azioni sono raffigurate ingiustamente.
- Omissioni Culturali: L'IA potrebbe avere difficoltà con lingue o dialetti diversi, rendendo i simboli meno rilevanti per culture non occidentali. Nell'AAC, un simbolo per "famiglia" potrebbe essere predefinito a una struttura familiare nucleare, ignorando le famiglie estese comuni in molte società.
- Errori negli Strumenti AAC-Specifici: Nei generatori di vocabolario AAC basati su foto, gli algoritmi hanno mostrato pregiudizi nel riconoscere oggetti o persone da contesti diversi, portando a simboli incompleti o stereotipici.
- Umorismo e Pregiudizio: Anche negli elementi divertenti come l'umorismo generato dall'IA per AAC, i modelli possono rafforzare stereotipi, come visto negli studi sugli output dell'IA generativa.
Il team Symbol Creator AI mira a mettere in atto ulteriore addestramento dopo il periodo di beta testing per garantire che ci sia:
- Dati di Addestramento Diversificati: utilizzando dataset bilanciati che includono prospettive globali.
- Supervisione Umana: Coinvolgere sempre utenti AAC, terapisti ed esperti nella revisione degli output dell'IA.
- Linee Guida Etiche: IA che potenzia, senza sovrascrivere l'intento dell'utente.

Riconoscendo e affrontando i pregiudizi, la GenAI ha il potenziale per democratizzare la creazione di simboli AAC. Ma come qualsiasi strumento, è valida solo in base a come la utilizziamo. Rimanendo vigili sui pregiudizi, possiamo garantire che queste innovazioni forniscano un'altra strada per fornire preferenze personali nella selezione dello stile dei simboli