Vai al contenuto principale

GenAI per lo sviluppo di simboli AAC: riconoscere i pregiudizi

EA Draffan

GenAI per lo sviluppo di simboli AAC: riconoscere i pregiudizi

L'intelligenza artificiale generativa, come gli strumenti basati su modelli quali DALL-E, Stable Diffusion e Flux, può creare immagini da descrizioni testuali. Per l'AAC, questo significa digitare un prompt come "un bambino felice che gioca a calcio in un parco" e sperare che il risultato corrisponda alle aspettative e si adatti al contesto o alla situazione che si ritiene un potenziale utente riconoscerà. Ma ciò che può rendere questo più difficile del previsto è un problema noto come "pregiudizio"

Bias nella Gen AI

La GenAI non è perfetta; è addestrata su enormi dataset provenienti da internet, che sono pieni di pregiudizi umani. Quando si creano simboli AAC, questi pregiudizi possono insinuarsi, portando a simboli che non rappresentano tutti equamente. Il pregiudizio nell'IA significa che il sistema favorisce certi gruppi rispetto ad altri—spesso basandosi su razza, genere, cultura o abilità. Nell'AAC, questo può significare simboli che assumono che una persona "predefinita" sia bianca, maschile o abile, escludendo altri. Ad esempio

  Fonte Esempio reale nei simboli AAC
1.  Pregiudizio nei Dati di Addestramento "Dottore" → quasi sempre un uomo bianco in camice
2. Pregiudizio nella Progettazione del Modello L'azienda rimuove molte immagini di persone disabili "per evitare offese" → pochissimi simboli di sedia a rotelle generati
3. Prompt e Interfaccia L'app suggerisce solo "madre + padre + bambini" quando si digita "famiglia"
4. Filtri di Sicurezza Le tonalità della pelle più scure a volte vengono schiarite o bloccate dai filtri

 

Quindi è importante fare attenzione a...

  • Stereotipi di Genere e Razza:  Gli strumenti possono amplificare i pregiudizi. Ad esempio, generare immagini per "CEO" potrebbe mostrare principalmente uomini bianchi, o "infermiere" come donne—estendendosi ai simboli AAC dove professioni o azioni sono raffigurate ingiustamente.
  • Omissioni Culturali: L'IA potrebbe avere difficoltà con lingue o dialetti diversi, rendendo i simboli meno rilevanti per culture non occidentali. Nell'AAC, un simbolo per "famiglia" potrebbe essere predefinito a una struttura familiare nucleare, ignorando le famiglie estese comuni in molte società.
  • Errori negli Strumenti AAC-Specifici: Nei generatori di vocabolario AAC basati su foto, gli algoritmi hanno mostrato pregiudizi nel riconoscere oggetti o persone da contesti diversi, portando a simboli incompleti o stereotipici.
  • Umorismo e Pregiudizio: Anche negli elementi divertenti come l'umorismo generato dall'IA per AAC, i modelli possono rafforzare stereotipi, come visto negli studi sugli output dell'IA generativa.

Il team Symbol Creator AI mira a mettere in atto ulteriore addestramento dopo il periodo di beta testing per garantire che ci sia:

  • Dati di Addestramento Diversificati: utilizzando dataset bilanciati che includono prospettive globali.
  • Supervisione Umana: Coinvolgere sempre utenti AAC, terapisti ed esperti nella revisione degli output dell'IA.
  • Linee Guida Etiche: IA che potenzia, senza sovrascrivere l'intento dell'utente.

Addestramento Dati Supervisione Umana ed Etica

Riconoscendo e affrontando i pregiudizi, la GenAI ha il potenziale per democratizzare la creazione di simboli AAC. Ma come qualsiasi strumento, è valida solo in base a come la utilizziamo. Rimanendo vigili sui pregiudizi, possiamo garantire che queste innovazioni forniscano un'altra strada per fornire preferenze personali nella selezione dello stile dei simboli

© 2026 Global Symbols CIC