GenAI para el desarrollo de símbolos AAC: reconocer el sesgo
EA Draffan
La IA generativa, como herramientas basadas en modelos como DALL-E, Stable Diffusion y Flux, puede crear imágenes a partir de descripciones de texto. Para AAC, esto significa escribir un prompt como "un niño feliz jugando fútbol en un parque" y esperar que el resultado coincida con tus expectativas y se ajuste al entorno o situación que sientes que un usuario potencial reconocerá. Pero lo que puede hacer esto más difícil de lo que anticipamos es un problema conocido como "sesgo"

GenAI no es perfecta; está entrenada en conjuntos de datos masivos de internet, que están llenos de sesgos humanos. Al crear símbolos AAC, estos sesgos pueden infiltrarse, llevando a símbolos que no representan a todos de manera justa. El sesgo en la IA significa que el sistema favorece a ciertos grupos sobre otros, a menudo basándose en raza, género, cultura o capacidad. En AAC, esto puede significar símbolos que asumen que una persona "predeterminada" es blanca, masculina o sin discapacidad, dejando fuera a otros. Por ejemplo
| Fuente | Ejemplo de la vida real en símbolos AAC | |
|---|---|---|
| 1. | Sesgo en Datos de Entrenamiento | "Doctor" → casi siempre un hombre blanco con bata de laboratorio |
| 2. | Sesgo en Diseño del Modelo | La empresa elimina muchas imágenes de personas con discapacidad "para evitar ofensas" → muy pocos símbolos de silla de ruedas generados |
| 3. | Prompt e Interfaz | La aplicación solo sugiere "madre + padre + hijos" cuando escribes "familia" |
| 4. | Filtros de Seguridad | Los tonos de piel más oscuros a veces se aclaran o bloquean por filtros |
Por lo tanto, es importante estar atentos a...
- Estereotipos de Género y Raza: Las herramientas pueden amplificar los sesgos. Por ejemplo, generar imágenes para "CEO" podría mostrar principalmente hombres blancos, o "enfermera" como mujeres, extendiéndose a símbolos AAC donde profesiones o acciones se representan injustamente.
- Oversights Culturales: La IA podría tener dificultades con diversos idiomas o dialectos, haciendo que los símbolos sean menos relevantes para culturas no occidentales. En AAC, un símbolo para "familia" podría usar por defecto una estructura de familia nuclear, ignorando las familias extendidas comunes en muchas sociedades.
- Errores en Herramientas Específicas de AAC: En generadores de vocabulario AAC basados en fotos, los algoritmos han mostrado sesgos al reconocer objetos o personas de diversos orígenes, llevando a símbolos incompletos o estereotípicos.
- Humor y Prejuicio: Incluso en elementos divertidos como el humor generado por IA para AAC, los modelos pueden reforzar estereotipos, como se ve en estudios sobre salidas de IA generativa.
El equipo de Symbol Creator AI tiene como objetivo establecer más entrenamiento después del período de pruebas beta para asegurar que haya:
- Datos de Entrenamiento Diversos: usando conjuntos de datos equilibrados que incluyan perspectivas globales.
- Supervisión Humana: Siempre involucrando a usuarios AAC, terapeutas y expertos en la revisión de resultados de IA.
- Pautas Éticas: IA que empodere, sin anular la intención del usuario.

Al reconocer y abordar el sesgo, GenAI tiene el potencial de democratizar la creación de símbolos AAC. Pero como cualquier herramienta, solo es tan buena como cómo la usamos. Al mantenerse vigilantes sobre el sesgo, podemos asegurar que estas innovaciones proporcionen otra ruta para proporcionar preferencias personales en la selección de estilo de símbolos