Gabriela Arriagada: La obsesión por la IA nos invita a remirarnos y querernos
- Valeria Sol Groisman
- hace 3 días
- 5 Min. de lectura

Gabriela Arriagada es una académica especializada en ética de IA y datos en el Instituto de Éticas Aplicadas y el Instituto de Ingeniería Matemática y Computacional de la Universidad Católica de Chile. Es, además, investigadora joven del Centro Nacional de Inteligencia Artificial (CENIA). De formación filósofa, se formó en la ética aplicada y su interés está orientado a ámbitos de impacto social. Su diagnóstico de trastorno de espectro autista y doble excepcionalidad, hizo que sus inquietudes profesionales se volcaran a integrar sus experiencias y dificultades personales en su investigación y también en Los sesgos del algoritmo: La importancia de diseñar una inteligencia artificial ética e inclusiva (La pollera), su primer libro, que acaba de publicar.
Encarás los desafíos de la IA desde una perspectiva personal que involucra un diagnóstico de neurodivergencia en la adultez. ¿Cómo fue recibir ese diagnóstico y cómo cambió tu mirada sobre tu trabajo y tu ámbito de investigación?
Diametralmente. Recibir un diagnóstico así le da sentido a tu vida. Vas hacia atrás y entiendes el dolor, la frustración, el aislamiento… el que no tenías nada malo tú, es que el mundo no sabía quién eras y tú tampoco. Entonces, el diagnóstico para mí fue renacer, y ese renacer no solo me afectó de manera personal con mi propio duelo para volver a conocer quién realmente soy, sino que cambió mi manera de hacer investigación. Nuevos paradigmas entraron en mi manera de ver y experimentar el mundo, ya no sentía que vivía en un mundo ajeno, y empecé a convertir el mundo a mi alrededor en el arcoíris que yo tenía dentro. Esto significó que pude transformar mis intereses académicos y científicos a través de mi propia transmutación. No solo reenfoqué mis temas, sino que también empecé a vivirlos como propios.
¿Cuáles son hoy los mayores desafíos de los profesionales que trabajan para que la IA sea más justa e inclusiva?
Yo diría que el enemigo siempre es el hacer entender a otros que ser ético no es solo bonito, bueno y algo valioso en sí mismo. Que el actuar virtuosamente y el seguir principios éticos nos hace mejores profesionales y personas, pero que al mismo tiempo genera mejores resultados. Nuestra realidad no funciona en ideales, en la práctica (que justamente es lo que yo hago, una ética aplicada) el mundo es hostil, el mundo tiene limitaciones y el contexto en el que nos desarrollamos está plagado de sesgos. En esa realidad extensa y compleja es que tenemos el desafío de ser éticos y buscar maneras de desarrollar IAs inclusivas. Pero cuando logras quebrar esa barrera que reconoce a la inclusión como un “extra”, como una cosa costosa y anexa, y entiendes que hacer IAs más éticas e inclusivas es, al fin y al cabo, también una inversión para lograr mejores sistemas, más representativos, con mejores adaptaciones de usuario y confiabilidad, entonces ahí logramos superar esa brecha que existe al pensar que la ética es un adorno deseable y no algo inherente a todo lo que hacemos.
¿Te parece que podremos alcanzar una IA libre de sesgos, o es una utopía?
En el libro lo comento, pero en otros trabajos soy más directa: NO ES POSIBLE DESHACERSE DE LOS SESGOS. Los sesgos son parte de nosotros, sesgos cognitivos, optimización de información, procesamiento de estímulos, es parte de nuestra naturaleza porque nos permite lidiar con un mundo que, en nuestra finitud, nos exige que discriminemos a conveniencia qué entender, qué procesar y qué no. Pero esto no significa que el panorama sea malo. La labor que tenemos en la ética de IA no es caer en falsos ideales de “desesgarlo todo”, sino más bien reflexionar sobre qué son los sesgos, cómo nos afectan, qué rol juegan en el desarrollo de la IA, y qué medidas podemos tomar para identificarlos, manejarlos, y usarlos en algunos casos a nuestro favor.
Citás a Meredith Broussard y su concepto de “tecnochovinismo”. Otros autores hablan de “solucionismo tecnológico”. ¿Creés que estamos demasiado fascinados con la IA y estamos perdiendo de vista las soluciones humanas a los problemas humanos?
El hype de la IA es claro, y me parece que es el juguete nuevo. El problema que veo es que el juguete nuevo evoluciona muy rápido y no nos detenemos a entender si lo que ya tenemos nos sirve, para qué y con qué limitaciones. En muchos casos, las exigencias que le hacemos a la IA son exigencias relacionadas a la parte humana, a cómo es diseñada o implementada. Me gusta pensar que está obsesión por la IA nos invita a remirarnos y querernos. A no caer en esas ficciones de futuro donde las máquinas hacían todo por nosotros, donde el futuro significaba automatización, optimización, y tecnología. Quizás, lo que estos nuevos paradigmas de aprendizaje nos están diciendo es que el futuro es HUMANO, y que las respuestas para una mejor sociedad están enfocadas en que nosotros revaloremos la condición humana, su finitud, su emocionalidad, y su fragilidad.
Decís que la IA no tiene “complejidades sentimentales ni comprende el humor”. ¿Cambiará eso en los próximos años? ¿Qué muestra la investigación más reciente?
A mí me parece que seguimos en lo mismo. Incluso si es que es posible programarle para que analice dinámicas de humor, siguen estas siendo réplicas no auténticas de una manifestación humana. Veo difícil que esto cambie en los próximos años. Más bien, creo que es factible que mejoren en simularlas a un nivel que pueda incluso engañarnos y hacernos creer que las entiende.
Hacia el final del libro planteás la necesidad de una interdisciplina entre investigadores de IA y psicólogos para atender las necesidades de las personas neurodivergentes. ¿Qué avances hay en esa intersección?
GA: Yo creo que ha habido avances. Cada vez vemos mejor y más investigación relacionada y me parece que la interdisciplina es justamente la única manera que tenemos de hacerle frente a la IA. Lo que quizás creo que falta (aunque esto puede ser un sesgo mío, jaja) es ver más análisis ético robusto en estas interacciones. La idea es que no solo tengamos más y mejores datos sobre poblaciones neurodivergentes para poder modelar mejores soluciones, sino que también cómo las incluimos en los procesos de desarrollo, y cuáles son los marcos éticos que nos permiten manejar esas intervenciones. Me parece que aquí hay mucho que hacer todavía.
¿Cómo llegaste a interesarte por la IA?
Cuando estaba terminando mi magíster, recuerdo que en 2017 empecé a leer los primeros artículos relacionados con una ética de la IA. Hablaban de nuevos avances en procesamiento de datos, de los “big data”, y que sistemas de IA estaban avanzando rápidamente. Me pareció que había un espacio innovador, interesante y con mucha incertidumbre, lo que significaba que iba a haber mucho por hacer y opinar, en especial por las preocupantes consecuencias discriminadoras que tenían los primeros sistemas y cómo esto afectaba a diferentes minorías en la sociedad. Por eso, decidí estudiar ética en IA, por su novedad, el espacio de poder explorar múltiples aspectos éticos en una misma área, y por mi obsesión con entender las dinámicas de justicia en la sociedad.
¿Cuál es el libro sobre IA que más te sorprendió o cambió tu mirada?
Justamente el de Meredith Broussard “Artificial Unintelligence: How Computers Misunderstand the World”, porque me encantó su enfoque para no solo entender la IA, sino para también desmitificarla. Me pareció que algo similar se tenía que hacer con la ética, lo que también me motivó a hacer algo accesible, corto y personal al escribir mi libro.
¿Estás trabajando en algo nuevo?
Sí. Actualmente ya terminé un manuscrito para un segundo libro donde hablo de discapacidades, IA y ética. Esta vez me enfoco en la ética de IA y la ética de las discapacidades, enfatizando en cómo tenemos que entender el concepto de discapacidad, los aciertos y desaciertos que ha tenido el avance de la IA en incluir a personas con discapacidades, y mi propia propuesta de cómo creo debemos avanzar en está línea. Esta vez no me enfoco únicamente en neurodivergencias, sino que en discapacidades en general.