top of page

ChatGPT: El genio salió de la botella






En las últimas semanas, nos hemos llenado de artículos y análisis sobre la Inteligencia Artificial Generativa, en particular con algunos de sus productos tales como ChatGPT, Dall-E y otros. Por su parte ChatGPT se ha transformado en todo un fenómeno mediático desde su aparición, hace sólo cuatro meses. Recordando que esto cambia semana a semana es de momento revisar algunas de sus características e impactos, así como de plantear algunas preguntas y desafíos a futuro, si es que esto es posible dada la velocidad de cambios que estamos teniendo.


Veamos algunas de las diferentes dimensiones de su impacto desde una perspectiva crítica.


Crecimiento exponencial: En tan sólo cuatro meses ha pasado a tener cientos de millones de usuarios por todo el mundo, integración con múltiples sistemas y aplicaciones, incluso hace una semana cambió su algoritmo de base, desde el modelo GPT-3.5 al GPT-4, el cual tuvo bastantes mejoras. Pero lo más sustancial es que el corpus de información de entrenamiento creció en varios órdenes de magnitud. Un ejemplo de esas mejoras es este análisis del comportamiento de la nueva plataforma en diferentes exámenes y pruebas en Estado Unidos.




Tecno-optimismo desatado: Hemos visto un proceso de encandilamiento con esta tecnología, llegando en algunos casos a atribuirle características que no son tales, partiendo por un anhelo de humanización de la misma. Hay que reafirmar que ChatGPT no es inteligente, lo que hay detrás es un sofisticado algoritmo que producto de su entrenamiento con miles de millones de textos, estima una probabilidad para construir una respuesta a las consultas de los usuarios, incluso hay varios ejemplos de respuestas bastante ridículas. Tanto es así, que prestigiadas investigadoras como Emily Bender (Académica especializada en Lingüista Computacional de la Universidad de Washington)[1] y Timmit Gebru[2] quien trabajó para el equipo de Inteligencia Artificial Ética de Google, plantean que estos modelos como es el caso de ChatGPT se parecen más a un loro estocástico que a la inteligencia humana[3].


Impactos insospechados: desde sus inicios, se están viendo en muchas áreas impactos para los cuales estamos lejos de construir una respuesta. Algunos de los más obvios son:


* Educación: Se verá fuertemente impactada. Los esquemas habituales de evaluación van a tener que cambiar y al menos redefinir algunos de los procesos educativos que utilizamos en nuestros sistemas escolares.


* Investigación y Ciencia: Existe una reciente discusión frente al uso de estas herramientas para producir conocimiento, algunas de ellas son: ¿puede ser citado ChatGPT como autor en un paper académico?[4]


* Derecho de Autor: La oficina de derecho de autor de los Estados Unidos ya tuvo que cambiar su decisión respecto de la autoría de unas imágenes por parte de una plataforma de inteligencia artificial generativa. [5]


* Debate público: Uso de estas herramientas para producir contenido creíble pero falso en forma muy masiva y a muy bajo costo. Podríamos vernos enfrentados a una marea de fake news muy bien escritas y armadas.


* Seguridad: Ya se han demostrado brechas de seguridad de estas herramientas que a través de ciertos mecanismos [6] se pueden saltar las reglas y emitir respuestas racistas, misóginas, sectarias e incluso suicidas como ocurrió con una persona que finalmente se suicidó luego de establecer una relación con el Chat-J Eliza [7]. El hombre, padre de dos niños, encontró refugio hablando con el chatbot. Eliza respondía a todas sus preguntas, se había convertido en su confidente. “Era como una droga que se retiraba por la mañana y por la noche y sin la que no podía vivir", explicó su viuda a un medio belga [8].


* Mercado laboral: Un reciente estudio muestra que aproximadamente el 80% de la mano de obra estadounidense podría verse afectada en el 10% de sus tareas laborales por la introducción de las GPT, mientras que alrededor del 19% de los trabajadores podría ver afectado al menos el 50% de sus tareas. La influencia se extiende a todos los niveles salariales, con los empleos de mayores ingresos potencialmente más expuesto[9].


* Marcos normativos: En el ámbito normativo no hay claridad de las formas de regulación de estas plataformas, recién es un tema que legisladores y reguladores de todo el mundo están empezando a entender e identificar. Es muy probable que las regulaciones lleguen, si es que llegan muy seguro será de forma tardía, como lo hemos visto en otras áreas.


* Uso excesivo de recursos: Tal como lo plantea Kate Crawford [10] en su buen libro Atlas de la IA, hay un abuso de los recursos computacionales necesarios para entrenar y operar estos modelos con su consecuente aporte al calentamiento global.


Hace unos días y producto de algunas de las cosas que hemos señalado, el centro de pensamiento Future of Life Institute [11] empezó una campaña para detener por 6 meses los desarrollos en este tipo de modelos. La campaña se ha desarrollado a través de una carta [12] que han firmado diferentes personeros (empresarios, académicos, lideres de opinión y otros), tales como Yuval Harari, Elon Musk y Steve Wozniak por mencionar algunos, la carta parte:


Los sistemas de IA con una inteligencia competitiva con la humana pueden plantear profundos riesgos para la sociedad y la humanidad, como demuestran numerosas investigaciones y reconocen los principales laboratorios de IA. Como se afirma en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados. Desgraciadamente, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses se ha visto a los laboratorios de IA enzarzados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable….


La carta ya tiene detractores. Piensan que esta iniciativa no va a tener ningún impacto y que tiene más cara de volador de luces, por múltiples razones, entre otras por esta suerte de carrera armamentista de la inteligencia artificial generativa en que no sólo están involucradas compañías como OpenAI, Microsoft o Google, sino también gobiernos completos, como las dos grandes potencias en materias de Inteligencia Artificial [13]: Estados Unidos y China.


Hay otras miradas críticas respecto de ChatGPT, partiendo por Noam Chomsky, lingüista e intelectual muy reconocido en el mundo entero: “El defecto más profundo [de ChatGPT] es la ausencia de la capacidad más crítica de cualquier inteligencia: decir no sólo lo que ocurre y lo que ocurrirá -eso es describir y predecir-, sino también lo que no ocurre y lo que podría o no ocurrir”. [14]


Otros como son la la prestigiada periodista española especializada en ciencia y tecnología, Esther Paniagua Gómez, piensan que GPT-4 tiene cuatro talones de Aquiles, cuando se analiza desde las dimensiones del poder (quién está detrás), la ideología (cuál es su marco de pensamiento y creencias), el propósito (por qué y qué se pretende con ello) y la ética (cómo y en base a qué normas está).


Por otro lado, Maggie Appleton en su blog, plantea que en la medida que aumenta la generación de contenidos automáticos en la web, esta se parecerá cada vez más a la metáfora del bosque oscuro, en el cual los seres humanos tenderán a retirarse [15].


Tiendo a compartir estas visiones, pero creo que es tarde para intentar detener el proceso: El genio ya salió de la botella, ya no hay forma de volver a meterlo.


Alejandro Barros


[1] Emily Bender - https://faculty.washington.edu/ebender/ [2] Timnit Gebru - https://es.wikipedia.org/wiki/Timnit_Gebru [3] On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? https://dl.acm.org/doi/10.1145/3442188.3445922 [4] ChatGPT listed as author on research papers: many scientists disapprove - https://www.nature.com/articles/d41586-023-00107-z [5] https://www.theverge.com/2023/2/22/23611278/midjourney-ai-copyright-office-kristina-kashtanova [6] More than you’ve asked for: A Comprehensive Analysis of Novel Prompt Injection Threats to Application-Integrated Large Language Models - https://arxiv.org/abs/2302.12173 [7] Una versión de código abierto de la plataforma de OpenAI ChatGPT [8] 'We will live as one in heaven': Belgian man dies by suicide after chatbot exchanges, Belgian News - https://www.belganewsagency.eu/we-will-live-as-one-in-heaven-belgian-man-dies-of-suicide-following-chatbot-exchanges [9] GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models - https://arxiv.org/abs/2303.10130 [10] Atlas de la IA - https://www.alejandrobarros.com/atlas-de-la-ia/ [11] Future of Life Institute - https://futureoflife.org/ [12] Pause Giant AI Experiments Letter - https://futureoflife.org/open-letter/pause-giant-ai-experiments/ [13] Potencias en materias de IA - https://www.alejandrobarros.com/ia-y-algunos-impactos/ [14] Noam Chomsky sobre ChatGPT: Su defecto más profundo es la falta de capacidad crítica - https://dialektika.org/2023/03/10/noam-chomsky-sobre-chatgpt/ [15] La web que se vien y el bosque oscuro - https://www.alejandrobarros.com/la-web-que-se-viene-y-el-bosque-oscuro/

Kommentare