Co-inteligencia, (r)evoluciones en la IA

En abril de 2015, hace casi una década, escribí The Avoiding Game, y unos meses más tarde, íntimamente relacionado, Inteligencia Artificial y la chispa dela vida, sobre un libro que confieso que no me dejó muchos recuerdos, The Most Human Human de Brian Christian. Y ahora de alguna forma continúo ese hilo, con una cita que voy a explorar en su totalidad más adelante: "Tendemos a subestimar el efecto de una tecnología a largo plazo." En ese momento, parecía que lo que hoy está a nuestro alcance se encontraba a décadas de distancia. Sin embargo, acá estamos, con una IA que hace que el Test de Turing parezca un desafío trivial (¿Puede una computadora engañar a un humano haciéndole creer que es humana?) y hace del Test de Lovelace una tarea diaria (¿Puede una computadora engañar a un humano en tareas creativas?). Si eso todavía no les voló la peluca, consideren: no está del todo claro por qué esta IA puede volar tan alto, aunque construimos el sistema y entendemos su funcionamiento técnico.



Entiendo que puede parecer extenso, pero pensá que cuando termines de leerlo ¡vas a saber lo más importante que dicen tres libros pedorros sobre la IA en general y sobre ChatGPT en particular! Bueno, en realidad uno es bastante bueno el libro de Ethan Mollick, Co-Intelligent. Un libro introductorio sobre cómo trabajar con IA, no es una guía detallada sobre prompts o un manual exhaustivo para maximizar herramientas específicas. Lo que ofrece es un debate integral y generalista sobre qué es esta nueva IA y cómo comenzar a integrarla en la vida cotidiana en varios roles.

Similar en tono, pero en general menos interesante, está el libro de Imre Barta, Introduction to ChatGPT: The AI Behind the Conversation. Este libro se destaca un poco más en explicar el linaje y el funcionamiento de ChatGPT, pero es bastante flojo en todo lo demás. Aún menos interesante es ChatGPT Decoded de David Wiens, que básicamente es un conjunto de listas y consejos básicos sobre los tipos de prompts y cómo combinarlos.

El libro de Mollick sobresale en provocar una reflexión amplia sobre todos los temas relacionados con la IA, lo que ya lo convierte en una lectura valiosa. La tesis central es que tenemos a disposición una herramienta que puede emular el pensamiento y la escritura humana, y que puede actuar como una co-inteligencia para mejorar (o reemplazar) nuestro trabajo.

Un poco de historia: algo breve, siguiendo el camino que Imre Barta traza en su libro:

En la década de 1950, se establecieron las bases formales de la inteligencia artificial, imposible hablar de esta época sin mencionar a figuras clave como Alan Turing. Él no solo fue un pionero en el ámbito de la computación, sino que también planteó preguntas fundamentales sobre la inteligencia artificial. En su célebre artículo "Computing Machinery and Intelligence", introdujo el famoso Test de Turing que mencioné al principio, todo un hito en el campo.

Por la década del ’60 se vieron los primeros intentos de máquinas conversacionales. Entre ellos, destacó ELIZA, desarrollada por el profesor del MIT Joseph Weizenbaum. ELIZA simulaba a una psicoterapeuta y, a pesar de su simplicidad, sorprendió a muchos con su capacidad para mantener diálogos aparentemente significativos. Las respuestas de estos primeros sistemas de IA eran, en gran medida, producto de su codificación, scripts predeterminados y sistemas basados en reglas. Estos sistemas no podían incorporar el contexto ni recordar interacciones pasadas, lo que llevaba a conversaciones fragmentadas y superficiales (y muchas veces sin sentido si ven mi post mencionado al principio The Avoiding Game).

Desarrolladores más ambiciosos y con más poder de cálculo a disposición crearon algoritmos más sofisticados. Así, la IA empezó a evolucionar más allá de los sistemas basados en reglas simples, el enfoque cambió de intentar imitar la conversación a tratar de comprender el input y generar respuestas en apariencia más humanas.

A pesar de que hubo avances significativos, los resultados siempre dejaron mucho que desear. La promesa de una IA que ofreciera conversación fluida y natural seguía siendo profundamente elusiva. En esta búsqueda los investigadores y científicos se dieron cuenta de que con expandir los sistemas basados en reglas o codificar más scripts no sería suficiente. El pensamiento y la conversación humana son intrínsecamente fluidos, llenos de matices, contexto y una vasta reserva de experiencias. Para crear una IA con tal profundidad, se requería una comprensión más profunda tanto de la cognición humana como de las estructuras subyacentes del lenguaje. Una buena lectura sobre este periodo es el libro de Kurzweil -How to Create a Mind.

El campo de las redes neuronales, inspirado en el funcionamiento del cerebro humano, comenzó a tomar protagonismo. Estas redes neuronales artificiales, interconectadas y en capas, fueron un punto de inflexión importante, permitieron un cambio de enfoque desde los modelos basados en reglas rígidas hacia sistemas que pudieran aprender de datos concretos, de manera análoga a como aprendemos de la experiencia. La innovación del "Deep Learning", donde las redes neuronales pueden tener múltiples capas (de ahí el término "Deep"), permitió a las máquinas procesar y generar lenguaje con una sofisticación creciente.

Con la convergencia de algoritmos mejorados, mayor capacidad de cómputo y la disponibilidad de inmensos repositorios de datos, comenzó a emerger una nueva generación de modelos de IA. Estos modelos, como los "Transformer", pueden manejar enormes cantidades de datos, mostrando una notable habilidad para considerar el contexto, generar respuestas relevantes e incluso combinar temas en forma original.

Estas redes neuronales, con su capacidad para aprender y adaptarse, imitan la estructura cerebral y se acercan a una forma de inteligencia artificial más profunda y versátil.

De que se trata todo esto?: Una nueva tecnología llamada Modelos de Lenguaje Extensos (LLMs, por sus siglas en inglés), que operan puramente sobre la predicción. Entrenadas con vastas cantidades de texto, estas IAs analizan un fragmento de texto y predicen el siguiente token, una palabra o parte de una palabra. En última instancia, eso es todo lo que hace ChatGPT, una especie de autocompletado elaborado. Nosotros proporcionamos un texto inicial, y la IA continúa, prediciendo el token más probable en la secuencia.

¿Que es la tokenización?: La tokenización es el proceso de descomponer el texto de entrada en unidades más pequeñas, conocidas como tokens, para que un modelo de IA pueda entender y procesar el lenguaje. Estos tokens pueden ser palabras, subpalabras o caracteres individuales. Este enfoque permite que el modelo maneje una amplia variedad de estructuras y matices lingüísticos, y proporciona flexibilidad para interpretar y generar texto novedoso, incluso en múltiples idiomas. La tokenización es esencial para convertir el lenguaje humano en un formato que los modelos de IA puedan utilizar para generar respuestas coherentes y contextualmente apropiadas.

ChatGPT en particular (diseñados por OpenAI) está basado en la arquitectura "Transformer". El "GPT" en su nombre significa "Generative Pre-trained Transformer", que son sus características fundamentales. "Generative" porque generar texto. "Pre-trained" enfatiza que antes de que el modelo interactúe con los usuarios, pasa por un entrenamiento, absorbiendo vastas cantidades de texto para comprender y producir lenguaje humano. "Transformer" hace mención a la arquitectura subyacente, un enfoque revolucionario en el aprendizaje profundo que permite al modelo manejar grandes secuencias de datos, haciéndolo especialmente adecuado para tareas lingüísticas.

Transformer??? Ok, eso de “Transformer” amerita un poco más de explicación… esta arquitectura es la piedra angular de los nuevos modelos de IA, fue diseñada para abordar un desafío persistente en el procesamiento del lenguaje: la necesidad de manejar datos secuenciales de manera eficaz. En contraste con los enfoques tradicionales como las Redes Neuronales Recurrentes (RNNs) y las Redes de Memoria a Largo y Corto Plazo (LSTMs), que procesaban secuencias paso a paso, los "Transformer" adoptaron un mecanismo que permitía procesar la totalidad de la entrada simultáneamente. Esta capacidad de procesamiento paralelo mejoró la eficiencia y revolucionó la capacidad del modelo para manejar relaciones contextuales en el lenguaje.

Para hacerlo este modelo utiliza un mecanismo de "self-attention" que le permite ponderar la importancia de diferentes palabras en una secuencia en relación con una palabra específica que está procesando. Imre lo explica así: “For instance, when generating a response or prediction for the word "bank" in the sentence "I went to the river bank," the self-attention mechanism enables the model to give higher importance or "attention" to the word "river" to infer the correct context, differentiating it from a financial institution.”

Esta capacidad le permite al modelo conectar palabras importantes sin importar que tan lejos estén en una oración, algo fundamental para la comprensión del contexto, y en general para las tareas de procesamiento del lenguaje.

A esto se suma una arquitectura está en capas, con múltiples mecanismos de atención apilados, lo que permite al modelo aprender y representar relaciones y patrones cada vez más complejos en los datos. 

Para las imágenes, operan principios similares. Estos modelos se entrenan analizando numerosas imágenes con descripciones textuales. El modelo aprende a asociar palabras con conceptos visuales. Después, a través de un proceso llamado difusión, el modelo refina gradualmente, partiendo de ruido aleatorio, una imagen clara basada en la descripción que le dimos.

Continuando con lo que veníamos hablando: Los resultados de usar estas IAs pueden ser impresionantes, pero son también de alguna forma ilusorios. En el sentido de que generan la ilusión de que detrás de los resultados hay una mente racional pensante, pero en realidad sabemos que no es así. Por ahora, lo que hay es un sistema experto con un código sofisticado y un entrenamiento muy completo. Como remarca Imre, la IA “It doesn't "know" in the human sense of the word. Instead, it reflects the vast amounts of information it has been trained on, making it a mirror to the digital knowledge of our age”

Por ejemplo, Mollick enfatiza repetidamente que los LLMs están diseñados para complacer a los usuarios, no para garantizar la precisión en términos de veracidad de lo que producen, de ahí el riesgo de "alucinaciones" y "confabulaciones". Los LLMs son expertos en generar respuestas plausibles, pero a menudo sutilmente incorrectas. Este es un problema significativo, y hay un debate considerable sobre si es solucionable con los enfoques actuales de ingeniería de IA. Para peor, incluso habiendo detectado un error, las IAs pueden justificar respuestas incorrectas, potencialmente convenciéndote de que la respuesta es “correcta.”


Una pausa para hacer una reflexión. Habiendo leído The Intelligence Trap de David Robson y The Righteous Mind de Jonathan Haidt, no puedo dejar de asociar este comportamiento con un fenómeno habitual de la mente humana: la racionalización y justificación a posteriori. Si profundizo aún más y añado How to Create a Mind de Kurzweil y Consciousness Explained de Daniel Dennett, no sé qué tan lejos estamos de una Consciencia Artificial. Después de todo, para aquellos no-dualistas que creemos que la consciencia es un fenómeno emergente de un sistema complejo (el cerebro), una red neuronal lo suficientemente amplia no parece un medio tan alejado sobre el cual un fenómeno emergente similar pueda desarrollarse… o quizás aquí aplica la primera parte de la cita que mencioné al principio: “Tendemos a sobreestimar el efecto de una tecnología a corto plazo.”


Continuando con los argumentos de Mollick, pasa a mencionar los riesgos asociados con la IA, desde el hipotético IA-Overlord hasta riesgos más concretos e inmediatos que tenemos que debatir. También aborda el problema de alineación (interesante, aunque no me voy a explayar en esto) y explora los beneficios potenciales.

Una preocupación mayoritaria es el impacto en los empleos. Los LLMs son excelentes para escribir, pero la tecnología subyacente también permite que la IA cree arte, música y video. No es difícil argumentar que son los trabajos con tareas más creativas, en lugar de las más repetitivas, los que pueden verse más afectados por esta nueva ola de IAs. Es una situación incómoda para muchos, y despierta la pregunta: ¿Cómo puede la IA, una máquina, generar algo nuevo y creativo? Según Mollick, el problema es que a menudo confundimos novedad con originalidad. Las ideas nuevas no salen del éter; se basan en conceptos preexistentes. En palabras de Imra: "Misunderstanding the model's creativity is another area where users occasionally trip up. While ChatGPT can generate original content based on patterns it has seen, this isn't 'creativity' in the human sense. For instance, when crafting a story or a song lyric, it's drawing from myriad existing phrases and structures to produce something new, but it doesn't 'feel' or 'intend' in the way humans do. Recognizing this distinction ensures that users appreciate the model's capabilities without overestimating its genuine originality."


En cuanto a posibles escenarios en el lugar de trabajo, el peor es, sin duda, si las organizaciones utilizan los LLMs para potenciar el control, creando un panóptico aún más exhaustivo: cada aspecto del trabajo monitoreado y controlado por IAs. Si la historia sirve de precedente, este es un camino muy probable para muchas empresas. Por otro lado, una alternativa más utópica es que los LLMs nos ayuden a aceptar algo imposible de ignorar: gran parte de nuestro trabajo es aburrido y no particularmente estimulante. Tal vez, reconociendo esto, podamos dirigir nuestros esfuerzos a mejorar la experiencia humana en el trabajo (una nueva hola de "enriquecer el puesto de trabajo" seguramente llegue a la literatura de gestión).


Es crucial considerar que las IAs están entrenadas en el vasto patrimonio cultural de la humanidad. Para maximizar el beneficio de esta herramienta, es útil estar bien informado sobre este acervo cultural. Esto quiere decir que aquellos que sepan crear prompts inteligentes y tengan una comprensión profunda de la cultura en la que la IAs ha sido entrenada obtendrán los mejores resultados. Las IAs responden a nuestras consultas con texto, imágenes o sonidos que reflejan la combinación de nuestros prompts y la base de datos con la que fueron entrenadas. Por tanto, la forma “inteligente” de mejorar la calidad de nuestras preguntas es enriquecer nuestro lenguaje y conocimientos culturales, para poder explorar conexiones inusuales y vincular temas que quizá no se habían relacionado antes.


Si trabajar con IA se convierte en una forma de expertise, donde algunas personas sobresalgan por su capacidad para generar mejores resultados, es posible que los generalistas, como yo, descubran una ventaja inesperada. Sin embargo, es cuestionable que esto sea muy duradero, ya que seguramente las IAs van a mejorar en guiarnos a conseguir mejores resultados sin importar mucho nuestras capacidades. Ser bueno haciendo prompts va a perder relevancia en el futuro.

Tipos de prompts (preguntas), siguiendo la línea planteada por Wiens, revisada por ChatGPT:

Prompts Basadas en Hechos: Fundamentales para obtener conocimientos

  • Conocimiento GeneralEjemplos ¿Qué es?, ¿Quién es?, ¿Dónde está?
  • ProcesoEjemplos ¿Cómo funciona?, ¿Cuáles son los pasos para?
  • Comparación: Ejemplos ¿Cuál es la diferencia entre?, ¿En qué se parecen y en qué difieren?, ¿Cuáles son los beneficios y desventajas de?
  • Cronología: Ejemplos ¿Cuál es la historia de?, ¿Cuáles fueron los eventos clave en?, ¿Cuándo ocurrió?

Prompts Basadas en Opiniones: diseñadas para obtener respuestas subjetivas,

  • EvaluaciónEjemplos ¿Qué opinas sobre?, ¿Cuáles son los pros y contras de?
  • PredicciónEjemplos ¿Cuáles son algunos desarrollos futuros potenciales en?, ¿Cómo podría cambiar [tema] en el próximo [período]?
  • RecomendaciónEjemplos ¿Cuáles son algunas estrategias para?, ¿Cómo puedo mejorar mi?
  • Escenario HipotéticoEjemplos ¿Qué pasaría si?, Imagina que..., ¿Cómo sería diferente si?, ¿Qué sucedería si?

Prompts Creativos: Para romper el hielo de la página en blanco

  • Narración de HistoriasEjemplos - Escribe una historia corta sobre..., Continúa esta historia.
  • PoesíaEjemplos - Componer poemas sobre un tema específico.
  • Brain Storming: Ejemplos: Generar listas de ideas, conceptos o elementos relacionados con un tema específico.
  • Role Playing: Ejemplos:  Imagina que eres..., Si fueras..., Como [personaje/rol], ¿cómo actuarías?, Escribe un diálogo entre...

Humans, walking and talking bags of water and trace chemicals that we are, have managed to convince well-organized sand to pretend to think like us

Algunas combinaciones que Wiens pone en su libro:

Cronología + Comparación: “Explain the history of the printing press and discuss the advantages and disadvantages of moving toward digital forms of communication, and suggest ways in which the printed word may attempt to retain relevance in a changing world.”

Narración + Conocimiento General: “Write a 700 word short story about Care Bears in space that explains the science behind climate change and its potential effects on the world and have the Care Bears save the day.”

Poema + Role Playing + Predicción + Evaluación: “Write a poem, in the style of Edgar Allan Poe, that discusses potential future developments in space travel. Include specific examples of the benefits and perils of that potential future development in the poem.”

Y los cinco consejos evidentes:

  • Ser específico: Indicar claramente el tema, concepto o asunto para guiar la respuesta.
  • Hacer preguntas abiertas: Evitar preguntas de sí/no para fomentar respuestas más detalladas.
  • Combinar categorías: Mezclar prompts basadas en hechos, opiniones y creatividad.
  • Experimentar: Modificar y ajustar los prompts para adaptarlas mejor a lo buscado.
  • Probar de nuevo: Eso, probar de nuevo.

La exploración de Mollick sobre los beneficios de esta tecnología destaca la liberación del potencial creativo. Muchas personas desean expresarse y sienten que no tienen herramientas para hacerlo. La IA puede usarse para canalizar esta energía creativa frustrada, permitiéndonos hacer cosas que sin ella serían imposibles. Por supuesto, esto también devalúa la labor de muchos artistas que ahora ven mucho de su trabajo potencial o actualmente reemplazado por resultados obtenidos de la IA. Una breve aclaración de carácter personal: la IA no pone en peligro el arte como forma de expresión personal; lo que pone en peligro es el comercio de la habilidad técnica para producir material “artístico”, como una ilustración para la tapa de un libro o un álbum musical. Pero esto no quita que la IA puede ayudarnos a encontrar nuevas formas de expresión y alcanzar un potencial previamente fuera de nuestro alcance.


Mollick es muy conciso al encontrar 4 principios como consejos generales sobre cómo utilizar estas nuevas herramientas:

1.      Siempre invitar a la IA: Aceptar el potencial de la IA en todos los esfuerzos. La experimentación con la IA es esencial para comprender sus capacidades y limitaciones. Al volvernos más competentes en integrar la IA en nuestras tareas, podemos descubrir formas de innovar. La IA puede aumentar las tareas profesionales y enriquecer la toma de decisiones al ofrecer nuevas perspectivas y contrarrestar algunos sesgos habituales.

2.      Ser el humano en la relación (be the human in the loop): Mantener la supervisión y el compromiso en las interacciones con la IA. Verificar los resultados, identificar posibles errores como “alucinaciones” o “desinformación”, y guiar a la IA hacia resultados confiables. Este enfoque está destinado a mejorar la colaboración humano-IA, proteger contra la dependencia excesiva de la tecnología y promover el uso responsable.

3.      Tratar a la IA como a una persona (decirle qué tipo de persona es): Asignar una personalidad a la IA para guiar sus respuestas y adaptarlas a tus necesidades. Este enfoque fomenta que la IA proporcione soluciones personalizadas y creativas.

4.      Asumir que esta es la peor IA que vas a usar: Reconocer que la IA de hoy representa solo una fracción de lo que las futuras iteraciones lograrán. Seguramente habrá mejoras en funcionalidad, usabilidad e integración, por lo que es necesario explorar regularmente los límites de lo que la IA puede y no puede hacer.


Imre plantea un conjunto de buenas prácticas aclarando que aunque el modelo es intuitivo y fácil de usar, sacarle el máximo provecho implica reconocer sus fortalezas, ser consciente de sus limitaciones y entender cómo enmarcar eficazmente tus prompts. Según él la claridad es crucial. Dado que ChatGPT procesa la información en función de patrones y no posee una comprensión contextual real, plantear preguntas claras y directas puede mejorar significativamente la precisión y relevancia de los resultados.


La experimentación es clave, y vale la pena probar reformulando el prompt y proporcionando más contexto. Este enfoque iterativo ayuda a afinar la interacción y permite a los usuarios comprender mejor las sutilezas del modelo. Y haciendo eco del segundo principio de Mollick, Imre refuerza que los usuarios deben abordar la información con una mentalidad crítica, verificando con fuentes confiables cuando sea necesario.


Mollick dice que no hay una guía definitiva sobre cómo usar la IA; "We’re all learning by experimenting, sharing prompts as if they were magical incantations rather than regular software code." Wiens por su parte basa buena parte de su libro alrededor de los prompts, según el estos son los catalizadores que moldean las respuestas, proporcionando contexto y guiando el curso de la conversación. "Think of prompts as a bridge, connecting the vast expanse of human curiosity to the colossal database nested within ChatGPT’s framework." Ver el apartado de tipos de prompts.


Entre las posibles malas prácticas, destaca la dependencia. Enfrentados a la tiranía de la página en blanco, la gente va a recurrir a las IAs para comenzar ensayos, correos electrónicos, informes o documentos. Las implicaciones de que la IA escriba nuestros primeros borradores son significativas. Este es el camino para empezar a perder nuestra creatividad y originalidad, reduciendo la calidad y profundidad de nuestro pensamiento y razonamiento. Partir de un borrador generado por IA influye en nuestro trabajo futuro, incluso si los reescribimos por completo. En definitiva, podemos perder oportunidades de aprender de errores, desarrollar nuestro estilo y desarrollar pensamiento crítico y reflexivo.


El mayor riesgo es usar la IA como un sustituto del esfuerzo humano, no como un complemento de nuestras habilidades. Este es el punto clave del Principio 2 de Mollick: (be the human in the loop). Esto significa usar la IA para obtener ideas y explorar diferentes soluciones, no para que haga por nosotros todo el trabajo y nos ofrezca la única solución. O cómo lo expresa Imra: "While these applications paint a promising picture, it's essential to recognize that ChatGPT, like any tool, is most effective when used judiciously. Its strength lies in complementing human skills, not replacing them. The real magic unfolds when human expertise, creativity, and intuition meld with ChatGPT's computational prowess, creating synergies that propel industries forward, enhance user experiences, and carve new pathways in the ever-evolving dance of human-machine collaboration."


A juzgar por la situación actual y la velocidad de implementación (no han pasado dos años desde que estuvo disponible la primera versión de acceso público de Chat-GPT), serán pocos los trabajos que no se superpongan con las capacidades de las IAs. Esta (r)evolución de la IA en el lugar de trabajo difiere de otras revoluciones de automatización anteriores, que usualmente se aplicaron a trabajos repetitivos y peligrosos. Esta vez, las IAs se superponen con trabajos bien remunerados, creativos y de alto nivel educativo. Los pocos trabajos que por ahora parecen seguros y fuera del alcance de la IA son aquellos que dependen fuertemente del aspecto físico (bailarines, atletas, operadores de maquinaria, etc). Esto básicamente porque, por ahora, las IAs son incorpóreas. El auge de la IA está ocurriendo más rápido que la evolución práctica de la robótica, otra cosa que la ciencia ficción de los años 50 y 60 no logró acertar (sin contar los autos voladores y las colonias marcianas y lunares). Ojo, esto puede cambiar en breve porque muchos investigadores están tratando de resolver problemas de robótica de larga data con LLMs con bastante éxito. Los LLMs facilitan la programación de robots que aprenden de su entorno.


Volviendo sobre el principio 2 (be the human in the loop), la supervisión humana sigue siendo crucial para detectar errores y abordar problemas éticos. Imre también advierte el problema de confundir las respuestas de IAs con una verdad revelada. El uso indiscriminado e irresponsable de la IA puede llevar a varios resultados no deseados, como la discriminación, la desinformación o procesos inadecuados de toma de decisiones. Las implicaciones éticas de la IA abarcan temas como la privacidad, la responsabilidad y el impacto en el trabajo, subrayando la necesidad de una supervisión y orientación humana continua.


Mollick explora las tareas en las que la IA sobresale y aquellas que podríamos preferir dejar fuera de su alcance por razones personales o éticas. En el libro, describe cómo utilizó la IA para avanzar en su escritura sin alterar su estilo, ayudándole a mantener el impulso y proporcionándole ideas que quizás no habría concebido por sí mismo.


El uso de la IA como una co-inteligencia, como hizo Mollick al escribir su libro, es donde la IA resulta más valiosa. El libro fomenta jugar con la IA para alcanzar esta competencia. Se empieza invitando a la IA en todo para aprender sus capacidades. Luego, se delegan tareas tediosas pero que se pueden verificar fácilmente, como escribir informes sin importancia o correos electrónicos de baja prioridad. Gradualmente, se hace una transición hacia un uso colaborativo, utilizando la herramienta para superar obstáculos y abordar tareas complicadas. A este punto es al que quiere llegar Mollick que no es muy diferente a lo que plantea en su libro Imre (cuatro párrafos arriba), a esto es a lo que él llama co-inteligencia.


Mientras Mollick explora el uso de la IA como tutor, no pude evitar pensar en TheDiamond Age de Neal Stephenson. Los LLMs de hoy pueden cumplir fácilmente el papel del Young Lady’s Illustrated Primer, y no sorprende que un tutor personalizado, poderoso, adaptable y económico pueda tener un impacto gigantesco en la educación.



Clave en esta (r)evolución es que la IA tiene el efecto nivelador en las capacidades. Esto significa que, si no eras muy bueno escribiendo, generando ideas, analizando o realizando cualquier otra tarea semi-profesional, probablemente descubras que, con la ayuda de una IA, podés ser más que competente. En promedio, una persona cualquiera trabajando con una co-inteligencia de IA supera a la mayoría, excepto a los más capaces trabajando sin IA.


Mollick dice: "Hemos creado una mente alienígena extraña, una que no es consciente pero puede fingirlo notablemente bien. Está entrenada en los vastos archivos del conocimiento humano. Puede pasar pruebas y actuar creativamente, con el potencial de cambiar cómo trabajamos y aprendemos; también inventa información regularmente. Ya no podemos confiar en lo que vemos, escuchamos o leemos que no fue creado por IA. Todo eso ya sucedió. Los humanos, bolsas andantes y parlantes de agua y químicos que somos, hemos logrado convencer a arena bien organizada de que finja pensar como nosotros."


Estas palabras podrían haber sido extraídas de una novela cyberpunk de los años 90. Un poco esto me hace sentir que estoy viviendo en esos extraños sueños de neón de mi vida adolescente, entre animes, películas y juegos que coqueteaban con algunas ideas que hoy tenemos frente a nosotros. Mucho del mundo físico que me rodea no coincide con esas imágenes, otra evidencia de que la revolución en la información supera con creces el avance material del mundo físico.


En una nota más cercana a la conciencia, por alienígenas que sean las IAs, también son profundamente humanas. Están entrenadas en nuestra historia cultural y, mediante un refuerzo humano, se las alinea con nuestros objetivos. Llevan nuestros sesgos y son nuestro reflejo. En muchos sentidos, la magia de las IAs es que pueden convencernos (aun cuando sabemos que no) de que en algún sentido estamos hablando con otra mente. Y, al igual que ocurre con nuestras propias mentes, no podemos explicar completamente la complejidad de cómo operan los LLMs.

El problema de los sesgos en la IA, tema en el que Imre se explaya un poco más que Mollick:

Las IA reflejan en sus respuestas el contenido de los datos en los que fueron entrenadas, no es una gran sorpresa que terminen siendo un espejo de los tipos sesgos que encontramos en general en la mayoría de las personas. Esto plantea algunas preguntas sobre temas como la equidad, la representación y el impacto social de la IA. Cuando es entrenada la IA no sólo absorbe hechos, lenguajes y conceptos, sino también los prejuicios, estereotipos y sesgos presentes en estos textos. El modelo es tan bueno como los datos en los que fue entrenado, y si los datos llevan sesgos, el modelo va a tender a perpetuarlos.

Un riesgo no menor es que los sesgos en la IA amplifiquen los prejuicios existentes. Abordar el tema no es solo un desafío técnico, sino también profundamente ético. Requiere una introspección sobre los valores que queremos que nuestros sistemas de IA sostengan y cómo imaginamos su papel en la configuración de las narrativas sociales. Esto implica controlar el funcionamiento de los modelos, refinando los datos de entrenamiento y asegurar una representación diversa en los procesos de desarrollo y evaluación. La retroalimentación de los usuarios es crucial, para sacar a luz cosas que puedan haber pasado.

Atacar este problema plantea viejos debates respecto a la libertad de expresión y la censura, con nuevos matices interesantes… en definitiva si no le damos un contenido a la IA para que no tome de éste un sesgo, ¿lo estamos censurando?

Como se ha explorado muchas veces en la ciencia ficción, a medida que avanzamos hacia un futuro caracterizado por una mayor sofisticación tecnológica, nos encontramos contemplando viejas preguntas profundamente humanas: identidad, sentido y significado. Esta nueva tecnología es un espejo que refleja nuestras mejores y peores cualidades. Lo que decidamos en los próximos años va a moldear en qué se convierta la IA del futuro, y eso impactará y reflejará sobre nosotros mismos. Este es el tipo de cosas no lineales que cualquiera mínimamente versado en dinámica no lineal sabe que realmente es imposible de predecir. Estamos oficialmente en territorio de ciencia ficción, el futuro fue ayer y, completando la cita que ya usé dos veces: "Tendemos a sobreestimar el efecto de una tecnología a corto plazo y subestimar su impacto a largo plazo."