En abril
de 2015, hace casi una década, escribí The Avoiding Game, y unos meses
más tarde, íntimamente relacionado, Inteligencia Artificial y la chispa dela vida, sobre un libro que confieso que no me dejó muchos recuerdos, The
Most Human Human de Brian Christian. Y ahora de alguna forma continúo ese
hilo, con una cita que voy a explorar en su totalidad más adelante:
"Tendemos a subestimar el efecto de una tecnología a largo plazo." En
ese momento, parecía que lo que hoy está a nuestro alcance se encontraba a
décadas de distancia. Sin embargo, acá estamos, con una IA que hace que el Test
de Turing parezca un desafío trivial (¿Puede una computadora engañar a un
humano haciéndole creer que es humana?) y hace del Test de Lovelace una tarea diaria
(¿Puede una computadora engañar a un humano en tareas creativas?). Si eso
todavía no les voló la peluca, consideren: no está del todo claro por qué esta
IA puede volar tan alto, aunque construimos el sistema y entendemos su funcionamiento
técnico.

Entiendo que puede parecer extenso, pero pensá que cuando termines de leerlo ¡vas a saber lo más importante que dicen tres libros pedorros sobre la IA en general y sobre ChatGPT en particular! Bueno, en realidad uno es bastante bueno el libro de Ethan Mollick, Co-Intelligent. Un libro introductorio sobre cómo trabajar con IA, no es una guía detallada sobre prompts o un manual exhaustivo para maximizar herramientas específicas. Lo que ofrece es un debate integral y generalista sobre qué es esta nueva IA y cómo comenzar a integrarla en la vida cotidiana en varios roles.
Similar en tono, pero en general menos interesante, está el libro de Imre Barta, Introduction to ChatGPT: The AI Behind the Conversation. Este libro se destaca un poco más en explicar el linaje y el funcionamiento de ChatGPT, pero es bastante flojo en todo lo demás. Aún menos interesante es ChatGPT Decoded de David Wiens, que básicamente es un conjunto de listas y consejos básicos sobre los tipos de prompts y cómo combinarlos.
El libro de Mollick sobresale en provocar una reflexión amplia sobre todos los temas relacionados con la IA, lo que ya lo convierte en una lectura valiosa. La tesis central es que tenemos a disposición una herramienta que puede emular el pensamiento y la escritura humana, y que puede actuar como una co-inteligencia para mejorar (o reemplazar) nuestro trabajo.
Un poco de historia: algo breve, siguiendo el camino
que Imre Barta traza en su libro:
En la
década de 1950, se establecieron las bases formales de la inteligencia
artificial, imposible hablar de esta época sin mencionar a figuras clave como
Alan Turing. Él no solo fue un pionero en el ámbito de la computación, sino
que también planteó preguntas fundamentales sobre la inteligencia artificial.
En su célebre artículo "Computing Machinery and Intelligence",
introdujo el famoso Test de Turing que mencioné al principio, todo un hito en
el campo.
Por la década
del ’60 se vieron los primeros intentos de máquinas conversacionales. Entre
ellos, destacó ELIZA, desarrollada por el profesor del MIT Joseph Weizenbaum.
ELIZA simulaba a una psicoterapeuta y, a pesar de su simplicidad, sorprendió a
muchos con su capacidad para mantener diálogos aparentemente significativos. Las
respuestas de estos primeros sistemas de IA eran, en gran medida, producto de
su codificación, scripts predeterminados y sistemas basados en reglas. Estos
sistemas no podían incorporar el contexto ni recordar interacciones pasadas, lo
que llevaba a conversaciones fragmentadas y superficiales (y muchas veces sin
sentido si ven mi post mencionado al principio The Avoiding Game).
Desarrolladores
más ambiciosos y con más poder de cálculo a disposición crearon algoritmos más
sofisticados. Así, la IA empezó a evolucionar más allá de los sistemas basados
en reglas simples, el enfoque cambió de intentar imitar la conversación a tratar
de comprender el input y generar respuestas en apariencia más humanas.
A pesar
de que hubo avances significativos, los resultados siempre dejaron mucho que
desear. La promesa de una IA que ofreciera conversación fluida y natural seguía
siendo profundamente elusiva. En esta búsqueda los investigadores y científicos
se dieron cuenta de que con expandir los sistemas basados en reglas o codificar
más scripts no sería suficiente. El pensamiento y la conversación humana son
intrínsecamente fluidos, llenos de matices, contexto y una vasta reserva de
experiencias. Para crear una IA con tal profundidad, se requería una
comprensión más profunda tanto de la cognición humana como de las estructuras
subyacentes del lenguaje. Una buena lectura sobre este periodo es el libro de Kurzweil -How to Create a Mind.
El campo
de las redes neuronales, inspirado en el funcionamiento del cerebro humano,
comenzó a tomar protagonismo. Estas redes neuronales artificiales,
interconectadas y en capas, fueron un punto de inflexión importante, permitieron
un cambio de enfoque desde los modelos basados en reglas rígidas hacia sistemas
que pudieran aprender de datos concretos, de manera análoga a como aprendemos de
la experiencia. La innovación del "Deep Learning", donde las redes neuronales pueden
tener múltiples capas (de ahí el término "Deep"), permitió a las
máquinas procesar y generar lenguaje con una sofisticación creciente.
Con la
convergencia de algoritmos mejorados, mayor capacidad de cómputo y la
disponibilidad de inmensos repositorios de datos, comenzó a emerger una nueva
generación de modelos de IA. Estos modelos, como los "Transformer", pueden
manejar enormes cantidades de datos, mostrando una notable habilidad para considerar
el contexto, generar respuestas relevantes e incluso combinar temas en forma
original.
Estas
redes neuronales, con su capacidad para aprender y adaptarse, imitan la
estructura cerebral y se acercan a una forma de inteligencia artificial más
profunda y versátil.
De que se trata todo esto?: Una nueva tecnología llamada
Modelos de Lenguaje Extensos (LLMs, por sus siglas en inglés), que operan
puramente sobre la predicción. Entrenadas con vastas cantidades de texto, estas
IAs analizan un fragmento de texto y predicen el siguiente token, una palabra o
parte de una palabra. En última instancia, eso es todo lo que hace ChatGPT, una
especie de autocompletado elaborado. Nosotros proporcionamos un texto inicial,
y la IA continúa, prediciendo el token más probable en la secuencia.
¿Que es
la tokenización?: La tokenización es el proceso de descomponer el texto de
entrada en unidades más pequeñas, conocidas como tokens, para que un modelo de
IA pueda entender y procesar el lenguaje. Estos tokens pueden ser palabras,
subpalabras o caracteres individuales. Este enfoque permite que el modelo
maneje una amplia variedad de estructuras y matices lingüísticos, y proporciona
flexibilidad para interpretar y generar texto novedoso, incluso en múltiples
idiomas. La tokenización es esencial para convertir el lenguaje humano en un
formato que los modelos de IA puedan utilizar para generar respuestas
coherentes y contextualmente apropiadas.
ChatGPT
en particular (diseñados por OpenAI) está basado en la arquitectura "Transformer". El "GPT" en su nombre significa "Generative
Pre-trained Transformer", que son sus características fundamentales.
"Generative" porque generar texto. "Pre-trained" enfatiza
que antes de que el modelo interactúe con los usuarios, pasa por un entrenamiento,
absorbiendo vastas cantidades de texto para comprender y producir lenguaje
humano. "Transformer" hace mención a la arquitectura subyacente, un
enfoque revolucionario en el aprendizaje profundo que permite al modelo manejar
grandes secuencias de datos, haciéndolo especialmente adecuado para tareas
lingüísticas.

Transformer??? Ok, eso
de “Transformer” amerita un poco más de explicación… esta arquitectura es la piedra angular de los nuevos modelos de IA, fue diseñada para
abordar un desafío persistente en el procesamiento del lenguaje: la necesidad
de manejar datos secuenciales de manera eficaz. En contraste con los enfoques
tradicionales como las Redes Neuronales Recurrentes (RNNs) y las Redes de
Memoria a Largo y Corto Plazo (LSTMs), que procesaban secuencias paso a paso,
los "Transformer" adoptaron un mecanismo que permitía procesar la totalidad de
la entrada simultáneamente. Esta capacidad de procesamiento paralelo mejoró la
eficiencia y revolucionó la capacidad del modelo para manejar relaciones
contextuales en el lenguaje.
Para
hacerlo este modelo utiliza un mecanismo de "self-attention" que le permite
ponderar la importancia de diferentes palabras en una secuencia en relación con
una palabra específica que está procesando. Imre lo explica así: “For instance, when generating a
response or prediction for the word "bank" in the sentence "I
went to the river bank," the self-attention mechanism enables the model to
give higher importance or "attention" to the word "river"
to infer the correct context, differentiating it from a financial institution.”
Esta
capacidad le permite al modelo conectar palabras importantes sin importar que
tan lejos estén en una oración, algo fundamental para la comprensión del
contexto, y en general para las tareas de procesamiento del lenguaje.
A esto se
suma una arquitectura está en capas, con múltiples mecanismos de atención
apilados, lo que permite al modelo aprender y representar relaciones y patrones
cada vez más complejos en los datos.
Para las
imágenes, operan principios similares. Estos modelos se entrenan analizando
numerosas imágenes con descripciones textuales. El modelo aprende a asociar
palabras con conceptos visuales. Después, a través de un proceso llamado
difusión, el modelo refina gradualmente, partiendo de ruido aleatorio, una
imagen clara basada en la descripción que le dimos.
Continuando con lo que veníamos hablando: Los resultados de usar estas IAs
pueden ser impresionantes, pero son también de alguna forma ilusorios.
En el sentido de que generan la ilusión de que detrás de los
resultados hay una mente racional pensante, pero en realidad sabemos que no es así.
Por ahora, lo que hay es un sistema experto con un código sofisticado y un
entrenamiento muy completo. Como remarca Imre, la IA “It doesn't
"know" in the human sense of the word. Instead, it reflects the vast
amounts of information it has been trained on, making it a mirror to the
digital knowledge of our age”
Por
ejemplo, Mollick enfatiza repetidamente que los LLMs están diseñados para
complacer a los usuarios, no para garantizar la precisión en términos de
veracidad de lo que producen, de ahí el riesgo de "alucinaciones" y
"confabulaciones". Los LLMs son expertos en generar respuestas
plausibles, pero a menudo sutilmente incorrectas. Este es un problema significativo,
y hay un debate considerable sobre si es solucionable con los enfoques actuales
de ingeniería de IA. Para peor, incluso habiendo detectado un error, las IAs
pueden justificar respuestas incorrectas, potencialmente convenciéndote de que
la respuesta es “correcta.”
Una pausa
para hacer una reflexión. Habiendo leído The Intelligence Trap de
David Robson y The Righteous Mind de Jonathan Haidt, no puedo dejar de asociar este
comportamiento con un fenómeno habitual de la mente humana: la racionalización
y justificación a posteriori. Si profundizo aún más y añado How to Create a
Mind de Kurzweil y Consciousness Explained de Daniel Dennett, no sé qué tan
lejos estamos de una Consciencia Artificial. Después de todo, para aquellos
no-dualistas que creemos que la consciencia es un fenómeno emergente de un
sistema complejo (el cerebro), una red neuronal lo suficientemente amplia no
parece un medio tan alejado sobre el cual un fenómeno emergente similar pueda
desarrollarse… o quizás aquí aplica la primera parte de la cita que mencioné al
principio: “Tendemos a sobreestimar el efecto de una tecnología a corto plazo.”

Continuando con los argumentos de
Mollick, pasa a mencionar los riesgos asociados con la IA, desde el hipotético
IA-Overlord hasta riesgos más concretos e inmediatos que tenemos que debatir.
También aborda el problema de alineación (interesante, aunque no me voy a
explayar en esto) y explora los beneficios potenciales.
Una
preocupación mayoritaria es el impacto en los empleos. Los LLMs son excelentes
para escribir, pero la tecnología subyacente también permite que la IA cree
arte, música y video. No es difícil argumentar que son los trabajos con tareas
más creativas, en lugar de las más repetitivas, los que pueden verse más afectados
por esta nueva ola de IAs. Es una situación incómoda para muchos, y despierta la
pregunta: ¿Cómo puede la IA, una máquina, generar algo nuevo y creativo? Según
Mollick, el problema es que a menudo confundimos novedad con originalidad. Las
ideas nuevas no salen del éter; se basan en conceptos preexistentes. En palabras de Imra: "Misunderstanding the model's creativity is another area where users occasionally trip up. While ChatGPT can generate original content based on patterns it has seen, this isn't 'creativity' in the human sense. For instance, when crafting a story or a song lyric, it's drawing from myriad existing phrases and structures to produce something new, but it doesn't 'feel' or 'intend' in the way humans do. Recognizing this distinction ensures that users appreciate the model's capabilities without overestimating its genuine originality."
En cuanto
a posibles escenarios en el lugar de trabajo, el peor es, sin duda, si las
organizaciones utilizan los LLMs para potenciar
el control, creando un panóptico aún más exhaustivo: cada aspecto del trabajo
monitoreado y controlado por IAs. Si la historia sirve de precedente, este es un
camino muy probable para muchas empresas. Por otro lado, una alternativa más
utópica es que los LLMs nos ayuden a aceptar algo imposible de ignorar: gran
parte de nuestro trabajo es aburrido y no particularmente estimulante. Tal vez,
reconociendo esto, podamos dirigir nuestros esfuerzos a mejorar la experiencia
humana en el trabajo (una nueva hola de "enriquecer el puesto de trabajo" seguramente llegue a la literatura de gestión).
Es crucial considerar que las IAs están entrenadas en el vasto patrimonio
cultural de la humanidad. Para maximizar el beneficio de esta herramienta, es
útil estar bien informado sobre este acervo cultural. Esto quiere decir que
aquellos que sepan crear prompts inteligentes y tengan una comprensión profunda
de la cultura en la que la IAs ha sido entrenada obtendrán los mejores
resultados. Las IAs responden a nuestras consultas con texto, imágenes o sonidos
que reflejan la combinación de nuestros prompts y la base de datos con la que
fueron entrenadas. Por tanto, la forma “inteligente” de mejorar la calidad de
nuestras preguntas es enriquecer nuestro lenguaje y conocimientos culturales,
para poder explorar conexiones inusuales y vincular temas que quizá no se
habían relacionado antes.
Si trabajar con IA se convierte en una forma de expertise, donde algunas
personas sobresalgan por su capacidad para generar mejores resultados, es
posible que los generalistas, como yo, descubran una ventaja inesperada. Sin
embargo, es cuestionable que esto sea muy duradero, ya que seguramente las IAs van a mejorar en guiarnos a conseguir mejores resultados sin importar mucho
nuestras capacidades. Ser bueno haciendo prompts va a perder relevancia en el
futuro.
Tipos de prompts (preguntas), siguiendo la línea
planteada por Wiens, revisada por ChatGPT:
Prompts Basadas en Hechos: Fundamentales para obtener conocimientos
- Conocimiento General: Ejemplos ¿Qué es?, ¿Quién es?, ¿Dónde está?
- Proceso: Ejemplos ¿Cómo funciona?, ¿Cuáles son los pasos para?
- Comparación: Ejemplos ¿Cuál es la diferencia entre?, ¿En qué se parecen y en qué difieren?,
¿Cuáles son los beneficios y desventajas de?
- Cronología: Ejemplos ¿Cuál es la historia de?, ¿Cuáles fueron los eventos clave en?, ¿Cuándo
ocurrió?
Prompts Basadas en Opiniones: diseñadas para obtener respuestas subjetivas,
- Evaluación: Ejemplos ¿Qué opinas sobre?, ¿Cuáles son los pros y contras de?
- Predicción: Ejemplos ¿Cuáles son algunos desarrollos futuros potenciales en?, ¿Cómo podría
cambiar [tema] en el próximo [período]?
- Recomendación: Ejemplos ¿Cuáles son algunas estrategias para?, ¿Cómo puedo mejorar mi?
- Escenario Hipotético: Ejemplos ¿Qué pasaría si?, Imagina que..., ¿Cómo sería diferente si?, ¿Qué
sucedería si?
Prompts Creativos: Para romper el hielo de la página en blanco
- Narración de Historias: Ejemplos - Escribe una historia corta sobre..., Continúa esta historia.
- Poesía: Ejemplos - Componer poemas sobre un tema específico.
- Brain Storming: Ejemplos:
Generar listas de ideas, conceptos o elementos relacionados con un tema
específico.
- Role Playing: Ejemplos: Imagina que eres..., Si fueras..., Como [personaje/rol], ¿cómo
actuarías?, Escribe un diálogo entre...
Humans, walking and talking bags of water and trace chemicals that we are, have managed to convince well-organized sand to pretend to think like us
Algunas
combinaciones que Wiens pone en su libro:
Cronología
+ Comparación: “Explain the history of the printing press and discuss the
advantages and disadvantages of moving toward digital forms of communication,
and suggest ways in which the printed word may attempt to retain relevance in a
changing world.”
Narración
+ Conocimiento General: “Write a 700 word short story about Care Bears in space
that explains the science behind climate change and its potential effects on
the world and have the Care Bears save the day.”
Poema +
Role Playing + Predicción + Evaluación: “Write a poem, in the style of Edgar
Allan Poe, that discusses potential future developments in space travel.
Include specific examples of the benefits and perils of that potential future
development in the poem.”
Y los
cinco consejos evidentes:
- Ser
específico: Indicar claramente el tema, concepto o asunto para guiar la
respuesta.
- Hacer
preguntas abiertas: Evitar preguntas de sí/no para fomentar respuestas más
detalladas.
- Combinar
categorías: Mezclar prompts basadas en hechos, opiniones y creatividad.
- Experimentar:
Modificar y ajustar los prompts para adaptarlas mejor a lo buscado.
- Probar de nuevo: Eso, probar de nuevo.
La exploración de Mollick sobre los beneficios de esta tecnología destaca la
liberación del potencial creativo. Muchas personas desean expresarse y sienten que no tienen herramientas para hacerlo. La IA puede usarse para canalizar
esta energía creativa frustrada, permitiéndonos hacer cosas que sin ella serían
imposibles. Por supuesto, esto también devalúa la labor de muchos artistas que
ahora ven mucho de su trabajo potencial o actualmente reemplazado por resultados obtenidos de la IA. Una breve aclaración de carácter personal: la IA no pone en peligro el arte como forma de
expresión personal; lo que pone en peligro es el comercio de la habilidad
técnica para producir material “artístico”, como una ilustración para la tapa
de un libro o un álbum musical. Pero esto no quita que la IA
puede ayudarnos a encontrar nuevas formas de expresión y alcanzar un potencial
previamente fuera de nuestro alcance.
Mollick es muy conciso al encontrar 4 principios como consejos generales
sobre cómo utilizar estas nuevas herramientas:
1. Siempre
invitar a la IA: Aceptar el potencial de la IA en todos los esfuerzos.
La experimentación con la IA es esencial para comprender sus capacidades y
limitaciones. Al volvernos más competentes en integrar la IA en nuestras
tareas, podemos descubrir formas de innovar. La IA puede aumentar las tareas
profesionales y enriquecer la toma de decisiones al ofrecer nuevas perspectivas
y contrarrestar algunos sesgos habituales.
2. Ser
el humano en la relación (be the human in the loop): Mantener la
supervisión y el compromiso en las interacciones con la IA. Verificar los
resultados, identificar posibles errores como “alucinaciones” o
“desinformación”, y guiar a la IA hacia resultados confiables. Este enfoque
está destinado a mejorar la colaboración humano-IA, proteger contra la
dependencia excesiva de la tecnología y promover el uso responsable.
3. Tratar
a la IA como a una persona (decirle qué tipo de persona es): Asignar
una personalidad a la IA para guiar sus respuestas y adaptarlas a tus
necesidades. Este enfoque fomenta que la IA proporcione soluciones
personalizadas y creativas.
4. Asumir
que esta es la peor IA que vas a usar: Reconocer que la IA de hoy
representa solo una fracción de lo que las futuras iteraciones lograrán.
Seguramente habrá mejoras en funcionalidad, usabilidad e integración, por lo
que es necesario explorar regularmente los límites de lo que la IA puede y no
puede hacer.
Imre plantea un conjunto de buenas prácticas aclarando que aunque el modelo es
intuitivo y fácil de usar, sacarle el máximo provecho implica reconocer sus
fortalezas, ser consciente de sus limitaciones y entender cómo enmarcar
eficazmente tus prompts. Según él la claridad es crucial. Dado que ChatGPT
procesa la información en función de patrones y no posee una comprensión
contextual real, plantear preguntas claras y directas puede mejorar
significativamente la precisión y relevancia de los resultados.
La experimentación es clave, y vale la pena probar reformulando el prompt y proporcionando
más contexto. Este enfoque iterativo ayuda a afinar la interacción y permite a
los usuarios comprender mejor las sutilezas del modelo. Y haciendo eco del
segundo principio de Mollick, Imre refuerza que los usuarios deben abordar la
información con una mentalidad crítica, verificando con fuentes confiables
cuando sea necesario.
Mollick dice que no hay una guía definitiva sobre cómo usar la IA;
"We’re all learning by experimenting, sharing prompts as if they were magical incantations rather than regular software code." Wiens por su parte basa buena parte de su
libro alrededor de los prompts, según el estos son los catalizadores que
moldean las respuestas, proporcionando contexto y guiando el curso de la
conversación. "Think of prompts as a bridge, connecting the vast expanse
of human curiosity to the colossal database nested within ChatGPT’s
framework." Ver el apartado de tipos de prompts.

Entre las
posibles malas prácticas, destaca la dependencia. Enfrentados a la tiranía de
la página en blanco, la gente va a recurrir a las IAs para comenzar ensayos,
correos electrónicos, informes o documentos. Las implicaciones de que la IA
escriba nuestros primeros borradores son significativas. Este es el camino para
empezar a perder nuestra creatividad y originalidad, reduciendo la calidad y
profundidad de nuestro pensamiento y razonamiento. Partir de un borrador
generado por IA influye en nuestro trabajo futuro, incluso si los reescribimos
por completo. En definitiva, podemos perder oportunidades de aprender de errores, desarrollar nuestro estilo y desarrollar pensamiento crítico y
reflexivo.
El mayor riesgo es usar la IA como un sustituto del esfuerzo humano, no como un
complemento de nuestras habilidades. Este es el punto clave del Principio 2 de Mollick: (be the human in the loop). Esto significa usar la IA para
obtener ideas y explorar diferentes soluciones, no para que haga por nosotros
todo el trabajo y nos ofrezca la única solución. O cómo lo expresa Imra: "While these applications paint a promising picture, it's essential to recognize that ChatGPT, like any tool, is most effective when used judiciously. Its strength lies in complementing human skills, not replacing them. The real magic unfolds when human expertise, creativity, and intuition meld with ChatGPT's computational prowess, creating synergies that propel industries forward, enhance user experiences, and carve new pathways in the ever-evolving dance of human-machine collaboration."
A juzgar
por la situación actual y la velocidad de implementación (no han pasado dos
años desde que estuvo disponible la primera versión de acceso público de
Chat-GPT), serán pocos los trabajos que no se superpongan con las capacidades
de las IAs. Esta (r)evolución de la IA en el lugar de trabajo difiere de otras
revoluciones de automatización anteriores, que usualmente se aplicaron a
trabajos repetitivos y peligrosos. Esta vez, las IAs se superponen con trabajos
bien remunerados, creativos y de alto nivel educativo. Los pocos trabajos
que por ahora parecen seguros y fuera del alcance de la IA son aquellos que
dependen fuertemente del aspecto físico (bailarines, atletas, operadores
de maquinaria, etc). Esto básicamente porque, por ahora, las IAs son incorpóreas. El
auge de la IA está ocurriendo más rápido que la evolución práctica de la
robótica, otra cosa que la ciencia ficción de los años 50 y 60 no logró acertar
(sin contar los autos voladores y las colonias marcianas y lunares). Ojo, esto puede cambiar en breve porque muchos investigadores están tratando de
resolver problemas de robótica de larga data con LLMs con bastante éxito. Los LLMs facilitan la programación de robots que aprenden de su entorno.
Volviendo
sobre el principio 2 (be the human in the loop), la supervisión humana sigue
siendo crucial para detectar errores y abordar problemas éticos. Imre también advierte
el problema de confundir las respuestas de IAs con una verdad revelada. El uso indiscriminado
e irresponsable de la IA puede llevar a varios resultados no deseados, como la
discriminación, la desinformación o procesos inadecuados de toma de decisiones. Las
implicaciones éticas de la IA abarcan temas como la privacidad, la
responsabilidad y el impacto en el trabajo, subrayando la necesidad de una
supervisión y orientación humana continua.
Mollick
explora las tareas en las que la IA sobresale y aquellas que podríamos preferir
dejar fuera de su alcance por razones personales o éticas. En el libro,
describe cómo utilizó la IA para avanzar en su escritura sin alterar su estilo,
ayudándole a mantener el impulso y proporcionándole ideas que quizás no habría
concebido por sí mismo.
El uso de
la IA como una co-inteligencia, como hizo Mollick al escribir su libro, es
donde la IA resulta más valiosa. El libro fomenta jugar con la IA para alcanzar
esta competencia. Se empieza invitando a la IA en todo para aprender sus
capacidades. Luego, se delegan tareas tediosas pero que se pueden verificar
fácilmente, como escribir informes sin importancia o correos electrónicos de
baja prioridad. Gradualmente, se hace una transición hacia un uso colaborativo,
utilizando la herramienta para superar obstáculos y abordar tareas complicadas.
A este punto es al que quiere llegar Mollick que no es muy diferente a lo que plantea en su libro Imre (cuatro párrafos arriba), a esto es a lo que él llama
co-inteligencia.
Mientras
Mollick explora el uso de la IA como tutor, no pude evitar pensar en TheDiamond Age de Neal Stephenson. Los LLMs de hoy pueden cumplir fácilmente
el papel del Young Lady’s Illustrated Primer, y no sorprende que un
tutor personalizado, poderoso, adaptable y económico pueda tener un impacto
gigantesco en la educación.
Clave en esta (r)evolución es que la IA tiene el efecto nivelador en las capacidades. Esto significa que, si no eras muy bueno escribiendo, generando
ideas, analizando o realizando cualquier otra tarea semi-profesional,
probablemente descubras que, con la ayuda de una IA, podés ser más que
competente. En promedio, una persona cualquiera trabajando con una
co-inteligencia de IA supera a la mayoría, excepto a los más capaces trabajando sin
IA.
Mollick
dice: "Hemos creado una mente alienígena extraña, una que no es consciente
pero puede fingirlo notablemente bien. Está entrenada en los vastos archivos
del conocimiento humano. Puede pasar pruebas y actuar creativamente, con el
potencial de cambiar cómo trabajamos y aprendemos; también inventa información
regularmente. Ya no podemos confiar en lo que vemos, escuchamos o leemos que no
fue creado por IA. Todo eso ya sucedió. Los humanos, bolsas andantes y
parlantes de agua y químicos que somos, hemos logrado convencer a arena bien
organizada de que finja pensar como nosotros."
Estas palabras
podrían haber sido extraídas de una novela cyberpunk de los años 90. Un poco esto me hace
sentir que estoy viviendo en esos extraños sueños de neón de mi vida
adolescente, entre animes, películas y juegos que coqueteaban con algunas ideas
que hoy tenemos frente a nosotros. Mucho del mundo físico que me rodea no
coincide con esas imágenes, otra evidencia de que la revolución en la
información supera con creces el avance material del mundo físico.
En una nota más cercana a la conciencia, por alienígenas que sean las IAs,
también son profundamente humanas. Están entrenadas en nuestra historia
cultural y, mediante un refuerzo humano, se las alinea con nuestros objetivos.
Llevan nuestros sesgos y son nuestro reflejo. En muchos sentidos, la magia de
las IAs es que pueden convencernos (aun cuando sabemos que no) de que en algún
sentido estamos hablando con otra mente. Y, al igual que ocurre con nuestras
propias mentes, no podemos explicar completamente la complejidad de cómo operan
los LLMs.
El problema de los sesgos en la IA, tema en el que Imre se explaya un poco más que Mollick:
Las IA reflejan en sus respuestas el contenido de los datos en los que fueron entrenadas, no es una gran sorpresa que terminen siendo un espejo de los tipos sesgos que encontramos en general en la mayoría de las personas. Esto plantea algunas preguntas sobre temas como la equidad, la representación y el impacto social de la IA. Cuando es entrenada la IA no sólo absorbe hechos, lenguajes y conceptos, sino también los prejuicios, estereotipos y sesgos presentes en estos textos. El modelo es tan bueno como los datos en los que fue entrenado, y si los datos llevan sesgos, el modelo va a tender a perpetuarlos.
Un riesgo no menor es que los sesgos en la IA amplifiquen los prejuicios existentes. Abordar el tema no es solo un desafío técnico, sino también profundamente ético. Requiere una introspección sobre los valores que queremos que nuestros sistemas de IA sostengan y cómo imaginamos su papel en la configuración de las narrativas sociales. Esto implica controlar el funcionamiento de los modelos, refinando los datos de entrenamiento y asegurar una representación diversa en los procesos de desarrollo y evaluación. La retroalimentación de los usuarios es crucial, para sacar a luz cosas que puedan haber pasado.
Atacar este problema plantea viejos debates respecto a la libertad de expresión y la censura, con nuevos matices interesantes… en definitiva si no le damos un contenido a la IA para que no tome de éste un sesgo, ¿lo estamos censurando?
Como se
ha explorado muchas veces en la ciencia ficción, a medida que avanzamos hacia
un futuro caracterizado por una mayor sofisticación tecnológica, nos
encontramos contemplando viejas preguntas profundamente humanas: identidad,
sentido y significado. Esta nueva tecnología es un espejo que refleja nuestras
mejores y peores cualidades. Lo que decidamos en los próximos años va a moldear
en qué se convierta la IA del futuro, y eso impactará y reflejará sobre
nosotros mismos. Este es el tipo de cosas no lineales que cualquiera
mínimamente versado en dinámica no lineal sabe que realmente es imposible de
predecir. Estamos oficialmente en territorio de ciencia ficción, el futuro fue
ayer y, completando la cita que ya usé dos veces: "Tendemos a sobreestimar
el efecto de una tecnología a corto plazo y subestimar su impacto a largo plazo."