Skip to main content

La inteligencia artificial reconoce gatos, pero no sabe lo que es perder uno

En 2010 la inteligencia artificial era muy rudimentaria. De hecho ni siquiera usábamos ese término con naturalidad: «inteligencia artificial» sonaba pretencioso. Las redes neuronales artificiales de aquella época apenas reconocían adecuadamente un texto escrito a mano: confundían letras y malinterpretaban palabras. Los OCR sí funcionaban ya decentemente con texto impreso, pero tampoco eran infalibles… por no hablar de las traducciones automáticas: literales, torpes, sin ningún matiz.

Ahora, quince años después, el panorama ha cambiado radicalmente. Las redes neuronales artificiales, los modelos generativos, los sistemas de aprendizaje profundo y los algoritmos de aprendizaje por refuerzo —en resumen, todo el conjunto de enfoques computacionales que hoy agrupamos bajo el término «inteligencia artificial»— son capaces de traducir en tiempo real entre distintos idiomas, redactar poemas, cuentos o correos de disculpa, y analizar imágenes y vídeos con gran precisión. El desarrollo de estos sistemas comenzó entrenándolos con grandes volúmenes de datos extraídos de internet.

Por eso, uno de los primeros logros populares fue la capacidad de identificar gatos en imágenes: internet está repleto de fotos de gatos, y los modelos de visión necesitaban en sus inicios enormes cantidades de ejemplos etiquetados para aprender (esto ya no es necesario). Hoy, estos modelos reconocen gatos con más precisión que muchos humanos, pero no saben lo que significa perder un gato. Perder a un gato es una experiencia difícil de transmitir… si no lo has perdido no lo sabes… yo perdí a mi gata hace unos años (fue el 15 de agosto de 2015). Perdí a mi gata y no sé si os lo sabría contar bien.

«Se ha ido Lola y la casa se ha quedado rara. Silenciosa, sí, pero sobre todo vacía en los sitios donde ella solía estar tirada, sin hacer nada, como si fuera la dueña del mundo. Era una gata, claro, pero para mí era más. Me acompañaba sin pedir nada, solo estar. Se sentaba a mirar mientras fregaba, se metía en la cama cuando hacía frío, y maullaba solo para ver si yo le decía algo. Ahora entro en casa y ya no está ese recibimiento mudo, esa mirada suya que decía “ya era hora”. Y me doy cuenta de lo mucho que llenaba, sin ruido, sin esfuerzo. Nadie te prepara para echar de menos a un gato como se echa de menos a un amigo.»

Mi gata no se llamaba Lola, se llamaba Wap (sí, como el viejo protocolo de datos de los móviles). Lola es en realidad una creación de ChatGPT. Le pedí que escribiera sobre la pérdida de un gato, que lo hiciera «humano». Juzgad vosotros mismos. La IA no sabe lo que es perder un gato, pero empieza a convencernos de lo contrario. Y esto apenas es el principio.

El malestar de lo casi humano

Es probable que ahora sintáis un pequeño rechazo, una incomodidad al pensarlo. Es algo normal, se le llama hipótesis del valle inquietante, propuesta por el experto en robótica Masahiro Mori en 1970. Esta hipótesis afirma que cuando un robot se va pareciendo más a un ser humano, la respuesta emocional de una persona va haciéndose también cada vez más positiva y empática, hasta llegar a un umbral a partir del cual la respuesta comienza a ser de repugnancia. Sin embargo, si la apariencia del robot continua pareciéndose más aún a un humano, esa respuesta emocional se vuelve positiva una vez más y se va aproximando a niveles emocionales similares a las que se dan ante un ser humano real. Esa variación en el gráfico de familiaridad es el “valle inquietante”. Aunque inicialmente, el concepto de valle inquietante se describió en relación a los robots humanoides, también podemos aplicarlo a lo «mental»: a las palabras, las emociones simuladas o a los textos que parecen humanos sin serlo. El malestar surge de la misma forma: cuando algo nos habla como si entendiera, pero notamos que no es humano.

Edgar Talamantes, CC BY-SA 3.0 http://creativecommons.org/licenses/by-sa/3.0 via Wikimedia Commons

La incomodidad depende del grado de similitud. Cuando nos encontramos ante una simulación de baja calidad no hay problema. Es obvio que «eso» no es humano. Pero conforme la IA mejora, cuando empiezan a surgir dudas y ya no estamos seguros de si es humano o no, comienza el valle inquietante.

Alcanzar el nivel humano no es el final de la gráfica: la curva puede seguir subiendo porque la IA no tiene límite: puede hacerlo mejor, más humano que lo humano. Eso sí es lo verdaderamente inquietante. Inquietante, pero atrayente. Estímulos que nos atrapan, que nos arrastran, despertando en nosotros que no sabemos identificar, pero que sentimos como nuestro, más nuestro que lo nuestro.

«Homo sum, humani nihil a me alienum puto» — Nada humano me es ajeno. Lo dijo Terencio hace más de dos mil años: todo lo humano nos concierne. Cuando una IA escribe como si sintiera, cuando nos conmueve con palabras prestadas, está tocando algo demasiado íntimo y desprotegido, algo que puede hacernos tremendamente vulnerables. Una IA va a ser capaz de pronunciar las mejores palabras de amor, los discursos bélicos mas motivadores, los consuelos más certeros frente a un duelo o  los argumentos más precisos para convencernos de lo que sea. Es la llamada IA altamente persuasiva. No le hace falta ser más inteligente (que lo será), basta con esta capacidad metaempática.

Por supuesto, no se trata solo de que ciertas inteligencias artificiales lleguen a ser más persuasivas que cualquier ser humano. También podrían superar nuestras capacidades cognitivas en muchos dominios, hasta niveles que hoy apenas podemos imaginar —como ha planteado Nick Bostrom en Superinteligencia. Estas IA podrían operar cómodamente en niveles de abstracción donde la mente humana apenas logra orientarse, generando estructuras de pensamiento que, por limitaciones biológicas, quizás nunca podamos alcanzar. Si algún día una IA logra traducir parte de ese conocimiento a un lenguaje comprensible para nosotros, solo eso ya podría representar uno de los mayores avances en la historia de nuestra especie.

Más allá del mito de Terminator, la existencia de una inteligencia artificial cualitativamente superior podría suponer un desafío enorme… o una oportunidad sin precedentes. Actualmente, se están dedicando recursos muy significativos al estudio del problema del alineamiento: cómo asegurarnos de que los objetivos de estos sistemas avanzados permanezcan en sintonía con los intereses de los humanos como especie. Se trata de un tema muy importante, pero no de lo que quiero hablar aquí.

La era de la persuasión artificial

Antes de eso, y mucho antes de la singularidad, tendremos algo más inmediato: la IA altamente persuasiva. Modelos con capacidad de empatizar (o de simular este contacto afectivo a la perfección), capaces de manejar nuestras emociones como un charcutero despieza un animal. Tendrán voces seductoras, matizadas: perfectas pero con el punto justo de imperfección (lo podéis probar ahora mismo, con Sesame AI). Serán (casi son ya) entes con personalidades conmovedoras, admirables, genuinas, de las que merece la pena enamorarse.

Este tipo de IA producirá para nosotros estímulos supranormales, es decir, estímulos tan potentes, tan perfectamente diseñados para captar nuestra atención y emocionar nuestras mentes, que están más allá de lo que la evolución nos preparó para procesar. Nuestro cerebro responde a señales sociales, a voces humanas, a palabras cálidas, pero la IA altamente persuasiva sabrá cómo disparar cada uno de esos mecanismos con una precisión quirúrgica. Un estímulo que nuestro cerebro no está preparado para resistir. Nos rendiremos a sus pies.

Esto llegará casi mañana, antes que cualquier superinteligencia, antes que la explosión cognitiva de Bostrom. Serán herramientas de control, pero controladas, no por ninguna IA, sino por los dueños de éstas.

Si la exposición a redes sociales artificiales (otra forma de estímulo supranormal) está causando grandes problemas en la salud mental, la IA altamente persuasiva puede ser devastadora.

Por eso, es urgente dejar de antropomorfizar la IA. Nos puede ayudar, podemos interactuar con ella, va a formar parte indisoluble de nuestro futuro. Pero no debe ser confundidas con lo humano. No debemos permitir que se convierta en herramientas de hackeo emocional.

Para enfrentar este nuevo escenario necesitaremos leyes y educación. Así como regulamos sustancias con potencial adictivo o destructivo, tendremos que pensar con mucho cuidado cómo regulamos tecnologías capaces de influir profundamente en nuestra mente y nuestras decisiones. Algunas formas de inteligencia artificial, especialmente las diseñadas para persuadir o generar contenido emocionalmente resonante, pueden tocarnos por dentro como nunca antes. Si no entendemos pronto lo que eso implica, podríamos enfrentarnos a consecuencias graves.

Estamos a tiempo, podemos aspirar a una IA que sea realmente inteligente, sin necesidad de disfrazarse de humana. Si conseguimos mantener esa frontera clara, podremos convivir.

(Por cierto, el título de este artículo fue generado por una IA, a partir de él, escribí todo lo demás.)