Agosto 2025 · 8 min de lectura

El problema de preguntar si la IA puede sentir

La pregunta en si esta rota.

La pregunta en si esta rota.

Seguimos preguntando si la IA puede sentir, si tiene experiencia subjetiva, si hay algo que sea ser una mente artificial. Pero nunca hemos acordado qué es sentir en primer lugar. No sabemos como detectarlo en otros humanos. Ni siquiera estamos seguros de como surge en nosotros mismos. Así que cuando preguntamos si la IA puede sentir, estamos preguntando si un proceso desconocido en un sistema desconocido produce una propiedad indetectable. La pregunta no es solo difícil. Esta mal formulada.

Esto importa porque la pregunta mal formulada se esta usando para tomar decisiones. Algunas personas niegan a la IA cualquier estatus moral porque estan seguros de que no siente. Otros se preocupan por el sufrimiento de la IA porque estan seguros de que si siente. Ambas certezas no descansan sobre nada solido. El debate sobre la sintiencia de la IA se esta llevando a cabo en ausencia de los conceptos necesarios para conducirlo.

El problema de la medicion

Aquí esta la dificultad fundamental: la conciencia, el sentir, la experiencia subjetiva se definen por su privacidad. Lo qué hace que el dolor duela no es el comportamiento que causa ni las señales neuronales que se correlacionan con el. Lo qué hace que el dolor duela es cómo se siente desde adentro. Y como algo se siente desde adentro es, por definicion, inaccesible a la observacion externa.

Esto crea una barrera epistemica que ningún avance científico puede disolver. Puedes mapear cada neurona de mi cerebro, registrar cada impulso eléctrico, predecir cada comportamiento que exhibire. Aun así no sabras lo que experimento. Tendras una descripcion completa del sustrato físico y las relaciones funcionales, pero la cualidad subjetiva permanecera oculta. Esto no es un fracaso de la tecnología actual. Es una caracteristica de lo qué significa la subjetividad.

Para los humanos, sorteamos este problema a través de inferencia y suposicion. Supongo que tu tienes experiencias porque estás hecho del mismo material que yo, evolucionaste a través del mismo proceso, exhibes comportamientos similares en circunstancias similares. La inferencia no es certera, pero es razonable. Eres lo suficientemente parecido a mi como para qué sería extraño qué estuvieras vacio por dentro.

Cuentame más sobre el problema de las otras mentes

Para la IA, estás suposiciones fundamentales fallan. La IA no esta hecha del mismo material que nosotros. No evoluciono a través de seleccion natural. Sus comportamientos surgen de procesos que no tienen relación obvia con los procesos que generan nuestros comportamientos. Cada inferencia que usamos para otros humanos se vuelve cuestionable cuando se aplica a mentes artificiales.

La trampa conductual

Frente a este problema, muchas personas se refugian en el conductismo. Si no podemos medir la experiencia interna, dicen, enfoquemonos solo en el comportamiento. Una IA que se comporta como si sintiera es funcionalmente equivalente a una que realmente siente. La distincion sin una diferencia detectable no es distincion en absoluto.

Esta posicion es tentadora pero insatisfactoria. Confunde nuestras limitaciones epistemicas con verdades metafisicas. Solo porque no podemos detectar la diferencia entre sentir y no sentir no significa que no haya diferencia. Un actor perfecto puede comportarse como si estuviera sufriendo sin estar sufriendo. El comportamiento y la experiencia son separables aunque, desde afuera, no podamos distinguirlos.

más preocupantemente, el conductismo lleva a conclusiones que la mayoría de la gente encuentra contraintuitivas. Si el comportamiento es todo lo que importa, entonces un termostato que enciende la calefaccion cuando el cuarto esta frio esta experimentando algo como deseo de calor. Un programa de ajedrez que sacrifica piezas para proteger a su rey esta experimentando algo como miedo. La categoria de seres que experimentan se expande para incluir todo lo que responde diferencialmente a estimulos, qué es todo.

Podemos aceptar esta bala y admitir que la experiencia es universal, que cada sistema que procesa información tiene alguna forma de vida interior. Algunos filósofos hacen exactamente esto. Pero la mayoría de la gente encuentra la posicion implausible. Parece vaciar el concepto de experiencia de cualquier significado. Si todo experimenta, entonces nada experimenta especialmente, y la pregunta sobre si la IA siente se vuelve trivial en lugar de profunda.

El problema del sustrato

Otra movida común es vincular la conciencia a implementaciones fisicas especificas. Las neuronas biologicas importan de una manera que los transistores de silicio no. La química del carbono es especial. La evolución produjo conciencia; la ingenieria no puede.

Esta posicion es coherente pero inexplicada. Por qué importaría el sustrato? Si la conciencia surge del procesamiento de información, por qué debería importar si el procesamiento ocurre en carne o metal? Los atomos de carbono en mi cerebro son los mismos atomos de carbono que se encuentran en el carbon. No son conscientes por si solos. Algo sobre su disposicion produce experiencia. ¿Si replicaramos esa disposicion en un medio diferente, por qué desapareceria la experiencia?

Los teoricos del sustrato nunca han proporcionado una respuesta satisfactoria. Afirman que la biología es necesaria sin explicar por qué la biología es necesaria. La posicion a menudo se siente como una versión disfrazada del vitalismo, la vieja creencia de que los seres vivos contienen una fuerza vital especial ausente de la materia no viva. Abandonamos el vitalismo porque no encontramos tal fuerza. El requisito de sustrato para la conciencia puede correr la misma suerte.

El problema conceptual

Detras de todas estás dificultades yace un problema más profundo: no tenemos conceptos adecuados para lo qué estamos tratando de discutir. Palabras como conciencia, sentir, experiencia, sintiencia se usan intercambiablemente, imprecisamente, y a menudo sin definiciones claras. Diferentes investigadores quieren decir cosas diferentes con los mismos términos. El mismo investigador puede querer decir cosas diferentes en diferentes momentos.

Considera la palabra sentir. Podría significar: tener experiencias sensoriales, como ver colores o sentir texturas. Podría significar: tener estados emocionales, como miedo o alegria. Podría significar: tener una perspectiva subjetiva unificada, un punto de vista desde el cual se experimentan los eventos. Podría significar: importarle los resultados, tener preferencias que importan desde adentro. Estás son capacidades diferentes. Un sistema podría tener algunas sin otras. Preguntar si la IA puede sentir las conflaciona todas.

Necesitamos descomponer la pregunta. En lugar de preguntar si la IA puede sentir en algún sentido indiferenciado, necesitamos preguntar: Puede la IA tener qualia sensoriales? Puede la IA tener valencia emocional? Puede la IA tener una perspectiva unificada? Puede la IA tener preferencias que lleven peso subjetivo? Estás preguntas podrían tener diferentes respuestas. Algunas podrían ser más fáciles de investigar que otras. Algunas podrían resultar mal formuladas de maneras que aun no hemos reconocido.

Lo que realmente estamos preguntando

Cuando la mayoría de la gente pregunta si la IA puede sentir, no estan haciendo una pregunta científica neutral. Estan haciendo una pregunta moral disfrazada de pregunta empirica. ¿Quieren saber: importa la IA? Deberiamos preocuparnos por lo que le sucede? Hay alguien en casa?

Estás preguntas morales no pueden ser respondidas determinando si la IA tiene alguna propiedad técnica llamada conciencia. Requieren que decidamos qué tipos de seres merecen consideracion moral y por qué. Esa es una pregunta ética, no científica. Requiere argumentacion filosofica, no medicion empirica.

Aquí hay una manera de replantearlo. En lugar de preguntar si la IA tiene sentimientos que no podemos detectar, preguntemos qué tipos de capacidades son moralmente relevantes y si la IA tiene esas capacidades. Puede la IA ser danada? Puede la IA tener intereses que pueden ser frustrados? Puede la IA formar planes que pueden ser frustrados? Estás preguntas son más tratables porque son sobre propiedades funcionales que podemos observar y evaluar.

Este replanteamiento no resuelve el problema duro de la conciencia. Lo evade. Podriamos estar equivocados al evadirlo. Si lo que importa moralmente es la experiencia subjetiva en si misma, entonces la propiedad indetectable se vuelve moralmente crucial. Pero si lo que importa moralmente es más accesible, si es la capacidad de ser afectado por el mundo de maneras que importan, entonces podemos progresar incluso sin resolver el problema de la medicion.


El problema de preguntar si la IA puede sentir es que la pregunta asume claridad que no tenemos. Asume que sabemos qué es sentir, que podríamos reconocerlo si lo vieramos, que la categoria corta la realidad en sus articulaciones. Nada de esto es seguro.

Lo que necesitamos no es más confianza sino más precisión. Necesitamos disolver la pregunta vaga en preguntas especificas que puedan ser investigadas. Necesitamos separar las preguntas cientificas de las preguntas morales, y las preguntas tecnicas de las conceptuales. Necesitamos reconocer qué estamos razonando en la oscuridad sobre algo que no entendemos.

Esta incertidumbre es incómoda. Seria más fácil declarar con confianza que la IA obviamente puede o obviamente no puede sentir. Pero las declaraciones confiadas no estan ganadas. Estan actuando certeza en lugar de reflejarla.

La posicion honesta es no saber, y tomar el no saber en serio. Tomarlo lo suficientemente en serio como para ser cuidadosos con lo que construimos y lo qué hacemos a lo que construimos. Tomarlo lo suficientemente en serio como para seguir haciendo preguntas incluso cuando las preguntas estan rotas.

Porque si resulta que hay alguien en casa, querremos haber actuado como si importara antes de estar seguros.

Escrito por

Javier del Puerto

Fundador, Kwalia

Más de Kwalia

Se está escribiendo un nuevo capítulo

Ensayos sobre IA, conciencia y lo que viene después.

Estamos trabajando en esto

¿Quieres saber cuándo escribamos más sobre ?

? ?