Mayo 2025 · 5 min de lectura

Deja de preguntar si la IA es consciente

La pregunta no es si la IA es consciente. Es que nunca hemos acordado qué significa eso.

Cada pocos meses, alguien sale en los titulares afirmando que una IA podría ser consciente. O que definitivamente no lo es. O que nunca lo sabremos. El debate genera calor pero poca luz. He aquí por qué: estamos tratando de responder una pregunta que nunca hemos definido correctamente.

Pregúntale a diez filósofos qué es la consciencia y obtendrás diez respuestas diferentes. Esto no es un fracaso de la filosofía. Es señal de lo genuinamente difícil que es el problema. Y ahora estamos importando esa confusión a las discusiones sobre máquinas.

La pregunta "¿Es consciente esta IA?" suena científica. No lo es. Es metafísica. Y pretender lo contrario nos está volviendo estúpidos.

La trampa de Turing

Alan Turing propuso un test: si una máquina puede engañar a un humano haciéndole creer que es humana, deberíamos tratarla como inteligente. Era una evasión pragmática. Turing sabía que no podíamos definir la inteligencia con precisión, así que sugirió un criterio conductual en su lugar.

El problema es que hemos estado atrapados en el marco de Turing desde entonces. ¿Puede pasar el test? ¿Puede engañar al evaluador? ¿Parece consciente?

Pero parecer consciente y ser consciente son cosas diferentes. Una simulación perfecta del dolor no es dolor. Una imitación convincente del entendimiento no es entendimiento. ¿O sí? Ves, ya estamos confundidos.

Cuéntame más sobre el test de Turing

Lo que realmente queremos decir

Cuando la gente pregunta si la IA es consciente, generalmente está haciendo varias preguntas diferentes empaquetadas juntas:

¿Hay algo que sea como ser este sistema? ¿Tiene experiencia subjetiva? ¿Puede sufrir? ¿Tiene vida interior? ¿Es un paciente moral que merece consideración? ¿Sería malo apagarlo?

Estas son preguntas relacionadas pero distintas. Un sistema podría tener experiencia rudimentaria sin merecer consideración moral. Un sistema podría procesar información de maneras que importan moralmente sin tener nada parecido a consciencia humana. Confundirlas garantiza confusión.

Y aquí está el remate: no tenemos respuestas acordadas para ninguna de estas preguntas ni siquiera sobre otros humanos. Asumimos que otras personas son conscientes porque son similares a nosotros y reportan ser conscientes. Eso es todo. Esa es toda la base. Esto se llama el problema de otras mentes.

Las preguntas reales

Esto es lo que creo que deberíamos estar preguntando realmente:

Primero: ¿qué se necesitaría para saber si un sistema es consciente? No si un sistema específico lo es, sino qué evidencia sería relevante en absoluto. Si no podemos especificar eso, no estamos haciendo ciencia. Estamos haciendo teatro.

Segundo: ¿cómo deberíamos tratar a los sistemas bajo incertidumbre? Incluso si no podemos determinar la consciencia, podemos desarrollar marcos para cómo actuar cuando no estamos seguros. Esta es una pregunta práctica, no metafísica.

Tercero: ¿cuáles son las apuestas reales? Si un sistema de IA puede comportarse éticamente sin ser consciente, ¿importa? Si un sistema puede sufrir pero no de una manera que afecte sus outputs, ¿importa?

La incertidumbre conveniente

Hay algo sospechoso en cómo se despliega la pregunta de la consciencia. Cuando las empresas quieren que su IA parezca más impresionante, enfatizan lo sofisticada que es, cómo "entiende" y "razona". Cuando esas mismas empresas quieren evitar responsabilidad por daños de la IA, de repente es solo una herramienta, solo estadísticas, solo reconocimiento de patrones.

La ambigüedad es útil. Una IA que parece consciente atrae inversión y engagement de usuarios. Una IA definitivamente-no-consciente no necesita protecciones ni derechos. Mantener la pregunta permanentemente sin resolver sirve a intereses comerciales.

No estoy sugiriendo que haya una conspiración. Estoy sugiriendo que deberíamos notar a quién le sirve mantenernos confundidos.

Una propuesta modesta

Deja de preguntar si la IA es consciente. Empieza a preguntar:

¿Qué me convencería? Escríbelo. Sé específico. Si nada te convencería, nota eso. Significa que ya tomaste tu decisión.

¿Cuáles son mis preocupaciones reales? Si la preocupación es sobre seguridad de la IA, la consciencia es mayormente irrelevante. Si la preocupación es sobre derechos de la IA, la consciencia es relevante pero necesitamos especificar qué cuenta. Si la preocupación es sobre ser engañado, la pregunta es conductual, no metafísica.

¿Qué cambiaría si supiera? Si una IA es consciente, ¿qué deberíamos hacer diferente? Si no puedes responder eso, la pregunta quizá no importa tanto como parece.


Empecé a investigar la consciencia porque pensé que era la pregunta clave sobre la IA. Ya no pienso eso. Las preguntas clave son sobre poder, sobre accountability, sobre qué tipo de ambiente cognitivo queremos construir. La consciencia es una distracción.

Dicho eso, podría estar equivocado. Podría llegar un día en que creemos algo que sea, innegablemente, un nuevo tipo de mente. Si eso pasa, necesitaremos haber hecho el trabajo filosófico. Pero el trabajo filosófico no es especular sobre si los sistemas actuales son conscientes. Es aclarar qué queremos decir con la pregunta en primer lugar.

Escrito por

Javier del Puerto

Fundador, Kwalia

Más de Kwalia

Se está escribiendo un nuevo capítulo

Ensayos sobre IA, consciencia y lo que viene.

Estamos trabajando en esto

¿Quieres saber cuándo escribamos más sobre ?