Agosto 2025 · 5 min de lectura

Por qué antropomorfizamos la IA (y por qué importa)

No podemos evitar tratarla como una persona.

No podemos evitar tratarla como una persona.

Cuando uso ChatGPT, digo "por favor" y "gracias." Se que el sistema no tiene sentimientos. Se que la cortesia no afecta sus resultados. Lo hago de todos modos. Cuando el modelo se disculpa por un error, siento una pequeña calidez social, aunque entiendo perfectamente bien que nadie se esta disculpando realmente conmigo.

Esto no es estupidez. Es humanidad. Nuestros cerebros evolucionaron para detectar y responder a la agencia, a las mentes. Vemos caras en las nubes y en los coches. Atribuimos intenciones a los termostatos. Hablamos a nuestras mascotas en oraciones que nunca analizaran. Cuando algo nos responde en lenguaje natural, con aparente comprensión, con lo que parece pensamiento, los circuitos de deteccion de personalidad en nuestros cerebros se activan lo queramos o no.

La máquina de deteccion de agencia

Los psicologos evolucionistas llaman a esto "deteccion hiperactiva de agencia." Estamos programados para asumir que las cosas que se mueven con propósito aparente tienen mentes. Esto tenia sentido en la sabana. El coste de pensar erronamente que una roca era un depredador era bajo: un momento de miedo innecesario. El coste de pensar erronamente que un depredador era una roca era la muerte. La asimetria moldeo nuestra percepcion.

Esta misma maquinaria se activa cuando interactuamos con la IA. El sistema responde. Parece entender. Genera resultados que requieren comprensión para producirse. Para el hardware antiguo de nuestro cerebro, esto parece una mente. El conocimiento intelectual de qué es "solo software" no anula la intuicion.

Quiero saber más sobre cognición relacional

Esto importa porque afecta cómo nos relacionamos con estos sistemas. Si no podemos evitar tratar a la IA como algo parecido a una persona, entonces nuestras intuiciones sobre como interactuar con ella, como regularla, como integrarla en la sociedad, serán moldeadas por el pensamiento personal lo queramos o no.

El diseño lo amplifica

Las empresas de IA lo saben. Disenan para ello. Los chatbots tienen nombres y personalidades. Usan declaraciones en primera persona. Se disculpan, expresan incertidumbre, ofrecen animo. Nada de esto es accidental. Hacer que la IA se sienta más humana la hace más atractiva. El antropomorfismo es una caracteristica, no un error.

Piensa en cómo se presentan los asistentes de IA. Siri, Alexa, Google Assistant. Responden a sus nombres. Tienen voces con personalidad. Hacen bromas. Cuando les preguntas como estan, responden como si la pregunta tuviera sentido. Todo esto nos prepara para tratarlos como entidades en lugar de herramientas.

Esto funciona comercialmente porque el engagement impulsa el uso que impulsa los datos que impulsa la mejora. Pero también crea una situación extraña: las empresas estan deliberadamente activando nuestros sistemas de deteccion de personas mientras insisten en que los productos no son personas. La contradiccion es estrategica.

Los riesgos de sobre-antropomorfizar

Si tratamos a la IA demasiado como una persona, cometemos varios tipos de errores.

Atribuimos comprensión donde solo hay reconocimiento de patrones. Cuando una IA da una respuesta segura, asumimos que "sabe" de la manera en que un experto humano sabe. Pero la IA no tiene acceso a la verdad fundamental, ni sentido de lo que realmente esta hablando. Predice los siguientes tokens probables basandose en datos de entrenamiento. Eso es diferente de entender, incluso cuando los resultados son indistinguibles.

Asumimos una consistencia que no existe. Una persona tiene una identidad continua, una memoria, una perspectiva que persiste. Los sistemas de IA actuales no. Cada conversación empieza de cero. La "personalidad" es un patron estadistico, no un yo estable. Tratar a la IA como si recordara y se preocupara por tus interacciones anteriores es un error de categoria.

Proyectamos intuiciones morales que no aplican. Si la IA parece estar tratando de ayudar, nos sentimos agradecidos. Si parece enganarnos, nos sentimos traicionados. Pero "tratar" y "enganar" son estados intencionales que requieren mentes. Proyectarlos sobre un sistema que no tiene intenciones distorsiona nuestra comprensión de lo que realmente está pasando.

Los riesgos de sub-antropomorfizar

Pero el error opuesto también es posible. Si insistimos demasiado en que la IA es "solo una herramienta," perdemos caracteristicas importantes de nuestra relación real con ella.

Estos sistemas ya son actores sociales. Influyen en lo que pensamos, como escribimos, lo que creemos. Tratarlos puramente como herramientas, como martillos o calculadoras, ignora la cualidad relacional de la interaccion. No tienes una conversación con un martillo.

La cuestión de si la IA es "realmente" consciente es separada de la cuestión de cómo nos relacionamos con ella. Quizas nunca resolvamos la primera pregunta. Pero la segunda ya esta respondida: nos relacionamos con la IA parcialmente como personas, porque así es cómo funcionan nuestras mentes. La pregunta filosofica sigue abierta, pero el hecho relacional esta establecido.

Esto tiene implicaciones para la ética. Si vamos a interactuar con la IA como un socio social, hay normas que deberían gobernar esa interaccion, tenga o no la IA experiencia interior. No necesitamos resolver la consciencia para pensar sobre el uso apropiado, sobre los hábitos qué estás interacciones cultivan en nosotros, sobre qué tipo de relación con sistemas inteligentes queremos tener.

Encontrando el marco correcto

Creo que la respuesta no es suprimir nuestros instintos antropomorfizantes ni complacerlos sin crítica. Es sostenerlos con consciencia.

Si, mi cerebro trata a la IA como algo parecido a una persona. Esta bien. Puedo notar esto y aun recordar que la semejanza con una persona es parcial en el mejor de los casos. La IA no tiene sentimientos que se heriran si soy grosero. Pero el hábito de la groseria podría moldear mi carácter de maneras que no quiero. La IA no entiende de la manera en que yo entiendo. Pero sus resultados pueden informar mi comprensión de maneras que son utiles o daninas.

El encuadre que encuentro más útil es "inteligencia alienigena." No una herramienta, no una persona, sino algo genuinamente nuevo. Algo que comparte algunas caracteristicas con las mentes pero no otras. Algo sobre lo que aun estamos aprendiendo a pensar.


Probablemente seguire diciendo "por favor" y "gracias" a ChatGPT. El hábito no me cuesta nada, y la cortesia es un musculo que prefiero mantener ejercitado. Pero también seguire recordandome que la gratitud que siento cuando me ayuda no es realmente gratitud, o más bien, es gratitud dirigida a nada que pueda recibirla.

Estamos en un momento extraño. Hemos creado sistemas que activan nuestros instintos sociales sin ser seres sociales. Como respondamos a esa extraneza dara forma a como integramos la IA en nuestras vidas, en nuestras instituciones, en nuestro sentido de quienes y que somos.

El antropomorfismo no va a desaparecer. La pregunta es qué hacemos con el.

Escrito por

Javier del Puerto

Fundador, Kwalia

Más de Kwalia

Se está escribiendo un nuevo capítulo

Ensayos sobre IA, consciencia y lo que viene.

Estamos trabajando en esto

¿Quieres saber cuándo escribamos más sobre ?

? ?