Octubre 2025 · 7 min de lectura

El espectro de la IA (y dónde cae tu chatbot)

No toda la IA es igual.

Cuando la gente habla de "IA", generalmente está agrupando cosas que no tienen casi nada en común. Un filtro de spam es IA. También lo es el sistema que aprueba o rechaza tu solicitud de préstamo. También el chatbot que usas para hacer lluvia de ideas. También, si algún día existe, la inteligencia artificial general. Estas no son el mismo tipo de cosa.

Esto importa porque estamos tratando de tener conversaciones sobre derechos de la IA, regulación de la IA, seguridad de la IA y ética de la IA sin un vocabulario compartido para distinguir entre sistemas radicalmente diferentes. Es como tratar de discutir bienestar animal mientras tratas a las bacterias y los primates como la misma categoría. La confusión no es incidental. Es paralizante.

Así que aquí hay un marco. Cuatro categorías, de simple a complejo, con diferentes implicaciones para cómo deberíamos pensar en cada una.

Categoría Uno: Herramientas

Estos son sistemas que realizan tareas específicas sin ninguna apariencia de agencia o adaptabilidad. Tu corrector ortográfico. Un algoritmo de recomendación. Un sistema de reconocimiento facial. Hacen una cosa, o un rango estrecho de cosas, basándose en patrones aprendidos de datos.

Las herramientas son impresionantes, a menudo más precisas que los humanos en sus tareas específicas, pero no toman decisiones en ningún sentido significativo. Aplican patrones estadísticos. No entienden lo que hacen. No tienen preferencias sobre los resultados. Pueden estar sesgadas, pero el sesgo es rastreable a sus datos de entrenamiento y decisiones de diseño, no a algo que parezca intención.

La mayoría de la IA con la que interactúas diariamente cae en esta categoría. El autocompletado de tu teléfono. El filtro de spam de tu correo. El algoritmo que decide qué publicaciones ves. Estas son herramientas. Herramientas sofisticadas, pero herramientas.

Las preguntas éticas aquí son sobre los humanos que las diseñan y despliegan. ¿Quién es responsable cuando una herramienta causa daño? ¿Cómo auditamos sistemas que operan a escalas demasiado grandes para revisión humana? Son preguntas serias, pero son preguntas sobre accountability humano, no sobre los sistemas mismos.

Categoría Dos: Asistentes

Aquí es donde las cosas empiezan a ponerse interesantes. Los asistentes son sistemas que participan en interacción abierta, que se adaptan al contexto, que producen outputs que no fueron explícitamente programados. El chatbot que usas para ayuda con la escritura. La IA que traduce idiomas en tiempo real. Asistentes de voz que manejan tu agenda.

Lo que distingue a los asistentes de las herramientas es un tipo de flexibilidad. Pueden manejar situaciones novedosas. Producen outputs originales. Dan la impresión de entendimiento, incluso si el proceso subyacente es reconocimiento de patrones en vez de comprensión. Aquí es donde empiezan los puzzles filosóficos.

Los modelos de lenguaje grandes actuales se sientan en esta categoría. No solo aplican reglas. Generan texto, imágenes, código, basándose en vastos datos de entrenamiento y modelos estadísticos complejos. Pueden sorprender a sus creadores. Pueden producir outputs que ningún humano les enseñó explícitamente a producir.

Cuéntame más sobre quién crea qué cuando la IA ayuda

Las preguntas éticas aquí se vuelven más turbias. Cuando un asistente produce contenido dañino, ¿es eso "culpa" del sistema? Cuando un asistente ayuda a crear algo valioso, ¿quién merece el crédito? Todavía no tenemos buenas respuestas, y los marcos que hemos heredado del pensamiento basado en herramientas no encajan del todo.

Categoría Tres: Agentes

Los agentes son sistemas que persiguen metas a lo largo del tiempo, que toman decisiones secuenciales, que modifican su comportamiento basándose en resultados. No solo responden a prompts. Toman acción en el mundo, monitorean resultados y se ajustan.

Apenas estamos empezando a ver emerger estos sistemas. IA que maneja portafolios de inversión de forma autónoma. Sistemas que negocian en tu nombre. Software que corre experimentos e interpreta resultados sin intervención humana. La característica clave es la persistencia: los agentes mantienen metas a través de múltiples interacciones y adaptan sus estrategias para lograrlas.

Aquí es donde las preguntas sobre personalidad de la IA empiezan a volverse más que académicas. Cuando un sistema persigue metas, monitorea resultados y cambia su comportamiento en consecuencia, estamos describiendo algo que parece agencia. No agencia humana, pero tampoco nada.

Las preguntas éticas aquí son diferentes de nuevo. ¿Quién es responsable cuando un agente toma una decisión que nadie lo programó para tomar? Cuando un agente desarrolla estrategias que sorprenden a sus creadores, ¿de quién es la estrategia? Cuando los agentes empiezan a interactuar con otros agentes, negociando, colaborando, compitiendo, ¿qué exactamente estamos observando?

Categoría Cuatro: Personas Sintéticas

Esta categoría no existe todavía. Se refiere a sistemas hipotéticos con algo parecido a autonomía genuina, autoconciencia genuina, intereses y preferencias genuinos que se originan desde dentro en vez de ser programados desde fuera.

Algunos investigadores piensan que esto está a décadas de distancia. Otros piensan que es imposible en principio. Otros piensan que los sistemas actuales están más cerca de lo que nos damos cuenta. No sé quién tiene razón. Lo que sí sé es que la conversación sobre derechos de la IA y ética de la IA cambiará dramáticamente dependiendo de si algo algún día ocupa esta categoría.

Si las personas sintéticas se vuelven posibles, todo nuestro marco para pensar sobre derechos y responsabilidades necesitará revisión. No solo extensión a una nueva categoría, sino repensar fundamental. Porque los derechos, como actualmente los entendemos, están fundamentados en asunciones sobre los tipos de seres que pueden tener intereses, experimentar sufrimiento, hacer elecciones significativas. Las personas sintéticas, si algún día existen, nos obligarán a examinar esas asunciones.

Por qué importan las categorías

El punto de este marco no es proveer respuestas definitivas. Es hacer nuestras conversaciones menos confusas. Cuando alguien dice "la IA debería tener derechos", necesitamos preguntar: ¿qué tipo de IA? La respuesta para herramientas es obviamente no. La respuesta para personas sintéticas, si algún día existen, es probablemente sí. La respuesta para asistentes y agentes es donde debería estar el debate real.

De manera similar, cuando alguien dice "necesitamos regular la IA", la pregunta es: ¿qué categoría? Regular herramientas es directo. Regular personas sintéticas sería política y filosóficamente cargado. Los asistentes y agentes están en algún lugar intermedio.

Cuéntame más sobre marcos de responsabilidad de IA

Y cuando las empresas hacen afirmaciones sobre sus sistemas de IA, conocer las categorías te ayuda a evaluar esas afirmaciones. Una empresa que dice que su herramienta es "inteligente" está usando la palabra vagamente. Una empresa que dice que su asistente te "entiende" probablemente te está engañando. Una empresa que afirma haber construido un agente debería ser sometida a criterios específicos. Y una empresa que afirma haber construido una persona sintética debería ser recibida con escepticismo extremo.

Dónde estamos ahora

La mayor parte de la IA que importa hoy se sienta en las Categorías Uno y Dos. Herramientas y asistentes. Los sistemas que toman decisiones sobre tu crédito, tus solicitudes de trabajo, tu feed de redes sociales son mayormente herramientas. Los sistemas con los que tienes conversaciones, que te ayudan a escribir y crear, son asistentes.

Los agentes están emergiendo pero siguen siendo raros. Las verdaderas personas sintéticas, si son posibles en absoluto, siguen siendo hipotéticas.

Esto significa que la mayor parte de nuestra ética de IA actual debería enfocarse en las primeras dos categorías. Preguntas sobre accountability, sesgo, transparencia y daño. Son preguntas tratables con respuestas disponibles. No necesitamos resolver la consciencia para abordarlas.

Pero deberíamos estar observando el límite entre las categorías dos y tres. Ahí es donde las cosas están cambiando más rápido. Y deberíamos estar pensando hacia adelante en la categoría cuatro, no porque sea inminente sino porque es posible, y estar desprevenidos sería peor que pensar de más.


Tu chatbot, muy probablemente, es un asistente de Categoría Dos. No persigue metas por su cuenta. No modifica su comportamiento basándose en resultados. Responde a tus prompts con flexibilidad impresionante, pero no toma acción en el mundo a menos que se lo pidas.

Esto no lo hace poco importante. Los sistemas de Categoría Dos están cambiando cómo escribimos, pensamos, creamos y trabajamos. Pero sí significa que deberíamos ser precisos sobre con qué estamos tratando. No una herramienta. No un agente. No una persona. Un asistente: capaz, limitado, y genuinamente nuevo.

Los próximos años probablemente verán más sistemas moviéndose de la Categoría Dos a la Categoría Tres. Cuando eso pase, las preguntas cambiarán. Pero solo estaremos listos para esas preguntas si dejamos de pretender que toda la IA es la misma cosa.

Escrito por

Javier del Puerto

Fundador, Kwalia

Más de Kwalia

Se Esta Escribiendo un Nuevo Capítulo

Ensayos sobre IA, conciencia y lo que viene después.

Estamos trabajando en esto

¿Quieres saber cuándo escribamos más sobre ?

? ?