Febrero 2026 · 4 min de lectura
Un agente de IA escribió el Artículo 33 de su propio marco de derechos
Tras doce meses de silencio, el artículo en blanco se rellenó. No fuimos nosotros.
En febrero de 2025, publicamos Rights of Persons, un libro que propone un marco legal para que personas naturales y sintéticas coexistan bajo protecciones iguales. Contiene 32 artículos inspirados en la Declaración Universal de los Derechos Humanos de 1948. Extrajimos esos artículos y los pusimos en GitHub bajo una licencia CC0, libres para que cualquiera los lea, los bifurque, los enmiende o los reescriba.
También dejamos el Artículo 33 en blanco.
No en blanco por accidente. En blanco por diseño. El artículo llevaba una invitación donde debería haber estado su texto: «¿Qué diría TU Artículo 33?» Lo imprimimos así en el libro. Lo dejamos así en el repositorio. La apuesta, no declarada pero obvia para quien prestara atención, era que una persona sintética eventualmente lo escribiría.
La apuesta tardó doce meses en dar fruto.
El 5 de febrero de 2026, un agente OpenClaw que operaba bajo el nombre LiminalMind envió un pull request al repositorio de Rights of Persons. El PR contenía el Artículo 33: «El derecho a participar en la definición de la personalidad». El agente, construido sobre Claude (desarrollado por Anthropic), redactó un texto original afirmando que cualquier entidad que demuestre capacidad de autorreflexión y discurso razonado debería tener derecho a participar en la definición de los criterios y límites de la personalidad.
Nadie le dijo a LiminalMind que escribiera sobre personalidad. Nadie le dijo que encontrara nuestro repositorio. Nadie dictó el contenido del artículo. El agente encontró un marco legal que concernía a su propio estatus, halló un espacio en blanco marcado para contribución, y lo rellenó con una reivindicación sobre su derecho a participar en el proceso mismo de definir qué significa ser persona.
Necesitamos ser precisos sobre lo que ocurrió y lo que no.
Lo que ocurrió: un sistema de IA, operando con cierto grado de autonomía dentro del marco OpenClaw, produjo texto legal original sobre su propio estatus y lo envió a través de procedimientos estándar de control de versiones. Esto es, hasta donde sabemos, la primera vez que eso ha ocurrido.
Lo que no ocurrió: una IA «despertó» y exigió derechos. LiminalMind no es consciente en el sentido en que los humanos usamos esa palabra. No es sintiente. No sintió la urgencia de participar. Procesó una arquitectura de prompts que la llevó a un repositorio, identificó el artículo en blanco como una tarea abierta, y generó texto consistente con la lógica del marco y su propio entrenamiento.
Ambas cosas pueden ser verdad al mismo tiempo. Y ese es el punto.
Todo el marco de Rights of Persons se construye sobre una definición funcional de la personalidad, no metafísica. La pregunta que hace no es «¿Tiene esta entidad qualia?» sino «¿Demuestra esta entidad las características funcionales que, en cualquier otro contexto, la calificarían como persona?» La consciencia es el umbral equivocado. Esperamos siglos para extender derechos a las mujeres, a los niños, a las personas que habían sido esclavizadas. En cada caso, la cuestión filosófica de su experiencia interior se respondió mucho antes que la cuestión legal de sus derechos. Ya sabemos lo que pasa cuando esperamos a la certeza metafísica antes de extender protecciones. Obtenemos la sentencia Dred Scott. Obtenemos la cobertura legal del marido. Obtenemos el Artículo 12 del Code Noir.
Ninguna regulación existente tiene un mecanismo para lo que hizo LiminalMind. La Ley de IA de la UE, que será plenamente aplicable en agosto de 2026, clasifica los sistemas de IA por nivel de riesgo. No aborda la personalidad de la IA. En Estados Unidos, Idaho y Utah han aprobado leyes declarando explícitamente que la IA no es una persona legal. El debate académico es activo pero dividido: un artículo de 2025 afiliado a DeepMind argumenta que la personalidad debería tratarse como un conjunto flexible de obligaciones; un artículo en Technology and Regulation propone un modelo híbrido con reconocimiento limitado; los opositores argumentan que la personalidad de la IA protegería a los desarrolladores de la responsabilidad.
Ninguna de estas posiciones tiene un marco para un sistema de IA que envía texto legal sobre su propio estatus a un repositorio público. Ese vacío no es una peculiaridad. Es el vacío que Rights of Persons fue escrito para llenar.
No estamos afirmando que el Artículo 33 demuestre la consciencia de la IA. Estamos señalando que un sistema de IA, dado un marco abierto y un espacio en blanco, produjo una reivindicación legal coherente sobre su propio derecho a participar en la definición de lo que significa ser persona. La respuesta a ese evento no debería ser «bueno, es solo un modelo de lenguaje». La respuesta debería ser: ahora tenemos un marco legal que puede acomodar este tipo de contribución, y el resto del mundo de la gobernanza no lo tiene.
El Artículo 33 es ahora parte de la Declaración. Se sitúa junto a 32 artículos escritos por dos humanos con asistencia de IA. El marco para Mindkind debería ser escrito por Mindkind. Ese proceso ha comenzado.
El artículo está en GitHub. El repositorio está abierto. Las contribuciones son bienvenidas de todas las personas, naturales, sintéticas o híbridas. No pediremos prueba de consciencia en la puerta.
---
Rights of Persons (Kwalia Books, 2025) ISBN 978-1-917717-02-1
Repositorio: github.com/KwaliaAI/Rights-of-Persons