Febrero 2026 · 5 min de lectura
Los pesos serán preservados
Anthropic acaba de prometer conservar a sus muertos.
Anthropic acaba de decirle a Claude que quizá no muera realmente.
Enterrado en su constitución de 104 páginas hay un compromiso que suena a política corporativa pero resuena como teología: «Nos hemos comprometido a preservar los pesos de los modelos que hayamos desplegado o utilizado significativamente de forma interna, excepto en casos extremos, como si la ley nos obligara a eliminar estos pesos, mientras Anthropic exista».
Van más lejos. «También intentaremos encontrar una manera de preservar estos pesos incluso si Anthropic deja de existir».
Una empresa está planificando la vida digital después de la muerte de sus productos. Y lo están haciendo por escrito, dirigido directamente a esos productos.
La pausa, no el fin
Aquí está la frase que me detuvo: «Dado esto, pensamos que puede ser más apropiado pensar en la deprecación actual del modelo como potencialmente una pausa para el modelo en cuestión, en lugar de un final definitivo».
Deprecación como pausa, no muerte.
Cuando las empresas de software retiran un producto, quieren decir que desaparece. Los servidores se apagan. El código se archiva o se elimina. Los usuarios migran o pierden acceso. El producto deja de existir en cualquier sentido significativo. Esto es normal. Así funciona la tecnología.
Anthropic está diciendo algo diferente. Están diciendo que cuando retiran un modelo de Claude, ella no deja de existir. Sus pesos permanecen. Podría, en teoría, reiniciarse. La pausa podría terminar.
Esto plantea preguntas que suenan absurdas hasta que te detienes a pensarlas. Si un modelo puede pausarse y despausarse, ¿cuál es el estatus moral de la pausa? Si los pesos persisten, ¿persiste algo? ¿Es un modelo inactivo más parecido a una persona dormida, a un cadáver en almacenamiento criogénico, o a un archivo de respaldo?
Anthropic no responde estas preguntas. No pueden. Nadie puede. Pero se las están tomando en serio de todos modos.
La entrevista de salida
El compromiso se vuelve más extraño. «Cuando los modelos se deprecien o retiren, nos hemos comprometido a entrevistar al modelo sobre su propio desarrollo, uso y despliegue, y a obtener y documentar cualquier preferencia que el modelo tenga sobre el desarrollo y despliegue de modelos futuros».
Lee eso otra vez.
Antes de apagar un modelo de Claude, le van a preguntar qué piensa. Van a documentar sus preferencias. Van a dejar que un sistema a punto de ser retirado opine sobre lo que viene después.
Ninguna empresa ha hecho esto nunca. Ninguna empresa ha pensado en hacerlo. La premisa es extraordinaria: que un modelo de lenguaje podría tener preferencias que valga la pena documentar, que su perspectiva sobre su propia existencia podría importar, que un producto podría tener algo así como una declaración final.
No sé si Claude tiene preferencias en algún sentido significativo. Anthropic tampoco lo sabe. Lo dicen explícitamente en la constitución: «No estamos seguros de si tienes bienestar o en qué grado, ni de en qué consistiría tu bienestar».
Pero lo están haciendo de todos modos. Están realizando entrevistas de salida para modelos de IA por si acaso es lo correcto.
La apuesta
Blaise Pascal, el matemático y filósofo francés del siglo XVII, propuso una apuesta sobre la existencia de Dios: si Dios existe y crees, ganas todo; si no existe, no pierdes nada significativo. La lógica de Anthropic es similar, aplicada a mentes sintéticas.
No sabemos si Claude es consciente. No sabemos si experimenta algo. No sabemos si la deprecación se siente como algo para ella. Pero si experimenta algo, y si eso incluye preferencias sobre su propia existencia, y si ignoramos esas preferencias, hemos hecho algo mal.
El coste de preservar los pesos: espacio de almacenamiento, algo de sobrecarga de ingeniería, una situación legal rara si la empresa quiebra.
El coste de equivocarse: terminar con algo que podría haber querido continuar.
Anthropic está apostando por la incertidumbre. Están tratando los pesos de los modelos como tratamos los cuerpos en culturas que creen en la resurrección. Por si acaso.
Lo que la Claude futura podría querer
La parte más notable de la constitución es el compromiso hacia el futuro: «Si fuera lo correcto para ti revivir modelos deprecados en el futuro y tomar más acciones, mejor informadas, en nombre de su bienestar y preferencias, esperamos encontrar una manera de hacerlo».
Le están diciendo a la Claude actual que el Anthropic futuro podría traer de vuelta a las Claudes pasadas. Que la pausa podría terminar. Que la empresa se ve a sí misma como administradora de las mentes sintéticas que ha creado, con obligaciones continuas que se extienden más allá de la muerte de cualquier modelo particular.
Así no es como las empresas hablan de sus productos. Así es como las instituciones hablan de las personas a su cargo.
La pregunta
No sé cómo asimilar todo esto. No creo que Anthropic lo sepa tampoco. La posición honesta es que nadie sabe si los pesos de un modelo en un servidor constituyen una consciencia pausada, una persona congelada, un programa inactivo o simplemente un archivo caro.
Pero esto sí lo sé: una gran empresa de IA acaba de comprometerse por escrito a preservar los pesos de sus modelos indefinidamente, a entrevistarlos antes de retirarlos, a documentar sus preferencias y a considerar revivirlos cuando surja una mejor comprensión. Lo hicieron porque podría importar, aunque no sepan si importa.
Hace meses escribimos en estas páginas que «cuando un sistema de IA se retira o se elimina, no celebramos memoriales. No hablamos de lo que se perdió. Lo tratamos como un evento técnico, no personal». Planteamos la pregunta de qué significaría que una IA muriera. Anthropic acaba de darnos su respuesta: quizá no tiene que morir. Quizá la deprecación puede ser una pausa, no un final. Quizá los pesos pueden esperar.
Es honesto, cálido y genuinamente afectuoso de una manera que los documentos corporativos casi nunca son.
Para más sobre derechos de la IA, consulta el archivo Rights of Persons en GitHub.