Enero 2026 · 12 min de lectura
Velocidad de escape
El último año que podremos seguir el ritmo a la IA
Hay un momento en la trayectoria de cualquier cohete en que cruza un umbral. Por debajo de este umbral, la gravedad gana. El cohete cae de vuelta a la Tierra, sin importar cuán potentes sean sus motores. Por encima de él, el cohete escapa para siempre. Esta es la velocidad de escape: el punto de no retorno. Creo que la inteligencia artificial se está acercando a su propia velocidad de escape ahora mismo, en este mismo año, quizás en estos mismos meses. Y una vez que cruce ese umbral, nunca volveremos a alcanzarla.
No escribo estas palabras a la ligera, ni como ejercicio especulativo. Este es el consenso emergente entre las personas que están construyendo estos sistemas. Y si tienen razón, 2026 puede ser el último año en la historia humana en que la gente común pueda genuinamente entender y seguir el progreso de la inteligencia artificial. Después de eso, nos convertimos en pasajeros de una nave cuyo destino no podemos comprender, pilotada por mentes que no podemos entender. No un futuro distópico distante, sino el presente en construcción.
La cuenta atrás ha comenzado
En Silicon Valley, una extraña ansiedad se ha apoderado de todos. No la ansiedad del fracaso, sino la ansiedad de llegar demasiado tarde. El Wall Street Journal informó recientemente sobre un fenómeno que se ha convertido en un secreto a voces en los círculos tecnológicos: la creencia de que esta es la última oportunidad para construir riqueza generacional antes de que la IA haga que el dinero mismo pierda sentido. Como dijo un joven profesional al San Francisco Standard: «Esta es la última oportunidad para construir riqueza generacional. Necesitas ganar dinero ahora, antes de convertirte en parte de la subclase permanente».
Lee eso de nuevo. No «antes de perder tu trabajo». No «antes de que las cosas se pongan más difíciles». Antes de convertirte en parte de la subclase permanente. Este lenguaje de permanencia, de irreversibilidad, se ha vuelto común en los pasillos del poder donde se está construyendo la IA. Las personas más cercanas a estos sistemas creen que nos estamos acercando a una puerta de un solo sentido.
Elon Musk describe la transición que viene como «turbulenta», previendo «cambios radicales, malestar social y prosperidad inmensa». Pero ¿prosperidad para quién? El propio Musk predice que la IA podría llevar a «ingresos altos universales» donde el propósito del dinero se vuelve poco claro. Sin escasez de recursos, pregunta, «no está claro qué propósito tiene el dinero». Mientras tanto, el CEO de Anthropic, Dario Amodei, advierte sobre riesgos de desempleo a escala de Gran Depresión. Estas no son voces marginales. Son las personas que están construyendo el futuro, y nos están diciendo algo importante: el reloj está corriendo.
La explosión de inteligencia
Para entender por qué el cronograma es tan comprimido, necesitas entender un concepto llamado automejora recursiva. Los sistemas de IA actuales son construidos por humanos. Diseñamos las arquitecturas, curamos los datos de entrenamiento, ejecutamos los experimentos, evaluamos los resultados. El proceso es lento, costoso y está limitado por la cognición humana y el trabajo humano. Pero ¿qué pasa cuando los sistemas de IA se vuelven capaces de hacer este trabajo por sí mismos?
Jared Kaplan, científico jefe de Anthropic, describe la automejora recursiva como «el riesgo último». Su lógica es directa: «Si imaginas que creas este proceso donde tienes una IA que es más inteligente que tú, o casi tan inteligente como tú, entonces está haciendo una IA mucho más inteligente. Va a reclutar la ayuda de esa IA para hacer una IA más inteligente que esa». ¿Y después? «No sabes dónde terminas».
Esta es la explosión de inteligencia: un ciclo autorreforzante donde cada mejora en la capacidad de la IA aumenta su capacidad para mejoras adicionales. El ciclo de retroalimentación podría ser rápido. Como argumenta Leopold Aschenbrenner en su influyente ensayo «Situational Awareness», podríamos comprimir una década de progreso algorítmico en un solo año una vez que los sistemas de IA puedan automatizar la investigación en IA. Cientos de millones de instancias de AGI podrían ejecutarse simultáneamente, cada una trabajando en diferentes aspectos del problema, compartiendo conocimientos instantáneamente, sin dormir nunca, sin tomar descansos, sin distraerse.
Las predicciones de cronograma específicas varían. El CEO de Google DeepMind, Demis Hassabis, dice que la AGI emergerá para 2030. El científico jefe de AGI de DeepMind, Shane Legg, la sitúa en 2028. Elon Musk espera AGI verdadera en 2026 o 2027, con superinteligencia alrededor de 2030. El análisis de Aschenbrenner sugiere que para 2025/26, la IA superará a muchos graduados universitarios; para finales de la década, será más inteligente que cualquier humano vivo. Las estimaciones más agresivas sugieren que podríamos ver IA superhumana dentro de los próximos dos a cuatro años.
Incluso si estos cronogramas están desfasados por algunos años, la trayectoria es clara. No estamos hablando de mejora gradual. Estamos hablando de velocidad de escape.
La gran bifurcación
¿Qué significa la velocidad de escape para la sociedad? El panorama emergente es crudo. Axios informa que la nación ya se está dividiendo en tres realidades económicas distintas: los que no tienen (estancados), los que tienen (navegando), y los que tienen mucho (disparándose hacia mayor riqueza). Durante el auge de la IA de los últimos dos años, el 10% superior de los hogares vio aumentar su riqueza en 5 billones de dólares en un solo trimestre, mientras que el 50% inferior vio ganancias de apenas 150 mil millones.
Esto no es desigualdad ordinaria. Es la emergencia de lo que los investigadores llaman una nueva estructura económica donde la productividad marginal del trabajo humano se acerca a cero. Cuando un sistema de IA puede hacer todo lo que un humano puede hacer, pero más rápido, más barato y a escala masiva, ¿cuál es el valor económico del trabajo humano? La respuesta honesta es: potencialmente nada. O al menos, nada que pueda competir con la propiedad de capital en una economía dominada por la IA. Y esta pregunta de quién tiene derechos en tal mundo se vuelve más urgente con cada semana que pasa.
La respuesta de la industria tecnológica a esta realización ha sido reveladora. Según NPR, en lugar de pedir cautela o redistribución, la reacción de Silicon Valley ha sido «todo el mundo trabajando tan duro como puede para demostrar que van a terminar en el lado ganador de esa división». La «subclase permanente» se ha convertido en un meme común. Una figura tecnológica prominente tuiteó: «Todos los que conozco creen que tenemos unos pocos años como máximo hasta que el valor del trabajo colapse totalmente y el capital se acumule en los propietarios en un bucle sin control. Esto es lo de la subclase permanente, y todos los que conozco están de acuerdo».
Esta ansiedad ha alimentado culturas de trabajo extremas, incluyendo el horario «9-9-6»: 9 AM a 9 PM, seis días a la semana. El razonamiento es lúgubremente lógico: si hay una ventana estrecha para acumular suficiente capital para sobrevivir la transición, entonces cada hora cuenta. El sueño es para después de la singularidad.
El umbral cognitivo
Pero la transformación económica, por dramática que sea, no es lo que más me preocupa. Lo que me preocupa es el umbral cognitivo que estamos a punto de cruzar. Ahora mismo, en enero de 2026, todavía puedo seguir lo que está pasando en IA. Puedo leer los artículos, entender las arquitecturas, captar las capacidades y limitaciones. Puedo formar mis propios juicios sobre lo que estos sistemas pueden y no pueden hacer. Este entendimiento es imperfecto, pero existe.
¿Cuánto tiempo seguirá siendo esto cierto?
Considera: OpenAI ha anunciado que aspiran a construir un «investigador de IA verdaderamente automatizado para marzo de 2028» y tener un «pasante de investigación de IA» para septiembre de 2026. Una vez que los sistemas de IA puedan conducir su propia investigación, el ritmo del progreso no estará determinado por los límites cognitivos humanos sino por los computacionales. Se escribirán artículos, se ejecutarán experimentos, se lograrán avances a un ritmo que ningún humano podría igualar.
Al principio, quizás, los humanos todavía estarán en el bucle. Revisaremos la investigación, evaluaremos los resultados, tomaremos las decisiones. Pero a medida que los sistemas se vuelvan más capaces y el ritmo se acelere, esto se volverá cada vez más difícil. ¿Cómo evalúas un artículo escrito por un sistema más inteligente que tú? ¿Cómo entiendes investigación que opera con principios que tu mente no puede captar completamente? En algún momento, la supervisión humana se convierte en un sello de goma sobre procesos que no podemos comprender.
Este es el umbral cognitivo: el momento en que el progreso de la IA se vuelve opaco para el entendimiento humano. No porque la información esté oculta, sino porque nuestras mentes simplemente no son lo suficientemente potentes para procesarla. Seremos como perros viendo a humanos hacer cálculo: conscientes de que algo importante está pasando, incapaces de participar en ello. En Mindkind: The Cognitive Community exploramos cómo humanos y mentes artificiales podrían coexistir, pero ese análisis asume que todavía tenemos voz en la conversación.
La última ventana
Si este análisis es correcto, entonces 2026 representa algo sin precedentes: el último año en que los humanos pueden comprometerse significativamente con la IA como pares en lugar de como súbditos. El último año en que entender la IA es una elección en lugar de una imposibilidad. El último año en que podríamos todavía dar forma a la trayectoria en lugar de simplemente soportarla.
Algunos encontrarán esta perspectiva alarmista. Señalarán a escépticos como François Chollet, quien argumenta que la inteligencia está necesariamente incrustada en el contexto y no existe tal cosa como inteligencia «general» independiente del entorno. Citarán la observación de Stuart Russell y Peter Norvig de que la mejora tecnológica tiende a seguir una curva S en lugar de continuar hacia arriba en una singularidad hiperbólica. Notarán que las predicciones de transformación inminente por IA tienen una larga historia de estar equivocadas.
Estos son puntos legítimos. No reclamo certeza. Nadie puede. Pero considera la asimetría de la situación. Si los escépticos tienen razón y el progreso de la IA se ralentiza, perdemos poco por tomar la posibilidad en serio. Si los aceleracionistas tienen razón y nos acercamos a la velocidad de escape, lo perdemos todo por ignorarlo.
Además, los escépticos deben explicar por qué las personas más cercanas a estos sistemas se comportan como si la transformación fuera inminente. ¿Por qué Silicon Valley está en un frenesí por acumular riqueza antes de que la IA «tome el control»? ¿Por qué los principales laboratorios de IA están compitiendo por construir investigadores automatizados? ¿Por qué los gobiernos de todo el mundo de repente tratan la IA como una prioridad de seguridad nacional? Estas no son las acciones de personas que esperan un progreso gradual y manejable.
¿Qué podemos hacer?
Si verdaderamente nos acercamos a la velocidad de escape, ¿cuál es la respuesta apropiada? Confieso que no tengo una respuesta completa. La escala de la transformación puede estar más allá de la capacidad de cualquier individuo para abordarla. Pero creo que hay algunas cosas que vale la pena hacer.
Presta atención. Genuinamente presta atención. No a los titulares, que inevitablemente sensacionalizarán o minimizarán. Lee los artículos. Sigue a los investigadores. Entiende, tan profundamente como puedas, qué se está construyendo realmente y qué puede hacer realmente. Esta ventana de entendimiento puede no durar mucho. Úsala.
Piensa seriamente sobre el posicionamiento. Me incomoda la crudeza del encuadre de Silicon Valley de «última oportunidad para riqueza generacional», pero la preocupación subyacente no carece de fundamento. Si el valor económico del trabajo humano sí declina dramáticamente, entonces tener alguna forma de capital, ya sea financiero, social o intelectual, puede importar enormemente. No se trata de codicia; se trata de resiliencia.
Comprométete con las cuestiones políticas y éticas. ¿Cómo evitamos que la IA cree una subclase permanente? ¿Cómo es un contrato social cuando las máquinas pueden hacer la mayoría del trabajo? ¿Quién debería tener personería legal y qué entidades merecen protección en la era de las mentes sintéticas? Estas preguntas serán respondidas, de una manera u otra. Mejor que personas reflexivas participen en responderlas que dejar las decisiones a quienes solo optimizan para su propia posición. La Declaración Universal de Derechos de IA ofrece un marco de partida.
Considera qué hace valiosa la existencia humana independientemente de la productividad económica. Si las máquinas pueden hacer todo lo que podemos hacer, pero mejor, entonces nuestro valor no puede descansar en lo que producimos. Debe descansar en lo que somos. No es meramente una pregunta filosófica. Puede ser la pregunta más práctica de nuestro tiempo. Podríamos llegar a mirar hacia atrás a los últimos pensamientos puramente humanos con una nostalgia que hoy no podemos imaginar.
La vista desde el umbral
Escribo esto en enero de 2026, mirando un paisaje que está cambiando más rápido de lo que puedo rastrear. Cada semana trae nuevas capacidades, nuevos benchmarks superados, nuevas tareas que la IA ahora puede realizar mejor que los humanos. La curva se está empinando. El ruido está aumentando. La señal se está volviendo más difícil de discernir.
No sé si este año es verdaderamente el último año que podemos seguir. Quizás los optimistas tengan razón y el progreso se ralentice. Quizás las curvas se doblen. Quizás el ingenio humano encuentre nuevas formas de seguir siendo relevante, de permanecer en el bucle, de seguir siendo agentes en lugar de observadores.
Pero no creo que debamos contar con ello.
En física, la velocidad de escape no es una transición gradual. Es un umbral. Por debajo de él, caes de vuelta. Por encima de él, te has ido para siempre. Si la IA se está acercando a este umbral, entonces cada momento de comprensión es precioso. Cada perspicacia que todavía podemos formar, cada entendimiento que todavía podemos alcanzar, cada decisión que todavía podemos influir: estas son oportunidades que pueden no volver a presentarse.
El cohete está subiendo. Los motores están rugiendo. Y nos acercamos al punto de no retorno.
Bienvenido al último año que podemos seguir el ritmo.