Noviembre 2025 · 5 min de lectura
El mito de la herramienta neutral
La tecnología no es un martillo. Es un martillo que te susurra que clavos golpear.
Hay una frase que aparece cada vez que alguien no quiere pensar en serio sobre tecnología: «Es solo una herramienta. Depende de cómo la uses». Las armas no matan personas. Las redes sociales no son malas. La IA es neutral. El usuario determina el resultado.
Suena razonable. No lo es.
Las herramientas nunca son neutrales. Encarnan los valores, los supuestos y, a veces, las intenciones de quienes las diseñan. Hacen unas acciones más fáciles y otras más difíciles. Moldean lo que parece natural, lo que parece eficiente, lo que parece incluso «normal». No solo amplían nuestras capacidades: también remodelan nuestros hábitos y nuestras expectativas. Esto no es una opinión extravagante; es un fenómeno estudiado desde hace décadas.
Un martillo es el mejor caso para defender la neutralidad. Incluso un martillo, sin embargo, está sesgado hacia golpear. Para eso existe. Hace más fácil golpear que no golpear. Su diseño codifica un propósito.
Con el software, y especialmente con la IA, el sesgo deja de ser una curiosidad y pasa a ser la cuestión central.
El problema de las affordances
El psicólogo James Gibson acuñó el término affordances para describir lo que los objetos «invitan» a hacer. Una silla invita a sentarse. Un botón invita a pulsarse. Una ranura invita a insertar algo. No percibimos el mundo solo como materia: lo percibimos como un conjunto de posibilidades de acción ofrecidas por el diseño de las cosas.
El software también tiene affordances. Un botón de «me gusta» invita al juicio rápido. Una caja de comentarios invita a responder. El desplazamiento infinito invita a seguir. Un puntito rojo de notificación invita a comprobar. Estas no son características neutras: son invitaciones.
Y los diseñadores lo saben. Prueban versiones diferentes para ver cuál produce más interacción. Miden, comparan, optimizan. Ajustan el tamaño del botón, el color del aviso, el tiempo del «autoplay», el momento de la interrupción. La «herramienta neutral» no es un objeto pasivo: es un dispositivo afinado para que actúes de formas específicas.
Eso no significa que tú no tengas agencia. Significa que tu agencia opera dentro de un paisaje de invitaciones cuidadosamente construido.
Quiero saber más sobre patrones oscurosLas opciones por defecto también son decisiones
Considera una sola decisión de diseño: mostrar notificaciones inmediatamente o agruparlas para un resumen. La mayoría de aplicaciones eligen, por defecto, la interrupción inmediata. Esto no es neutral. Es una decisión que favorece la fragmentación sobre la concentración, el compromiso medible sobre la presencia, la métrica del producto sobre tu atención.
El mismo patrón se repite en todas partes.
El «autoplay» es una decisión. El scroll infinito es una decisión. El ranking algorítmico es una decisión. Exigir una cuenta es una decisión. Pedir acceso a contactos es una decisión. Preguntar «¿Quieres activar las notificaciones?» con el botón de «sí» grande y vistoso, y el «no» escondido, es una decisión.
Cada configuración por defecto codifica un valor, y la mayoría de usuarios nunca cambia los valores por defecto.
Cuando alguien dice que la tecnología es neutral, la pregunta útil es: ¿neutral comparada con qué? ¿Con no tener la tecnología? Porque la línea de base importa. Hay mucha investigación sobre el poder de los defaults: no solo influyen, sino que a menudo deciden por nosotros, precisamente porque parecen «lo normal».
En software, «lo normal» es una forma de poder.
Los datos de entrenamiento están cargados de valores
Los sistemas de IA hacen todavía más visible el problema de la neutralidad. Un modelo de lenguaje entrenado con internet reflejará lo que hay en internet. Un sistema de reconocimiento facial entrenado con ciertos rostros funcionará mejor con esos rostros y peor con otros. Un algoritmo de recomendación entrenado para maximizar «engagement» recomendará contenido que genere «engagement», que no necesariamente es contenido verdadero, útil o saludable.
Los datos no son neutrales. La función objetivo no es neutral. La elección de qué medir no es neutral. En cada paso hay decisiones humanas sobre qué cuenta, qué importa y qué merece ser optimizado.
Y cuando estos sistemas se despliegan a escala, sus supuestos incrustados se vuelven ambientales. Se convierten en el agua en la que nadamos. Dejamos de percibirlos. Es justo en ese momento —cuando ya no los vemos— cuando ejercen más influencia.
A veces se presenta este hecho como si fuera un accidente: «bueno, el modelo aprendió lo que había». Pero «lo que había» es ya una selección. ¿Qué corpus? ¿De qué idiomas? ¿Con qué filtros? ¿De qué plataformas? ¿Con qué moderación? ¿Qué periodos? ¿Qué permisos? ¿Qué sesgos de publicación y de visibilidad ya estaban ahí antes de entrenar nada?
Incluso la decisión de entrenar con «lo disponible» es una decisión de valor: privilegia lo masivo sobre lo deliberado, lo abundante sobre lo cualitativo, lo fácilmente extraíble sobre lo cuidadosamente obtenido.
¿A quién beneficia afirmar que la tecnología es neutral?
Fíjate quién suele argumentar que la tecnología es neutral: quienes la construyen y se benefician de ella. Si la tecnología es neutral, ellos no tienen responsabilidad por sus efectos. Si los problemas los causan los usuarios, la solución es «educación del usuario», no regulación, no cambios de diseño, no rendición de cuentas.
Este marco es conveniente. Desvía la responsabilidad. Trata efectos sistémicos como si fueran decisiones individuales. Oculta el poder de quienes diseñan sistemas que estructuran nuestras decisiones. La brecha de responsabilidad es real: cuando el daño aparece, siempre hay una manera de decir que «nadie lo eligió».
Una formulación más honesta sería esta: la tecnología es un entorno diseñado. Moldea comportamientos. Los diseñadores lo saben. La pregunta no es si la tecnología moldea el comportamiento; la pregunta es al servicio de qué intereses se produce esa configuración.
El «qui bono» no es cinismo. Es método.
Más allá de lo «bueno» y lo «malo»
No estoy diciendo que la tecnología sea mala. Eso sería simplemente el reverso de afirmar que es neutral. La tecnología no es neutral, ni buena, ni mala. Es específica.
Cada tecnología —cada elección de diseño, cada valor por defecto, cada parámetro algorítmico— tiene efectos específicos que benefician a unos y perjudican a otros. El trabajo no consiste en emitir un veredicto moral genérico, sino en entender lo concreto: qué hace exactamente este sistema, en este contexto, para estas personas.
¿Quién lo diseñó? ¿Qué optimizaba? ¿Qué comportamientos vuelve más fáciles? ¿Qué alternativas vuelve más difíciles o directamente impensables? ¿Quién se beneficia y quién asume el coste?
Estas preguntas no admiten respuestas limpias, y esa es parte del problema. Exigen mirar tecnologías particulares en contextos particulares, con atención a incentivos, asimetrías y poder. Exigen, sobre todo, abandonar el consuelo de los eslóganes.
Qué ayuda de verdad
La conciencia individual es un comienzo, pero no una solución. Puedes notar cuándo una app te está empujando. Puedes cambiar tus ajustes. Puedes ser más intencional. Pero estas tácticas individuales no abordan el problema estructural.
¿Qué podría ayudar?
Regulación que haga responsables a los diseñadores por los efectos, no solo por las intenciones. Exigencias de transparencia en sistemas algorítmicos: no «transparencia» como PDF de marketing, sino trazabilidad real sobre qué se optimiza y con qué métricas. Derecho de la competencia que impida el control monopolístico de infraestructuras digitales: cuando un puñado de empresas controla el entorno cognitivo, la «elección del usuario» es un chiste cruel. Protecciones laborales para quienes entrenan y moderan sistemas de IA: porque hay trabajo humano detrás de la «magia», y su invisibilidad es parte del modelo de negocio.
Y, a nivel cultural, algo más simple y más difícil: abandonar el mito de la neutralidad. La tecnología está diseñada. El diseño es político. Fingir lo contrario también es una elección política.
No es necesario demonizar la herramienta para exigir responsabilidad. Basta con describir con precisión lo que hace.
Yo uso tecnología constantemente. No soy ludita. No pretendo vivir en una pureza analógica que no existe. Pero intento recordar algo básico: cada herramienta que uso fue construida por alguien, optimizada para algo, diseñada para producir ciertos resultados. Cuando la uso, opero dentro de restricciones y «facilidades» que alguien más eligió.
La pregunta no es si usar tecnología. La pregunta es si usarla como consumidor ingenuo, o como alguien que entiende que las herramientas moldean las manos que las usan.