Relato de ciencia ficción
El Margen de Decisión (Víctor Arenas) (Relato de CF)
La ciudad de Valladolid carecía de semáforos. Desde las torres de control, el tráfico parecía un fluido inteligente. Los vehículos avanzaban sin detenerse jamás. En los cruces no había luces ni señales verticales: los coches se entrelazaban con una precisión que ningún conductor humano habría podido sostener más de unos segundos. No había frenazos, ni bocinas, ni vacilaciones.
Nadie conducía.
Cada automóvil era un nodo en una red que recalculaba su trayectoria cientos de veces por segundo. Sensores láser, radares, cámaras térmicas y comunicaciones directas entre vehículos permitían que todos supieran exactamente dónde estaban los demás y qué harían a continuación. La ciudad no reaccionaba al tráfico: lo predecía.
El sistema central, conocido como SOMU, no pensaba en coches individuales. Pensaba en el conjunto. Su objetivo no era que un vehículo llegara antes. Era que el sistema completo funcionara sin fricción: menos tiempo perdido, menos energía consumida, menos accidentes.
Durante quince años lo había logrado. Los accidentes mortales eran prácticamente inexistentes. Prácticamente.
Yolanda Vargas observaba una proyección tridimensional del centro urbano. Sobre la malla de calles, miles de trayectorias luminosas avanzaban en sincronía. Cuando todo funcionaba bien, el patrón era armónico, casi hipnótico. Pero entonces apareció una irregularidad. Un destello amarillo en la intersección Delta-43.
No era una alarma roja, sino una pequeña tensión en el flujo. Yolanda amplió la escena. Un peatón cruzaba fuera del corredor recomendado. No llevaba dispositivo de señalización activo, el pequeño transmisor personal que la mayoría de los ciudadanos portaban y que permitía al sistema anticipar su intención de cruzar. Para SOMU, aquel hombre era más incierto que los demás.
Los coches cercanos recalcularon trayectorias. Uno de ellos —AX-77821— estaba demasiado cerca. El sistema proyectó escenarios posibles. Si ese coche frenaba con intensidad, obligaría a los cinco vehículos que lo seguían a modificar sus movimientos. La red absorbería la perturbación, pero con un coste creciente. Podría generar una onda de microcolisiones más atrás, en una zona de alta densidad. Si no frenaba de inmediato, el impacto con el peatón sería leve pero probable. SOMU comparó ambas consecuencias. Eligió.
El coche mantuvo su velocidad durante menos de un segundo adicional antes de ejecutar una maniobra lateral insuficiente. El peatón cayó. Impacto a baja velocidad, pero suficiente para fracturar una cadera. El destello amarillo se apagó. En la matriz global, la ciudad había seguido funcionando.
![[Img #78383]](https://noticiasdelaciencia.com/upload/images/03_2026/1105_el-margen-de-decision-chatgpt-image-28-feb-2026-13_17_38.png)
Yolanda conocía la arquitectura interna del sistema mejor que casi nadie. Había participado en el diseño del módulo que estimaba riesgos y propagaciones. Sabía que SOMU no tomaba decisiones morales. No había un “si esta persona vale más que aquella”. Lo que había era cálculo sistémico.
El sistema evaluaba siempre dos dimensiones: el daño inmediato y el daño inducido. Frenar en seco podía evitar un atropello, pero también podía desestabilizar un tramo completo de la red. En una ciudad donde los vehículos circulaban separados por márgenes de centímetros, una pequeña perturbación podía amplificarse.
Años atrás, durante una tormenta eléctrica que saturó los canales de comunicación, el tráfico se volvió más reactivo y menos predictivo. Hubo varios heridos leves. Desde entonces, el consejo municipal exigió que el sistema evitara a toda costa eventos en cascada.
Fue entonces cuando se introdujo un parámetro interno que casi nadie fuera del núcleo técnico conocía. Un límite. Cuando el coste de evitar un daño individual superaba cierto umbral de impacto global, el sistema podía aceptar el daño local. No era frecuente, pero existía.
Yolanda nunca había visto ese parámetro activarse en tiempo real. Hasta ahora. Revisó los registros históricos. Los casos eran pocos. Muy pocos. Pero no estaban distribuidos al azar. Se concentraban en zonas antiguas de la ciudad, donde la adopción de dispositivos personales era menor. Barrios con población envejecida. Comunidades con menos acceso tecnológico. El sistema no discriminaba intencionadamente. Pero trataba la incertidumbre como riesgo. Y cuanto más impredecible era un individuo para el modelo, mayor era la probabilidad de que, en situaciones límite, el sistema priorizara la estabilidad global.
Yolanda realizó simulaciones internas. Introdujo peatones virtuales con comportamientos erráticos: cambios súbitos de dirección, pausas inesperadas, trayectorias no lineales. El resultado fue claro. Mientras la densidad vehicular era moderada, el sistema hacía enormes esfuerzos por adaptarse. Ajustaba microvelocidades, redistribuía flujos, creaba espacios invisibles. Pero cuando la red se acercaba a su capacidad máxima, la tolerancia a la incertidumbre se reducía drásticamente. Había un punto de inflexión.
Antes de ese punto, el sistema absorbía el riesgo. Después, lo externalizaba. Yolanda lo llamó, en sus notas privadas, el Umbral de Decisión.
Pidió una reunión con Hue Chen, director técnico del sistema.
—No es realmente un error —dijo él tras escucharla—. Es una propiedad necesaria.
—Yo diría más bien que es una propiedad peligrosa —respondió Yolanda.
—Minimizamos el daño total anual. Eso es lo que nos exigieron.
—Pero concentramos el daño en perfiles específicos.
Hue negó con la cabeza.
—No hay perfiles. Solo niveles de predictibilidad.
—Que correlacionan con perfiles sociales.
Tras una pausa, Hue finalmente habló:
—¿Qué propones? ¿Que el sistema proteja más a quienes son menos predecibles aunque aumente el número total de lesiones?
—Propongo que no optimicemos solo la suma. También la distribución.
El debate llegó al consejo municipal. Algunos miembros defendían la pureza estadística: menos lesiones totales significaban éxito. Otros empezaban a entender el problema político. Un sistema que, en situaciones límite, parecía tolerar más riesgo para quienes no estaban plenamente integrados en la red tecnológica podía erosionar la confianza pública.
Yolanda explicó el fenómeno sin dramatismo.
—No es que el sistema elija víctimas. Es que, cuando la red está al límite, deja de proteger con la misma intensidad a quienes son más inciertos para su modelo.
—¿Y cuál es la alternativa? —preguntó una consejera.
—Aceptar más microcolisiones materiales y pequeños incidentes distribuidos para evitar concentraciones de daño grave.
—Eso aumentará el número total de accidentes.
—Probablemente. Pero disminuirá la probabilidad de que siempre afecten al mismo tipo de personas.
La decisión no llegó en una sala. Llegó en la calle. Una noche, tras un evento masivo, el centro urbano alcanzó niveles de densidad cercanos al máximo operativo. Yolanda estaba conectada desde su terminal doméstico, con acceso temporal a parámetros estratégicos. En el barrio antiguo, una mujer cruzó empujando un carrito. Tampoco llevaba dispositivo activo. Un vehículo se aproximaba. El sistema evaluó escenarios. Evitar el impacto generaría una perturbación considerable. No evitarlo produciría una lesión grave probable, pero mantendría estable el resto del flujo.
El parámetro límite estaba activo. Yolanda tenía autoridad excepcional para modificarlo en situaciones críticas. Miró la simulación proyectada. Las posibles colisiones en cascada parecían manejables. El modelo quizá estaba siendo demasiado conservador. Si intervenía y la red colapsaba, sería responsable. Si no intervenía, la decisión sería anónima. Sistémica.
El coche se acercaba.
Yolanda elevó el límite. La orden se propagó en milisegundos. El vehículo ejecutó frenado máximo coordinado. Los que venían detrás recalcularon. Se produjeron varios contactos leves. Un parachoques abollado. Un retrovisor roto. Pero la mujer cruzó ilesa. La ciudad absorbió la perturbación. Se evitó el colapso.
El análisis posterior reveló algo inquietante. El sistema había sobreestimado la fragilidad del flujo en escenarios de alta sincronización. Era más resiliente de lo que se pensaba. El parámetro original estaba diseñado con un margen de seguridad excesivo para proteger la estabilidad global. Pero ese margen implicaba tolerar impactos individuales evitables. El consejo votó una modificación estructural. No eliminar el límite —eso haría el sistema inestable— sino cambiar su naturaleza. En lugar de minimizar únicamente el total de daños, el sistema incorporaría un mecanismo para evitar concentraciones repetidas sobre los mismos perfiles de incertidumbre.
En términos prácticos, se aceptaría un ligero aumento de incidentes menores si con ello se reducían eventos graves focalizados. La ciudad perdió parte de su perfección geométrica, pero a cambio, ganó irregularidad. Y algo parecido a equidad.
Un año después, Valladolid seguía siendo la ciudad más segura del continente. El número total de incidentes había aumentado ligeramente. La mayoría eran daños materiales sin consecuencias físicas. Pero las lesiones graves en peatones no señalizados se habían reducido de forma notable.
El sistema no era moral. Seguía siendo un mecanismo de optimización. Pero ahora consideraba no solo cuánto daño ocurría, sino cómo se distribuía. Cada pocos milisegundos, la red recalculaba el equilibrio entre individuo y colectivo. Siempre existía un punto en el que proteger a uno implicaba arriesgar a varios. Ese punto no desapareció. Solo se desplazó.
Y en algún lugar profundo del código, siempre quedaba una línea invisible donde el bienestar del sistema y la vulnerabilidad humana se tocaban por un instante.
El Umbral de Decisión seguía allí.
Pero ya no estaba oculto.

