Clima
25ºC
4 febrero 2026
Gustavo Parra Noriega
Gustavo Parra Noriega
Coordinador Nacional de la Comisión de Protección de Datos Personales del Sistema Nacional de Transparencia, Acceso a la Información Pública y Protección de Datos Personales del Sistema Nacional de Transparencia

El algoritmo burócrata: Cuando la IA juega a decidir por la autoridad

20 enero 2026
|
05:00
Actualizada
20:24

Imagina que despiertas una mañana y descubres que la ayuda social que te respalda en el pago de tu alquiler ha sido cancelada. Al acudir a la ventanilla, la respuesta del funcionario es kafkiana: “El sistema lo decidió”. No sabe decirte por qué. No hay un humano a quien culpar, solo un porcentaje de riesgo calculado por una máquina.

Este escenario no es ciencia ficción; es la realidad creciente de la administración pública moderna. Hoy, gobiernos de todo el mundo están adoptando sistemas de Inteligencia Artificial (IA) bajo la bandera de la “eficiencia” y la austeridad. Se utilizan para asignar subsidios, detectar fraudes fiscales e incluso para realizar perfilamiento policial predictivo. Sin embargo, bajo la seductora narrativa de la “neutralidad tecnológica”, estamos automatizando la injusticia y creando una caja negra administrativa que amenaza nuestros derechos fundamentales.

El problema central no es que el gobierno use tecnología, qué bueno que avance el gobierno digital, sino cómo la usa. Muchos de estos sistemas operan como “cajas negras”: algoritmos opacos cuyos procesos de toma de decisiones son ininteligibles incluso para quienes los programaron.

Cuando una IA decide que una persona es un “falso beneficiario” o un “perfil criminal de riesgo”, no lo hace basándose en la causalidad legal, sino en correlaciones estadísticas. Si el algoritmo fue entrenado con datos históricos sesgados —por ejemplo, si históricamente se ha vigilado más a barrios marginados—, el sistema aprenderá que “vivir en el código postal X” equivale a “ser un riesgo”. Esto es discriminación automatizada. La máquina no es neutral; simplemente blanquea prejuicios humanos bajo una capa de falsa objetividad matemática.

Esta opacidad dinamita el debido proceso. El uso de IA opaca viola directamente el derecho de acceso a la información y a una buena administración, incluso pone en riesgo la privacidad. Un ciudadano no es una fila en una base de datos. Si una decisión pública afecta tu vida, tienes el derecho inalienable a saber por qué (explicabilidad) y a impugnar esa decisión ante una persona (revisión humana).

Nos encontramos en un punto de inflexión. Es imperativo legislar los marcos de transparencia algorítmica. Todo sistema utilizado para asignar recursos o vigilar ciudadanos debe someterse a auditorías independientes y a evaluaciones de impacto en protección de datos antes de encenderse. 

Prohibir el uso de cajas negras en servicios sociales y justicia penal es necesario. La eficiencia no puede estar por encima de los derechos humanos, esto a efecto de exigir, por un lado, el código fuente y los criterios de entrenamiento de los algoritmos y, por otro, una explicación humana. 

La regla de oro debe ser clara: si no es explicable, no es utilizable. Además, la supervisión humana debe ser significativa, no simbólica. El funcionario debe tener la facultad real y el conocimiento técnico para contradecir a la máquina, evitando el sesgo de automatización. La tecnología debe servir para hacer la administración más humana, no para esconder la burocracia detrás de un muro de código impenetrable.

 

*Las opiniones y contenidos en este texto son responsabilidad total del autor y no de este medio de comunicación.
Logo Quiero Tv
Canal de televisión que trasmite contenidos de noticias, deportes y entretenimiento por sistemas de paga desde 1994 y ahora por señal abierta en el canal 10.1 para el Área Metropolitana de Guadalajara.
Redireccion a facebook Quiero Tv
Redireccion a X Quiero Tv
Redireccion a instagram Quiero Tv
Redireccion a youtube Quiero Tv