Ante la parálisis federal, legisladores estatales implementan sus propias normas sobre vigilancia y seguridad de inteligencia artificial

Mientras el expresidente Donald Trump presiona al Congreso para que apruebe regulaciones de inteligencia artificial, los estados estadounidenses ya no esperan. Legisladores estatales frustrados por años de inacción federal han comenzado a implementar sus propias normas sobre vigilancia, seguridad y transparencia en sistemas de IA. El resultado es un mosaico regulatorio que refleja una realidad incómoda: Washington no es capaz de actuar, y las poblaciones estatales están asumiendo el riesgo.

Esta desconexión entre lo que Trump pide y lo que los estados ya están haciendo revela un problema más profundo en cómo se gobierna la tecnología en Estados Unidos. La inteligencia artificial no espera por consenso político. Se despliega en sistemas de crédito, reconocimiento facial, moderación de contenido y decisiones sobre beneficios sociales mientras legisladores federales debaten si siquiera necesitan regulación.

Durante años, los defensores de la industria tecnológica argumentaron que regular IA prematuramente mataría la innovación. El Congreso, capturado por esa narrativa y por los cabilderos de Silicon Valley, no actuó. Mientras tanto, ciudadanos reales enfrentaban consecuencias concretas: algoritmos que rechazaban sus solicitudes de crédito sin explicación, sistemas de reconocimiento facial que no los identificaban correctamente, plataformas que amplificaban desinformación en sus comunidades.

Los estados vieron que el gobierno federal no se movía y actuaron. California, Colorado, Illinois y otros han comenzado a implementar leyes que exigen transparencia en algoritmos, permiten auditorías independientes de sistemas de IA, y establecen responsabilidad cuando estos sistemas causan discriminación. No son regulaciones perfectas, pero representan algo que el Congreso aún no ha logrado: empezar.

La frustración de estos legisladores es legítima. ¿Cuántos años más debería esperar un ciudadano de Colorado para saber cómo un algoritmo decidió negarle un préstamo? ¿Cuántas personas más debería afectar un sistema de reconocimiento facial sesgado antes de que Washington actúe?

Pero las regulaciones estatales crean otro problema: fragmentación. Una empresa que opera en múltiples estados ahora enfrenta requisitos distintos en cada uno. Para algunos, esto suena como una victoria democrática — el poder regresando a los estados. Para otros, especialmente para startups y medianas empresas, se convierte en un laberinto de cumplimiento que favorece a las grandes corporaciones que pueden pagar equipos de abogados en cada jurisdicción.

Este es un punto que Trump y sus aliados en el mundo empresarial usan para argumentar que se necesita una regulación federal única. No están completamente equivocados en el diagnóstico. La fragmentación es ineficiente. Pero su solución — regulación federal que proteja a la industria por sobre los derechos de los ciudadanos — es exactamente lo opuesto de lo que necesitamos.

La pregunta real no es si regular IA o no. Eso ya está pasando. La pregunta es quién decide cómo se regula: ¿Las corporaciones que construyen estos sistemas? ¿Los estados donde viven los afectados? ¿Un Congreso capturado por cabilderos? ¿O las propias comunidades que viven con las consecuencias?

Las regulaciones estatales que están surgiendo tienden a priorizar transparencia y responsabilidad — exactamente lo que la industria menos quiere porque expone cómo sus algoritmos perpetúan discriminación. Si hay un sistema de crédito que niega préstamos a personas de ciertos códigos postales a tasas desproporcionadas, una auditoría lo mostraría. Y entonces habría que responder por ello.

Eso asusta a Silicon Valley. No porque crean que la regulación matará innovación genuina — la innovación que sirve a la mayoría seguirá existiendo. Asusta porque expone que mucha de la "innovación" de hoy simplemente automatiza decisiones humanas sesgadas y las reviste de legitimidad científica.

Trump pidiendo al Congreso que actúe es revelador. No pide que proteja a trabajadores, ciudadanos o comunidades vulnerables. Pide que el Congreso "desbloquee" leyes — un eufemismo para debilitar regulaciones que podrían obstaculizar ganancias empresariales.

Los estados están tomando el control porque tienen que hacerlo. Sus ciudadanos no pueden esperar a que Washington logre hacer acuerdos con la industria. Pero esta solución es temporal. Eventualmente, se necesitará una regulación federal que establezca estándares mínimos de transparencia, responsabilidad y equidad en IA.

Esa regulación no debería escribirla la industria. Debería escribirla gente que entienda lo que significa que un algoritmo decida si obtienes un préstamo, si eres identificado por vigilancia facial, o si calificas para beneficios sociales. Debería incluir trabajadores cuyos empleos están siendo reemplazados por automatización, comunidades que han sido históricamente discriminadas, investigadores independientes, no solo empresarios de Silicon Valley.

Los estados están mostrando que es posible actuar sin esperar. El Congreso está aprendiendo que si no legisla responsablemente, otros lo harán. Esa presión es, por ahora, lo más cercano que tenemos a un proceso democrático real.


Por Gabriela Cruz