El estado de California se convierte en el primero de Estados Unidos en exigir transparencia total a las empresas desarrolladoras de inteligencia artificial avanzada, incluyendo información sobre sus algoritmos, fuentes de datos y mecanismos de seguridad
Sacramento, California.— En un movimiento histórico para la regulación tecnológica, el gobernador Gavin Newsom firmó la “Transparency in Frontier Artificial Intelligence Act”, una ley que establece nuevos estándares de transparencia y rendición de cuentas para las compañías que desarrollan modelos avanzados de inteligencia artificial (IA).
La normativa, que entrará en vigor a partir de enero de 2026, obliga a las empresas que operen en California a publicar reportes detallados sobre el entrenamiento, funcionamiento y mitigación de riesgos de sus sistemas de IA de frontera —aquellos que superan ciertos umbrales de capacidad computacional y de aprendizaje automático.
El objetivo, según el legislador principal detrás del proyecto, Evan Low, es “asegurar que la innovación no avance más rápido que la ética y la seguridad pública”. Además, la ley requerirá que los desarrolladores informen sobre los posibles riesgos sociales, económicos y de seguridad nacional asociados a sus modelos.
Empresas tecnológicas con sede en Silicon Valley, como OpenAI, Anthropic y Google DeepMind, manifestaron su disposición a colaborar, aunque algunas expresaron preocupación por la protección de propiedad intelectual. Expertos consideran que la medida podría convertirse en referente regulatorio para otros estados y países que buscan equilibrar el desarrollo tecnológico con la protección ciudadana.
Con esta ley, California reafirma su papel como epicentro del debate global sobre la gobernanza de la inteligencia artificial, en medio de un vacío regulatorio a nivel federal que ha generado preocupación entre académicos y defensores de los derechos digitales.