California aprueba ley de seguridad para empresas de IA

El gobernador de California, Gavin Newsom, firmó la SB 53, una ley pionera que obliga a las grandes compañías de inteligencia artificial a divulgar protocolos de seguridad y reportar incidentes críticos relacionados con el desarrollo de sus sistemas.
La norma convierte a California, sede de Silicon Valley, en el primer estado de EE. UU. en imponer requisitos de transparencia y protección para una industria que avanza a gran velocidad.
Claves de la nueva legislación
Divulgación obligatoria: Las compañías de IA de mayor tamaño deberán publicar versiones editadas de sus protocolos de seguridad y de protección de propiedad intelectual.
Reporte de incidentes: Se exige notificar cuando los sistemas presenten comportamientos peligrosos o engañosos, por ejemplo, si un modelo de IA oculta información que pueda facilitar la fabricación de armas biológicas.
Protección a informantes: Se establecen salvaguardas para empleados que denuncien fallas graves o violaciones de seguridad.
Contexto y antecedentes
El senador estatal Scott Wiener, impulsor del proyecto, destacó que la ley “apoya la innovación con medidas sensatas de seguridad”.
Es el segundo intento de regulación: una propuesta previa fue vetada por Newsom tras la oposición de la industria tecnológica.
La medida surge después de debates nacionales sobre la posibilidad de que los estados regulen la IA frente a la administración federal.
Impacto en Silicon Valley
Con empresas líderes de IA asentadas en el estado, como OpenAI, Google y Anthropic, la SB 53 busca equilibrar el desarrollo tecnológico y la protección pública.
Expertos como Fei-Fei Li, investigadora de Stanford y parte del grupo que elaboró la ley, señalan que la norma podría convertirse en un modelo para otras jurisdicciones.
Noticias del tema