El senador de California dio la aprobación final a un importante proyecto de ley de seguridad de IA que establece nuevos requisitos de transparencia para las grandes empresas la madrugada del sábado.
Como explicó el autor del autor de Scott, el senador SB 53, «requeriremos que los grandes laboratorios de IA sean transparentes sobre los protocolos de seguridad, cree protección de denunciantes para (empleados) en los laboratorios de IA, creen nubes públicas y expanden el acceso informático (Calcompute)».
El proyecto de ley actualmente va al gobernador de California Gavin Newsom para firmar o veto. No ha comentado públicamente sobre SB 53, pero el año pasado rechazó el proyecto de ley de seguridad más amplio creado por Wiener y firmó leyes más estrechas que se dirigieron a temas como Deepfakes.
En ese momento, Newsom «reconoció la importancia de proteger al público de la amenaza real que representa esta tecnología, pero el proyecto de ley anterior de Wiener criticó los» estándares estrictos «al aplicarlo a un modelo a gran escala, ya sea» el uso de los datos críticos (involucrados) implementaciones en un entorno de alto riesgo «.
Wiener dijo que el nuevo proyecto de ley fue influenciado por las recomendaciones del panel de políticas de los expertos en IA, que Newsom se convocó después de su veto.
Politico también informa que con SB 53 revisado recientemente, la introducción de un ingreso anual de menos de $ 500 millones mientras desarrolla un modelo de IA «fronteriza» solo revelará altos niveles de detalles de seguridad, y que más empresas necesitarán proporcionar informes más detallados.
El proyecto de ley se ha opuesto por muchas compañías de Silicon Valley, compañías de capital de riesgo y grupos de cabildeo. En una carta reciente a Newsom, Operai no mencionó específicamente SB 53, pero argumentó que para evitar el «duplicado y el conflicto», debe considerarse de conformidad con las regulaciones de seguridad estatales, siempre que cumpla con los estándares federales o europeos.
Eventos de TechCrunch
San Francisco
|
27-29 de octubre de 2025
La política de IA y el director legal de AI de Andreessen Horowitz recientemente argumentó que «muchos de los proyectos de ley de IA de hoy toman riesgos, como las propuestas en California y Nueva York».
El cofundador de A16Z señaló previamente las regulaciones técnicas como uno de los factores que llevaron a las regulaciones de alta tecnología a convertirse en la oferta de segundo término de Donald Trump. La administración Trump y sus aliados posteriormente pidieron una prohibición de 10 años de las regulaciones estatales de IA.
Mientras tanto, la humanidad salió a favor de SB 53.
«Hemos estado diciendo durante mucho tiempo que preferimos los estándares federales», dijo Jack Clark, cofundador de la humanidad, en el puesto. «Pero si no es así, esto crea un plan sólido para la gobernanza de AI que no se puede ignorar».
Source link
