El senador de California Scott Wiener presentó una nueva enmienda a su último proyecto de ley, SB 53, el miércoles.
Si se firma, California será el primer estado en imponer requisitos de transparencia significativos a los principales desarrolladores de IA, incluidos OpenAI, Google, Humanidad y XAI.
El anterior proyecto de ley de IA del senador Wiener, SB 1047, contenía requisitos similares para que los desarrolladores de modelos de IA publiquen informes de seguridad. Sin embargo, Silicon Valley luchó ferozmente contra el proyecto de ley, y finalmente fue rechazado por el gobernador Gavin Newsom. Luego, el gobernador de California buscó a un grupo de líderes de IA, incluido Fei-Fei Li, un investigador líder en la Universidad de Stanford y cofundador del World Lab, para formar un grupo de políticas y establecer objetivos para los esfuerzos de seguridad de la IA del estado.
California AI Policy Group publicó recientemente sus recomendaciones finales, citando la necesidad de «requisitos de la industria para publicar información sobre sistemas industriales» para establecer un «entorno de evidencia sólido y transparente». La oficina del senador Wiener dijo en un comunicado de prensa que la enmienda SB 53 se vio muy afectada por el informe.
«Este proyecto de ley sigue siendo un trabajo continuo y esperamos trabajar con todas las partes interesadas en las próximas semanas para reducir esta propuesta a la ley más científica y justa», dijo el senador Winner en el comunicado.
SB 53 tiene como objetivo equilibrar el SB 1047 afirmó que SB 1047 no logró lograr. Idealmente, cree requisitos de transparencia significativos para los desarrolladores de IA más grandes sin obstaculizar el rápido crecimiento de la industria de IA de California.
«Estas son preocupaciones de las que mi organización y otros han estado hablando por un tiempo», dijo Nathan Calvin, vicepresidente de asuntos estatales del Grupo de Seguridad sin fines de lucro, en una entrevista con TechCrunch. «Se siente como un paso mínimo y razonable al hacer que las empresas expliquen al público y al gobierno qué pasos están tomando para abordar estos riesgos».
El proyecto de ley también crea protecciones de denunciantes para los empleados de AI Lab que creen que la tecnología de la compañía plantea «riesgos significativos» para la sociedad. Esto se define en el proyecto de ley como contribuyendo a más de 100 personas o más de $ 1 mil millones en daños.
Además, el proyecto de ley tiene como objetivo crear CalCompute, un clúster de computación en la nube pública que admite nuevas empresas e investigadores que desarrollan IA a gran escala.
A diferencia de SB 1047, el nuevo proyecto de ley del senador Wiener no responsabilizará a los desarrolladores de modelos de IA por los daños de los modelos de IA. El SB 53 fue diseñado para no ajustar modelos de IA de los principales desarrolladores de IA o nuevas empresas e investigadores que utilizan modelos de código abierto.
Con la nueva enmienda, SB 53 ahora se dirige al Comité de Legislatura de California para aprobaciones de privacidad y protección del consumidor. Si pasa allí, el proyecto de ley tendrá que aprobar varios otros organismos legislativos antes de llegar al escritorio del gobernador Newsom.
En el otro lado de los Estados Unidos, la gobernadora de Nueva York, Kathy Hochul, está considerando un proyecto de ley de seguridad de IA similar, la Ley de aumento.
Como los legisladores federales consideraron una moratoria de IA de 10 años sobre las regulaciones estatales de IA, el destino de las leyes estatales de IA, como la Ley de Aumento y SB 53, se ha vuelto inestable. Este es un intento de limitar el «mosaico» de las leyes de IA que las empresas deben navegar. Sin embargo, la propuesta falló a principios de julio con una votación del Senado 99-1.
«Asegurar que la IA se desarrolle de manera segura debe ser poco controvertida. Debería ser la base», dijo Geoff Ralston, ex presidente de Y Combinator, en un comunicado de TechCrunch. “El Congreso debe guiar la transparencia y la responsabilidad a las empresas que construyen modelos fronterizos, y los estados deben intensificar ya que no son visibles acciones federales serias.
Hasta este punto, los legisladores no pudieron llevar a las compañías de IA debido a los requisitos de transparencia obligatorios del estado. La humanidad ha apoyado ampliamente la necesidad de una mayor transparencia en las empresas de IA, e incluso expresó un modesto optimismo sobre las recomendaciones de los grupos de políticas de IA de California. Sin embargo, compañías como OpenAi, Google y Meta son más resistentes a estos esfuerzos.
Los principales desarrolladores de modelos de IA generalmente publican informes de seguridad para los modelos de IA, pero no han sido muy consistentes en los últimos meses. Por ejemplo, Google ha decidido no publicar informes de seguridad para el Gemini 2.5 Pro, el modelo de IA más avanzado jamás lanzado. Operai también ha decidido no publicar informes de seguridad para el modelo GPT-4.1. La investigación de terceros se publicó más tarde, lo que sugiere que puede ser menos consistente que los modelos de IA anteriores.
SB 53 representa una versión en tono de las facturas de seguridad de IA anteriores, pero podría obligar a las compañías de IA a publicar más información que actualmente. Por ahora, miran de cerca como el senador Wiener volverá a probar esos límites.
Source link
