Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

¿Está Wall Street perdiendo la fe en la IA?

El nuevo programa del creador de ‘Breaking Bad’, ‘Pluribus’, enfatiza que fue ‘creado por humanos’, no por IA

OpenAI pide a la administración Trump que amplíe los créditos fiscales de la Ley Chip para centros de datos

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Startups»Silicon Valley sorprende a los defensores de la seguridad de la IA
Startups

Silicon Valley sorprende a los defensores de la seguridad de la IA

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.comoctubre 18, 2025No hay comentarios7 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

Los líderes de Silicon Valley, incluido el zar de la IA y las criptomonedas de la Casa Blanca, David Sachs, y el director de estrategia de OpenAI, Jason Kwon, provocaron controversia en línea esta semana con comentarios sobre grupos que promueven la seguridad de la IA. En otros casos, argumentó que algunos defensores de la seguridad de la IA no son tan nobles como parecen y actúan en beneficio propio o de los intereses de titiriteros multimillonarios detrás de escena.

Los grupos de seguridad de IA que hablaron con TechCrunch dijeron que las acusaciones de Sachs y OpenAI son el último intento de Silicon Valley de intimidar a sus críticos, pero están lejos de ser los primeros. En 2024, algunas empresas de capital de riesgo difundieron rumores de que el proyecto de ley de seguridad de la IA de California, SB 1047, enviaría a prisión a los fundadores de nuevas empresas. La Brookings Institution clasificó este rumor como una de muchas «informaciones erróneas» sobre el proyecto de ley, pero el gobernador Gavin Newsom finalmente lo vetó de todos modos.

Independientemente de si Sachs y OpenAI pretendían intimidar a los críticos, sus acciones fueron suficientes para asustar a algunos defensores de la seguridad de la IA. Muchos líderes de organizaciones sin fines de lucro contactados por TechCrunch la semana pasada hablaron bajo condición de anonimato para proteger a sus grupos de represalias.

La controversia pone de relieve la creciente tensión en Silicon Valley entre construir IA de manera responsable y construirla como un producto de consumo a escala. Este es un tema que mis colegas Kirsten Kolosek, Anthony Ha y yo exploramos en el Equity Podcast de esta semana. También nos sumergimos en la nueva ley de seguridad de la IA aprobada en California para regular los chatbots y el enfoque de OpenAI hacia el erotismo en ChatGPT.

El martes, Sachs escribió una publicación en X alegando que Anthropic, que ha planteado preocupaciones sobre la capacidad de la IA para causar pérdidas de empleo, ataques cibernéticos y daños catastróficos a la sociedad, simplemente está provocando miedo para aprobar leyes que lo beneficien y ahoguen a las pequeñas empresas emergentes en la burocracia. Anthropic es el único instituto importante de IA que apoya el Proyecto de Ley 53 del Senado de California (SB 53), que estableció requisitos de informes de seguridad para las grandes empresas de IA y se convirtió en ley el mes pasado.

Sachs estaba respondiendo a un ensayo viral del cofundador de Anthropic, Jack Clark, sobre las preocupaciones sobre la IA. Clark presentó este ensayo como una charla en la Conferencia Curve AI Safety en Berkeley hace unas semanas. Sentado entre el público, ciertamente se sintió como la explicación pura de un ingeniero de sus reservas sobre su producto, pero Sachs no lo creía así.

Anthropic está implementando una sofisticada estrategia de captura regulatoria basada en generar miedo. La empresa es en gran parte responsable del frenesí regulatorio estatal que está dañando el ecosistema de startups. https://t.co/C5RuJbVi4P

– David Sacks (@DavidSacks) 14 de octubre de 2025

Sachs dijo que Anthropic está implementando una «estrategia regulatoria sofisticada», pero vale la pena señalar que una estrategia verdaderamente sofisticada probablemente no requiera enemistarse con el gobierno federal. En una publicación de seguimiento sobre X, Sachs señaló que Anthropic se ha «posicionado constantemente como un enemigo de la administración Trump».

evento de crisis tecnológica

san francisco
|
27-29 de octubre de 2025

También esta semana, Jason Kwon, director de estrategia de OpenAI, explicó en una publicación en X por qué la compañía está citando a organizaciones sin fines de lucro de seguridad de IA como Encode, una organización sin fines de lucro que aboga por políticas responsables de IA. (Una citación es una orden legal que solicita documentos o testimonio). Kwon dijo que después de que Elon Musk demandó a OpenAI por preocupaciones de que el desarrollador de ChatGPT se había desviado de su misión sin fines de lucro, OpenAI empezó a sospechar de múltiples grupos que hablaban en contra de la reorganización. Encode presentó un escrito judicial en apoyo de la demanda de Musk y otras organizaciones sin fines de lucro también se pronunciaron públicamente en contra de la reorganización de OpenAI.

Hay más en esta historia que esto.

Como todo el mundo sabe, estamos defendiendo activamente una demanda en la que Elon busca dañar a OpenAI para su propio beneficio económico.

Encode, la organización donde @_NathanCalvin se desempeña como asesor general, fue una de ellas… https://t.co/DiBJmEwtE4

– Jason Kwon (@jasonkwon) 10 de octubre de 2025

«Esto plantea dudas sobre la transparencia, incluido quién lo financia y si hubo alguna coordinación», dijo Kwon.

NBC News informó esta semana que OpenAI envió citaciones de amplio alcance a Encode y otros seis grupos sin fines de lucro que critican a la compañía, buscando comunicaciones relacionadas con dos de los mayores oponentes de OpenAI, Musk y el CEO de Meta, Mark Zuckerberg. OpenAI también contrató a Encode para comunicaciones relacionadas con el soporte de SB 53.

Un destacado líder de seguridad de la IA le dijo a TechCrunch que existe una creciente brecha entre el equipo gubernamental de OpenAI y su organización de investigación. Aunque los investigadores de seguridad de OpenAI publican con frecuencia informes que destacan los riesgos de los sistemas de IA, el brazo político de OpenAI presionó contra la SB 53, argumentando que preferiría crear reglas uniformes a nivel federal.

En una publicación en X esta semana, Joshua Achiam, jefe de alineación de misiones en OpenAI, habló sobre las citaciones de la compañía a organizaciones sin fines de lucro.

«Dados los riesgos potenciales para toda mi carrera, diría: esto no pinta muy bien», dijo Achiam.

Brendan Steinhauser, director ejecutivo de la organización sin fines de lucro Alliance for Secure AI (que no ha sido citada por OpenAI), dijo a TechCrunch que OpenAI parece estar convencido de que sus críticos son parte de una conspiración liderada por Musk. Sin embargo, sostiene que este no es el caso y que muchos en la comunidad de seguridad de la IA son muy críticos con las prácticas de seguridad de xAI, o la falta de ellas.

«Por parte de OpenAI, esto tiene como objetivo silenciar e intimidar a los críticos y disuadir a otras organizaciones sin fines de lucro de hacer lo mismo», dijo Steinhauser. «Creo que al señor Sachs le preocupa que el movimiento[de seguridad de la IA]esté creciendo y que la gente quiera responsabilizar a estas empresas».

Sriram Krishnan, asesor principal de políticas de IA de la Casa Blanca y ex socio general de A16Z, se hizo eco de esta conversación en sus propias publicaciones en las redes sociales esta semana, criticando a los defensores de la seguridad de la IA por considerarlos fuera de contacto. Instó a las organizaciones de seguridad de IA a hablar con «personas del mundo real que utilizan, venden e implementan IA en sus hogares y organizaciones».

Una encuesta reciente de Pew encontró que aproximadamente la mitad de los estadounidenses están más preocupados que entusiasmados con la IA, pero no está claro qué es exactamente lo que les preocupa. Otro estudio reciente examinó más de cerca y encontró que a los votantes estadounidenses les importan más las pérdidas de empleos y los deepfakes que los riesgos catastróficos que plantea la IA (que es el foco principal del movimiento de seguridad de la IA).

Abordar estos problemas de seguridad podría hacerse a expensas del rápido crecimiento de la industria de la IA, una compensación que preocupa a muchos en Silicon Valley. Las preocupaciones sobre una regulación excesiva son comprensibles, ya que la inversión en IA sustenta gran parte de la economía estadounidense.

Pero después de años de avances no regulados en la IA, el movimiento por la seguridad de la IA parece estar ganando un importante impulso de cara a 2026. Los intentos de Silicon Valley de luchar contra los grupos preocupados por la seguridad pueden ser una señal de que están surtiendo efecto.


Source link

#Aceleradoras #CapitalRiesgo #EcosistemaStartup #Emprendimiento #InnovaciónEmpresarial #Startups
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleLos republicanos del Senado falsificaron a Chuck Schumer, pero X no lo eliminará
Next Article Silver Fox extiende el ataque de Winos 4.0 a Japón y Malasia a través de HoldingHands RAT
corp@blsindustriaytecnologia.com
  • Website

Related Posts

¿Está Wall Street perdiendo la fe en la IA?

noviembre 8, 2025

El nuevo programa del creador de ‘Breaking Bad’, ‘Pluribus’, enfatiza que fue ‘creado por humanos’, no por IA

noviembre 8, 2025

OpenAI pide a la administración Trump que amplíe los créditos fiscales de la Ley Chip para centros de datos

noviembre 8, 2025
Add A Comment
Leave A Reply Cancel Reply

el último

¿Está Wall Street perdiendo la fe en la IA?

El nuevo programa del creador de ‘Breaking Bad’, ‘Pluribus’, enfatiza que fue ‘creado por humanos’, no por IA

OpenAI pide a la administración Trump que amplíe los créditos fiscales de la Ley Chip para centros de datos

Microsoft descubre un ataque de ‘fuga de susurros’ que identifica temas de chat de IA en tráfico cifrado

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2025 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.