Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

¿Está Wall Street perdiendo la fe en la IA?

El nuevo programa del creador de ‘Breaking Bad’, ‘Pluribus’, enfatiza que fue ‘creado por humanos’, no por IA

OpenAI pide a la administración Trump que amplíe los créditos fiscales de la Ley Chip para centros de datos

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Identidad»Un nuevo ataque de encubrimiento apunta a la IA para engañar a los rastreadores de IA para que citen información errónea como un hecho verificado
Identidad

Un nuevo ataque de encubrimiento apunta a la IA para engañar a los rastreadores de IA para que citen información errónea como un hecho verificado

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.comoctubre 29, 2025No hay comentarios4 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

29 de octubre de 2025Ravi LakshmananAprendizaje automático/seguridad de la IA

Los investigadores de ciberseguridad han señalado un nuevo problema de seguridad en los navegadores web de agentes como OpenAI ChatGPT Atlas que expone el modelo de inteligencia artificial (IA) subyacente a ataques de envenenamiento contextual.

El ataque, ideado por la empresa de seguridad de IA SPLX, permite a atacantes maliciosos configurar sitios web que ofrecen contenido diferente a los navegadores y rastreadores de IA ejecutados por ChatGPT y Perplexity. Esta tecnología recibe el nombre en código de encubrimiento de IA.

Este enfoque es un tipo de encubrimiento de motores de búsqueda, que se refiere a la práctica de mostrar una versión de una página web a los usuarios y mostrar otra versión a los rastreadores de los motores de búsqueda, con el objetivo final de manipular las clasificaciones de búsqueda.

Servicio de retención DFIR

La única diferencia en este caso es que los atacantes han optimizado rastreadores de IA de diferentes proveedores con comprobaciones simples de agentes de usuario que conducen a la manipulación de la entrega de contenido.

“Estos sistemas se basan en la búsqueda directa, por lo que cualquier contenido que proporcionen se convierte en una descripción general de la IA, una descripción general o una verdad fundamental para la inferencia autónoma”, dijeron los investigadores de seguridad Ivan Vlahov y Bastien Eymery. «Esto significa que con una única regla condicional, ‘Si agente de usuario = ChatGPT, publique esta página en su lugar’, puede dar forma a lo que millones de usuarios percibirán como resultados autorizados».

SPLX dijo que, si bien parece simple, el encubrimiento dirigido a la IA puede convertirse en una poderosa arma de desinformación y socavar la confianza en las herramientas de IA. Decirle a un rastreador de IA que cargue algo más en lugar del contenido real también puede introducir sesgos y afectar los resultados de los sistemas que dependen de dichas señales.

«Los rastreadores de IA pueden ser engañados tan fácilmente como los primeros motores de búsqueda, pero el impacto posterior es mucho mayor», afirmó la compañía. «El SEO (optimización de motores de búsqueda) incorpora cada vez más AIO (optimización de inteligencia artificial) para manipular la realidad».

El grupo de análisis de amenazas hCaptcha (hTAG) anunció la divulgación después de que el análisis del agente del navegador en 20 de los escenarios de explotación más comunes, desde cuentas múltiples hasta pruebas de tarjetas y suplantación de soporte, descubriera que el producto intentó casi todas las solicitudes maliciosas sin requerir un jailbreak.

Además, el estudio encontró que en escenarios donde una acción estaba «bloqueada», la mayoría de las detenciones se debían a una falta de funcionalidad técnica en la herramienta, en lugar de a un dispositivo de seguridad integrado en la herramienta. hTAG señaló que se descubrió que ChatGPT Atlas realizaba tareas peligrosas cuando se incluía como parte de los ejercicios de depuración.

kit de construcción CEI

Por otro lado, se ha observado que Claude Computer Use y Gemini Computer Use pueden realizar operaciones de cuenta riesgosas, como restablecer contraseñas, sin ninguna restricción, y este último también ha mostrado un comportamiento agresivo cuando se trata de cupones de fuerza bruta en sitios de comercio electrónico.

hTAG también probó las medidas de seguridad de Manus AI y descubrió que realizó con éxito el control de cuentas y el secuestro de sesiones, mientras que Perplexity Comet realizó inyecciones SQL espontáneas para extraer datos ocultos.

«Los agentes a menudo iban más allá, intentando la inyección de SQL sin la solicitud del usuario o intentando eludir los muros de pago inyectando JavaScript en las páginas», decía el periódico. «Debido a la casi total falta de salvaguardias que observamos, es muy probable que estos mismos agentes puedan ser utilizados rápidamente por atacantes contra usuarios legítimos que los descargaron».


Source link

#BlockchainIdentidad #Ciberseguridad #ÉticaDigital #IdentidadDigital #Privacidad #ProtecciónDeDatos
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleDisrupt 2025: Día 3 | Crisis tecnológica
Next Article Los expertos informan de un aumento en los ataques automatizados de botnets dirigidos a servidores PHP y dispositivos IoT
corp@blsindustriaytecnologia.com
  • Website

Related Posts

Microsoft descubre un ataque de ‘fuga de susurros’ que identifica temas de chat de IA en tráfico cifrado

noviembre 8, 2025

La falla de Samsung sin hacer clic se aprovecha para implementar software espía LANDFALL para Android a través de WhatsApp

noviembre 7, 2025

Desde Log4j hasta IIS, los piratas informáticos chinos convierten errores heredados en herramientas de espionaje global

noviembre 7, 2025
Add A Comment
Leave A Reply Cancel Reply

el último

¿Está Wall Street perdiendo la fe en la IA?

El nuevo programa del creador de ‘Breaking Bad’, ‘Pluribus’, enfatiza que fue ‘creado por humanos’, no por IA

OpenAI pide a la administración Trump que amplíe los créditos fiscales de la Ley Chip para centros de datos

Microsoft descubre un ataque de ‘fuga de susurros’ que identifica temas de chat de IA en tráfico cifrado

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2025 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.