Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

Bueno, estoy un poco menos enojado por el proyecto de IA «Magnificent Ambersons»

Decenas de personas marchan en apoyo al multimillonario en San Francisco

Desde Svedka hasta Anthropic, las marcas están aprovechando audazmente la IA en sus anuncios del Super Bowl

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Identidad»Las estafas de inversión de Nomani que utilizan anuncios deepfake de IA en las redes sociales se disparan al 62%
Identidad

Las estafas de inversión de Nomani que utilizan anuncios deepfake de IA en las redes sociales se disparan al 62%

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.comdiciembre 24, 2025No hay comentarios4 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

24 de diciembre de 2025Ravi LakshmananFraude en línea/inteligencia artificial

Según datos de ESET, el esquema de inversión fraudulento conocido como Nomani ha aumentado en un 62%, y las campañas que distribuyen esta amenaza se han expandido más allá de Facebook a otras plataformas de redes sociales como YouTube.

Una empresa eslovaca de ciberseguridad dijo que este año ha bloqueado más de 64.000 URL únicas relacionadas con la amenaza. La mayoría de las detecciones se produjeron en la República Checa, Japón, Eslovaquia, España y Polonia.

ESET documentó por primera vez que Nomani utilizaba publicidad maliciosa en las redes sociales, publicaciones con la marca de la empresa y testimonios en video basados ​​en inteligencia artificial (IA) para engañar a los usuarios para que invirtieran dinero en productos de inversión inexistentes al afirmar falsamente grandes cantidades de ingresos.

Una vez que las víctimas solicitan el pago de los beneficios prometidos, se les pide que paguen tarifas adicionales o que proporcionen información personal adicional, como identificación o información de la tarjeta de crédito. Como es típico en este tipo de fraude de inversiones, el objetivo final es la pérdida financiera.

seguridad cibernética

Los estafadores no se detienen ahí e intentan volver a estafar utilizando señuelos vinculados a Europol e Interpol en las redes sociales prometiendo ayuda para recuperar fondos robados, sólo para perder aún más dinero en el proceso.

ESET dice que la estafa ha experimentado algunas mejoras notables desde entonces, incluido hacer que el video generado por IA sea más realista para que sea más difícil para los objetivos potenciales detectar la estafa.

«Los deepfakes de celebridades populares utilizados como formas de phishing y ganchos iniciales para sitios web ahora usan una resolución más alta, reducen significativamente los movimientos y la respiración antinaturales y mejoran la sincronización A/V», señaló la compañía.

El contenido fabricado a menudo aprovecha eventos de alto perfil o figuras más visibles en la vida pública para dar credibilidad a sus planes. En un caso observado en la República Checa, un artículo de noticias falso afirmaba que el gobierno estaba obteniendo grandes ganancias invirtiendo a través de una de las plataformas fraudulentas de criptomonedas.

Para evitar que los sistemas de la plataforma capturen anuncios maliciosos, los atacantes se aseguran de que sus campañas solo se ejecuten durante unas pocas horas. Otro cambio importante incluye redirigir a los usuarios a una página de encubrimiento segura en lugar de un formulario de phishing externo en caso de que no cumplan con los criterios de orientación.

«Para reducir aún más su huella, los atacantes aprovechan cada vez más las herramientas legítimas proporcionadas por los marcos publicitarios de las redes sociales, como formularios y encuestas, en lugar de páginas web externas para recopilar información sobre las víctimas», dijo ESET.

También ha habido mejoras en las plantillas utilizadas para generar páginas de phishing y hay indicios de que se están utilizando herramientas de inteligencia artificial para crear el código HTML. Esta evaluación se basa en la presencia de casillas de verificación dentro de los comentarios del código fuente. Además, los usuarios de Rusia y Ucrania proporcionan repositorios de GitHub que alojan plantillas para este tipo de estafas de inversión.

A pesar de estos cambios, las detecciones de Nomani disminuyeron en la segunda mitad de 2025. Esto indica que los atacantes pueden verse obligados a modificar sus tácticas ante los mayores esfuerzos policiales para combatir este tipo de estafas.

seguridad cibernética

«El lado positivo es que, aunque el número total de detecciones ha aumentado en comparación con 2024, hay signos de mejora, ya que las detecciones en la segunda mitad de 2025 disminuyeron un 37% en comparación con la primera mitad de 2025», dijo ESET.

La divulgación coincidió con una nueva investigación de Reuters que encontró que el 19% de los 18 mil millones de dólares en ingresos publicitarios de Meta en China el año pasado provinieron de anuncios de estafas, juegos de azar ilegales, pornografía y otros contenidos prohibidos administrados por las agencias de publicidad asociadas de la compañía en el país. Algunas de estas agencias permiten que las empresas muestren publicidad prohibida. Se dice que Mehta reconsideró el programa tras el informe.

Este último informe cuantifica la magnitud del problema y revela que la compañía espera obtener el 10% de los ingresos globales de Meta en 2024, o alrededor de 16 mil millones de dólares, de dichos anuncios, incluidos los publicados por los actores de amenazas detrás de Nomani.


Source link

#BlockchainIdentidad #Ciberseguridad #ÉticaDigital #IdentidadDigital #Privacidad #ProtecciónDeDatos
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous Article3 formas de proteger tu negocio en 2026
Next Article Cómo Mill consiguió acuerdos con Amazon y Whole Foods
corp@blsindustriaytecnologia.com
  • Website

Related Posts

OpenClaw integra el escaneo de VirusTotal para detectar habilidades maliciosas de ClawHub

febrero 8, 2026

Advertencia sobre phishing de señales dirigido a agencias gubernamentales, políticos, militares y periodistas alemanes

febrero 7, 2026

La Revolución Legal es Digital: Conoce a TwinH, tu aliado de IA en la sala de justicia del futuro

febrero 6, 2026
Add A Comment
Leave A Reply Cancel Reply

el último

Bueno, estoy un poco menos enojado por el proyecto de IA «Magnificent Ambersons»

Decenas de personas marchan en apoyo al multimillonario en San Francisco

Desde Svedka hasta Anthropic, las marcas están aprovechando audazmente la IA en sus anuncios del Super Bowl

OpenClaw integra el escaneo de VirusTotal para detectar habilidades maliciosas de ClawHub

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2026 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.