
Meta reveló el jueves que interrumpió tres operaciones de impacto secreto que surgieron de Irán, China y Rumania en el primer trimestre de 2025.
El gigante de las redes sociales dijo en un informe trimestral de amenaza hostil que «detectamos y eliminamos estas campañas antes de que pudieran construir una audiencia real en la aplicación».
Esto incluyó una red de 658 cuentas de Facebook, 14 páginas y dos cuentas de Instagram, dirigidas a Rumania en varias plataformas, incluidos los servicios de Meta, Tiktok, X y YouTube. Una de las páginas en cuestión tenía alrededor de 18,300 seguidores.
Los actores de amenaza detrás de la actividad utilizaron cuentas falsas para administrar sus páginas de Facebook, apuntan a los usuarios a sitios web fuera de la plataforma y publican comentarios sobre publicaciones de políticos y entidades de noticias. La cuenta ha publicado contenido relacionado con deportes, viajes y noticias locales bajo la apariencia de locales que viven en Rumania.

Si bien la mayoría de estos comentarios no estaban involucrados con los espectadores reales, Meta dijo que estas personas ficticias también tenían una presencia que corresponde a otras plataformas.
«La campaña demostró una seguridad operativa consistente (OPSEC) para ocultar sus orígenes y coordinación, incluido el dependencia de la infraestructura IP proxy», dijo la compañía. «La gente detrás de este esfuerzo ha publicado noticias y eventos actuales, principalmente en Rumania, incluidas las elecciones en Rumania».
La segunda red de influencia, destruida por la Meta, la Plataforma X y YouTube, que se originó en Irán y se dirigió al público de habla azerí en azerbaiyán y turco. Consistió en 17 cuentas en Facebook, 22 páginas de Facebook y 21 cuentas en Instagram.
Las cuentas forjadas creadas a través de la operación se utilizaron para publicar contenido dentro de los grupos, la gestión de páginas y comentar el contenido de la red, para inflar artificialmente la popularidad del contenido de la red. Muchas de estas cuentas se encontraron como periodistas y activistas pro-palestinos.
«En esta operación, los hashtags populares como #Palestine, #Gaza, #Starbucks y #Instagram también usaron #Instagram en sus publicaciones como parte de sus tácticas de spam tratando de insertarlos en el discurso público existente», dijo Meta.
«Los operadores han publicado noticias y eventos actuales a Azeri, incluidos los Juegos Olímpicos de París, el ataque de Poehur de Israel en Israel, el boicot de las marcas estadounidenses, el presidente de los Estados Unidos, Biden y las acciones de Israel en Gaza».
Esta actividad se atribuye a un grupo conocido de actividad de amenaza llamado Storm-2035. Esto se describió en agosto de 2024 como una red iraní dirigida a grupos de votantes estadounidenses con un «mensaje polarizador» sobre los candidatos presidenciales, los derechos LGBTQ y el conflicto israelí de Hama.
Mientras tanto, la compañía de inteligencia artificial (AI) OpenAi también ha revelado que prohibirá las cuentas de ChatGPT creadas por Storm-2035 y arma los chatbots para generar contenido para compartir en las redes sociales.

Finalmente, Meta reveló que había eliminado 157 cuentas de Facebook, 19 páginas, un grupo y 17 cuentas en Instagram, atacando a los espectadores de Myanmar, Taiwán y Japón. Se sabe que los actores de amenaza detrás de la operación usan IA para crear fotos de perfil y ejecutar «granjas de cuentas» para girar nuevas cuentas falsas.
La actividad china incluyó tres grupos separados, cada una de las noticias y eventos actuales en países donde atacaron a otros usuarios y su contenido en inglés, birmania, mandarín y japonés.
«En Myanmar, publicaron sobre la necesidad de poner fin al conflicto en curso, criticaron la resistencia civil y compartieron comentarios de apoyo sobre la junta», dijo la compañía.
«En Japón, la campaña ha ejecutado una página que criticó los lazos militares del gobierno japonés con Estados Unidos, alegando que los políticos y los líderes militares de Taiwán son corruptos y afirman que verían publicaciones presentadas de forma anónima.
Source link