el más reciente

― Advertisement ―

Relacionada

spot_img
HomeTecnologíaClaude AI explotada para operar más de 100 personajes políticos falsos en...

Claude AI explotada para operar más de 100 personajes políticos falsos en la campaña de influencia global

La compañía de inteligencia industrial (AI) Anthrope ha revelado que los actores de amenaza desconocidos aprovecharon su Claude Chatbot para una operación de “influencia como servicio” para comprometerse con cuentas auténticas en Facebook y X.

Se dice que la actividad sofisticada, marcada como motivada financieramente, ha utilizado su utensilio de IA para orquestar a 100 personas distintas en las dos plataformas de redes sociales, creando una red de “cuentas políticamente alineadas” que se involucraban con “10 de miles de miles” de cuentas auténticas.

La operación ahora descartada, dijeron investigadores antrópicos, priorizaron la persistencia y la duración sobre la vivacidad y buscó amplificar las perspectivas políticas moderadas que apoyaron o socavaron los intereses europeos, iraníes, iraníes, árabes árabes (EAU) y kenianos.

Estos incluyeron promover a los EAU como un entorno empresarial superior mientras criticaban los marcos regulatorios europeos, centrándose en las narrativas de seguridad energética para el conocido europeo y las narrativas de identidad cultural para el conocido iraní.

Los esfuerzos asimismo empujaron narraciones que apoyan figuras albanesas y criticaron las figuras de la competición en un país europeo no especificado, así como las iniciativas de exposición abogadas y las figuras políticas en Kenia. Estas operaciones de influencia son consistentes con las campañas afiliadas al estado, aunque exactamente quién estaba detrás de ellas sigue desconocida, agregó.

“Lo que es especialmente novedoso es que esta operación usó Claude no solo para la vivientes de contenido, sino asimismo para atreverse cuándo las cuentas de bot de redes sociales comentarían, o volverían a compartir publicaciones de los auténticos usuarios de las redes sociales”, señaló la compañía.

Leer  Docker Malware Explota el nodo web3 de Teneo para ganar cripto

“Claude se usó como un orquestador que decide qué acciones deberían tomar las cuentas de botes sociales en función de personas con motivación política”.

A pesar del uso de Claude como un tomador de decisiones de compromiso táctico, el chatbot se utilizó para ocasionar respuestas apropiadas alineadas políticamente en la voz y el idioma nativo de la persona, y crear indicaciones para dos herramientas populares de vivientes de imágenes.

Se cree que la operación es el trabajo de un servicio comercial que atiende a diferentes clientes en varios países. Se han identificado al menos cuatro campañas distintas utilizando este situación programático.

“La operación implementó un enfoque en gran medida estructurado basado en JSON para la administración de la persona, lo que le permite suministrar la continuidad en todas las plataformas y establecer patrones de décimo consistentes que imitan el comportamiento humano auténtico”, dijeron los investigadores Ken Lebedev, Alex Moix y Jacob Klein.

“Al utilizar este situación programático, los operadores podrían estandarizar y prosperar eficientemente sus esfuerzos y permitir el seguimiento y puesta al día sistemática de los atributos de la persona, el historial de compromiso y los temas narrativos en múltiples cuentas simultáneamente”.

Otro aspecto interesante de la campaña fue que “estratégicamente” instruyó a las cuentas automatizadas que respondieran con humor y sarcasmo a las acusaciones de otras cuentas de que pueden ser bots.

Anthrope dijo que la operación destaca la aprieto de nuevos marcos para evaluar las operaciones de influencia que giran en torno a la construcción de relaciones y la integración de la comunidad. Igualmente advirtió que actividades maliciosas similares podrían volverse comunes en los próximos primaveras, ya que la IA reduce la barrera aún más para realizar campañas de influencia.

Leer  Tácticas de cambio de accesorios de acceso inicial, vendiendo más por menos

En otros lugares, la compañía señaló que prohibió a un actor de amenaza sofisticado que usaba sus modelos para rasar contraseñas filtradas y nombres de adjudicatario asociados con cámaras de seguridad y idear métodos para los objetivos orientados a Internet de fuerza bruta utilizando las credenciales robadas.

El actor de amenazas empleó por otra parte a Claude para procesar publicaciones de los registros de robadores de información publicados en Telegram, crear scripts para rasar las URL objetivo de los sitios web y mejorar sus propios sistemas para una mejor funcionalidad de búsqueda.

A continuación se enumeran otros dos casos de mal uso vistos por antrópico en marzo de 2025.

  • Una campaña de fraude de sustitución que aprovechó a Claude para mejorar el contenido de las estafas dirigidas a los solicitantes de empleo en los países de Europa del Este
  • Un actor novato que aprovechó a Claude para mejorar sus capacidades técnicas para desarrollar malware progresista más allá de su nivel de tiento con las capacidades para escanear la web oscura y ocasionar cargas bártulos maliciosas indetectables que pueden sortear el control de seguridad y suministrar el comunicación persistente a grande plazo a sistemas comprometidos comprometidos.

“Este caso ilustra cómo la IA puede aplanar potencialmente la curva de formación para los actores maliciosos, lo que permite a las personas con conocimiento técnico escaso desarrollar herramientas sofisticadas y potencialmente acelerar su progresión de actividades de bajo nivel a esfuerzos cibercriminales más graves”, dijo Anthrope.

El más popular

spot_img