Forbes Argentina
Sam Altman - CEO Open Ai
Innovacion

Identifican ciberpiratas patrocinados por Rusia y China que utilizaron herramientas de OpenAI para mejorar sus ataques

Ty Roush

Share

OpenAI y Microsoft desactivaron cuentas asociadas a los grupos de hackers Charcoal Typhoon, Salmon Typhoon, Crimson Sandstorm, Emerald Sleet y Forest Blizzard.

14 Febrero de 2024 18.00

Grupos de piratas informáticos patrocinados por Rusia, China y otros adversarios de Estados Unidos fueron sorprendidos utilizando las herramientas de OpenAI para atacar mejor a sus objetivos, según un informe publicado el miércoles por Microsoft, en medio de la preocupación por posibles amenazas a la ciberseguridad a medida que mejora la tecnología de IA.

Datos clave


OpenAI y Microsoft desactivaron cuentas asociadas a los grupos de hackers Charcoal Typhoon, Salmon Typhoon, Crimson Sandstorm, Emerald Sleet y Forest Blizzard, según informes de ambas compañías.

Los grupos Charcoal Typhoon y Salmon Typhoon, respaldados por China, utilizaban los modelos lingüísticos de OpenAI para mejorar sus "operaciones técnicas", según alega Microsoft, incluida la investigación de herramientas de ciberseguridad y contenidos de phishing.

OpenAI

Forest Blizzard, un grupo hacker supuestamente vinculado a la inteligencia militar rusa, utilizó modelos lingüísticos para investigar "diversas tecnologías de satélites y radares", que "pueden estar relacionadas con operaciones militares convencionales en Ucrania", afirma Microsoft.

Hackers de Corea del Norte asociados al grupo Emerald Sleet generaron contenidos que "probablemente se utilizarían en campañas de spear-phishing" contra expertos regionales, mientras que Crimson Sandstorm -supuestamente vinculado a la Guardia Revolucionaria iraní- utilizó herramientas de OpenaI para ayudar a redactar correos electrónicos de phishing, según el informe de Microsoft.

Liu Pengyu, vocero de la embajada de China en Estados Unidos, dijo a Reuters que China negó "calumnias y acusaciones infundadas" contra el país, que apoya el uso "seguro, confiable y controlable" de la tecnología de IA para "mejorar el bienestar común de toda la humanidad."

El director de OpenAI ha advertido de los peligros de los "prejuicios  sociales" en la adopción de la IA. | Gagadget.com

Tanto Microsoft como OpenAI afirmaron que mejorarían su enfoque para combatir a los grupos de piratas informáticos patrocinados por el Estado que utilizan sus herramientas, lo que incluye invertir en tecnología de supervisión para identificar amenazas, colaborar con otras empresas de IA y ser más transparentes sobre posibles problemas de seguridad relacionados con la IA.

Cita crucial


Tom Burt, jefe de ciberseguridad de Microsoft, dijo al New York Times que los grupos estaban utilizando las herramientas de OpenAI para tareas sencillas: "Simplemente lo están usando como todo el mundo, para intentar ser más productivos en lo que hacen".

Hecho sorprendente


Microsoft afirmó el mes pasado que los sistemas corporativos de la empresa fueron atacados por el grupo hacker Midnight Blizzard, respaldado por Rusia. El grupo accedió a un "porcentaje muy pequeño" de las cuentas de correo electrónico corporativas de la empresa, incluidos algunos altos directivos y empleados de sus equipos de ciberseguridad y jurídico, dijo Microsoft.

Antecedente clave


Microsoft publicó varios informes en el último año sobre intentos de pirateo patrocinados por Estados extranjeros. El año pasado, Microsoft afirmó que un "actor con sede en China" violó las cuentas de correo electrónico de unas 25 organizaciones gubernamentales con sede en Estados Unidos.

14 tipos piratas informáticos que debes conocer - Panda Security

La empresa también declaró haber descubierto actividades de pirateo de infraestructuras por parte del hacker chino Volt Typhoon, incluidos ataques a infraestructuras militares estadounidenses en Guam. Sami Khoury, máximo responsable de ciberseguridad de Canadá, declaró a Reuters que las pruebas obtenidas por el gobierno canadiense sugerían que más hackers estaban utilizando la IA para mejorar sus ataques, desarrollar software malicioso y crear correos electrónicos de phishing más convincentes.

 La advertencia de Khoury siguió a un informe de la organización policial europea Europol, que dijo que herramientas similares a ChatGPT de OpenAI hacían posible "hacerse pasar por una organización o individuo de una manera altamente realista." El Centro Nacional de Ciberseguridad del Reino Unido también advirtió sobre los posibles riesgos de piratería mediante el uso de IA, sugiriendo que los modelos lingüísticos podrían "ayudar en ciberataques más allá de sus capacidades actuales."

 

Nota publicada por Forbes US

10