OpenAI блокує шахрайські акаунти в Китаї, росії, КНДР та Ірані

  • 15 Лютого 2024

Всі вони використовувалися для фішингу і створення шкідливого ПЗ.

OpenAI блокує шахрайські акаунти в Китаї, росії, КНДР та Ірані зображення

Компанія OpenAI повідомила, що заблокувала 5 облікових записів у Китаї, Росії, КНДР та Ірані – їх використовували підтримувані державами хакери для створення фішингових листів, шкідливих скриптів, а також для дослідження способів уникати виявлення зловмисного ПЗ. Вищезгадані країни «запитували інформацію з відкритих джерел, перекладали, знаходили помилки кодування та запускали базові завдання кодування», використовуючи ШІ-моделі OpenAI. І, хоча, власне, в у цьому й сенс використання ШІ, багато важить і кінцевий його результат, і мета користувача.

Виявити і відключити шахрайські акаунти OpenAI допомогла компанія Microsoft, найбільший інвестор лабораторії ШІ. Під святий бан потрапили пов’язані з росією сумнозвісні хакери з Forest Blizzard (Fancy Bear), китайські угруповання Charcoal Typhoon і Salmon Typhoon, Crimson Sandstorm з Ірану та північнокорейські зловмисники з Emerald Sleet. Перелік їхніх «подвигів» є довгим, але цікаво те, для чого ці хакери використовували ШІ. Китайці за допомогою GPT-4 досліджували інформацію про певні компанії та спецслужби, іранці користувалися моделями OpenAI для створення скриптів та ухиляння від виявлення шкідливого ПЗ, пов’язані з урядом КНДР хакери з Emerald Sleet зосередилися на розробці фішингових кампаній, а російські розвідники з Forest Blizzard досліджували технології супутникових і радіолокаційних зображень з відкритим кодом і шукали способи автоматизувати написання скриптів.

Раніше в OpenAI заявляли, що їхні ШІ-інструменти не дуже допомагають зловмисникам, бо нейронні мережі погано створюють експлойти для відомих вразливостей. Схоже, зараз у лабораторії ШІ змінили свою думку щодо поганої роботи своїх моделей, і цілком слушно вирішили, що запобігти проблемам легше, аніж потім їх розв’язувати – особливо коли йдеться про хакерів.  

Email розсилка