Развитие искусственного интеллекта не только открывает новые возможности, но и создает новые проблемы в самых разных областях. Так, специалисты по кибербезопасности предупреждали о том, что генеративные модели искусственного интеллекта вполне могут использоваться для создания вредоносных кодов. И, к сожалению, их опасения начинают подтверждаться.
Исследователи компании HP Wolf Security опубликовали отчет Threat Insights за 3 квартал текущего года. В нем привлекает внимание анализ вредоносной кампании, развернутой неизвестными злоумышленниками против пользователей в Франции в июне. Пользователям массово рассылались фишинговые сообщения, содержавшие во вложении защищенный паролем ZIP-архив. Исследователям удалось взломать пароль и изучить содержимое архива - VBScript и JavaScrip-коды.
По их словам, коды выглядели как созданные генеративной моделью искусственного интеллекта. На это указывает прежде всего то, что каждая строка кода была снабжена комментарием, пояснявшим, для чего она нужна. Представить себе, что такой код написал реальный злоумышленник, практически невозможно, хакеры стремятся ровно к обратному - как можно тщательнее замаскировать работу своих кодов. А вот генеративная модель искусственного интеллекта поступает именно так.
Исследователи полагают, что, несмотря на все старания разработчиков генеративных моделей искусственного интеллекта обезопасить свои детища от вредоносного использования, киберпреступники вполне успешно обходят эти ограничения. Менее квалифицированные злоумышленники при этом полностью полагаются на искусственный интеллект в написании вредоносных программ, а более искушенные используют его для ускорения своей работы по созданию все новых зловредов.