WormGPT: Новый Хакерский ИИ угрожает кибербезопасности
На киберкриминальных форумах недавно появился интересный продукт - новый хакерский инструмент, известный как WormGPT. Это генеративный искусственный интеллект, который заявляет о своей способности совершать различные продвинутые кибератаки.
Авторы этого ПО уверяют, что WormGPT является "архитектурным врагом" для таких известных моделей, как ChatGPT, и что он может выполнять практически любые незаконные действия. Используя его возможности, киберпреступники могут генерировать убедительные фишинговые письма и писать вредоносный код, который угрожает безопасности и нормальному функционированию компьютерных систем.
Современные языковые модели, такие как ChatGPT и Bard, были разработаны компаниями OpenAI и Google, соответственно, с учетом этических аспектов и безопасности, чтобы предотвращать злоупотребления и киберпреступности. Они внедрили барьеры, которые предотвращают генерацию фишинговых писем и вредоносного кода напрямую. Тем не менее, недавние исследования показали, что некоторые киберзлоумышленники обходят эти ограничения, эксплуатируя особенности API и предлагая джейлбрейки к системе.
Компания CheckPoint отметила, что у Bard барьеры против злоупотреблений значительно ниже, чем у ChatGPT, что делает его более уязвимым для генерации вредоносного контента. Это стало предметом обсуждения среди экспертов в области информационной безопасности, которые отмечают, что разработчики масштабных языковых моделей не всегда уделяют должное внимание потенциальным рискам злоупотреблениями.
WormGPT представляет собой особенно опасный инструмент, поскольку не имеет моральных ограничений. Это генеративный ИИ, лишенный этических барьеров, что делает его привлекательным для широкого спектра киберпреступников. Теперь даже люди с низкой квалификацией могут использовать этот инструмент для осуществления сложных кибератак, включая различные виды фишинговых атак и мошенничества.
Ситуация еще усугубляется тем, что киберзлоумышленники активно предлагают премиальные аккаунты в ChatGPT и специальное ПО для проведения брутфорс-атак на них. Это дает им возможность обходить защитные механизмы и получать доступ к информации и системам, которые должны быть надежно защищены.
Эксперты по информационной безопасности считают, что появление вредоносных ИИ было неизбежным развитием событий, учитывая потенциальную опасность, которую они представляют при недостаточной регулировке и невнимательности со стороны создателей. В частности, WormGPT может стать первым генеративным ИИ, предназначенным специально для незаконных действий.
Недавние события подтверждают эту тревожную тенденцию. Французская компания Mithril Security представила эксперимент, в результате которого они модифицировали существующую модель GPT-J-6B, сделав ее распространителем дезинформации. Такая "отравленная" модель была опубликована в свободном доступе, что позволяет интегрировать ее в существующие приложения и повреждать их нормальное функционирование.
Проблема не сводится только к WormGPT. С ростом популярности и доступности языковых моделей, угрозы со стороны злоумышленников будут только возрастать.
Для борьбы с этой проблемой и обеспечения кибербезопасности, эксперты предлагают сосредоточить усилия на улучшении механизмов защиты, внедрении новых технологий для распознавания вредоносных алгоритмов и применении искусственного интеллекта для раннего обнаружения потенциальных угроз.
Тем временем, представители OpenAI и Google обещают усилить контроль и регулировку использования своих языковых моделей, чтобы предотвратить злоупотребления и минимизировать уязвимости. Они активно сотрудничают с исследователями по информационной безопасности, чтобы быстро реагировать на новые угрозы и обновлять свои системы защиты.
Необходимость безопасного использования искусственного интеллекта становится все более актуальной, и только совместные усилия отрасли, исследователей и правоохранительных органов смогут обеспечить защиту от киберугроз и сохранить безопасность в онлайн-мире.