В этом году количество преступлений, при подготовке которых используется искусственный интеллект (ИИ), может увеличиться в разы. Так, в 2025 году в своей работе использовать нейросети могут до 90% кибергруппировок, пишут «Известия».
В 2025 году количество противоправных действий, совершенных с использованием искусственного интеллекта, увеличится в несколько раз, считают эксперты в сфере инфобеза. Отмечается, что преступные методы будут развиваться вместе с прогрессом ИИ, а использовать технологию в незаконных целях уже с этого года могут до 90% кибергруппировок. При этом атаки могут совершаться не только в ИТ-сегменте, но и в других сферах жизни. Так, например, в начале января 2025 года в Лас-Вегасе был взорван автомобиль, для подрыва которого использовался чат-бот ChatGPT.
Ежегодный прирост преступлений, совершаемых с помощью ИИ, не фиксируется официальными органами. Он определяется примерно по числу ботов и генерируемого ими контента. В 2025-м прирост таких преступлений может увеличиться до восьми раз или даже десятикратно по сравнению с прошлым годом, – отмечает руководитель департамента расследований T.Hunter Игорь Бедеров.
Еще один риск развития ИИ – утечки конфиденциальных данных. Так, более трети опрошенных сотрудников признают, что используют чат-боты в своей работе без ведома работодателя. Все это создает существенный риск утечки важной корпоративной информации.
По мнению депутата Госдумы, члена комитета по информполитике Антона Немкина, нивелирование рисков, связанных с динамичным развитием искусственного интеллекта, напрямую зависит от создания доверенных ИИ-систем.
Доверенный искусственный интеллект, прежде всего, основывается на разделяемых в обществе нормах морали и этики, а также соблюдает положения законодательных актов. То есть, с помощью доверенной системы в принципе невозможно получить доступ к противоправному контенту или использовать ИИ в незаконных целях. Система не пропустит такой запрос и попросту заблокирует его. Схожие технологии уже внедряются в отечественные генеративные ИИ. Например, активно блокируются запросы, связанные с использованием нейросетей в мошеннических целях. Но, конечно, тренд на создание доверенных систем должен быть глобальным – в противном случае злоумышленники просто начнут использовать другой ИИ-продукт. Кроме того, вопрос обеспечения информационной безопасности систем также как никогда важен. Уже сейчас на теневых форумах можно встретить взломанные версии чат-ботов, которые открывают преступникам доступ к запрещенному контенту, – говорит он.
По мнению Немкина, в 2025 году скорее стоит ожидать роста ИТ-преступлений, связанных с использованием ИИ.
Тренд на это наметился еще раньше. Помимо этого, растет число мошеннических атак, связанных с использованием ИИ. Прежде всего, в части создания фишинговых почтовых рассылок и поддельных лендинговых страниц», – отметил депутат. Использование ИИ в преступных целях – один из ключевых вызовов всей отрасли инфобеза, подчеркнул он. «Поэтому разработка новых принципов защиты систем сегодня как никогда важна, – отмечает Немкин.
источник: пресс-служба депутата Государственной Думы РФ Антона Немкина
Срочные сообщения – в Telegram-канале. Подпишись! С тегами: Крым и Россия