Ср. Дек 18th, 2024

Искусственный интеллект меняет практически все отрасли, и кибербезопасность не стала исключением. Глобальный рынок защитных решений на базе ИИ в 2024 году превысил $30 млрд и, согласно прогнозам, к 2030 году достигнет $135 млрд.

В арсенале злоумышленников к традиционным методам вроде социальной инженерии добавились масштабные кампании дезинформации и синтетические медиа. Мюнхенский отчет безопасности и Всемирный экономический форум выделили это направление как один из критических рисков на ближайшие годы. Особую актуальность проблема приобрела в 2024 году, когда около 4 млрд человек по всему миру участвовали в выборах.

Злоумышленники быстро осваивают новые технологии, совершенствуя методы атак. Развитие больших языковых моделей способствует эволюции угроз, делая мошеннические схемы более изощренными.

При этом порог входа в киберпреступность снижается. Для проведения атак требуется все меньше специальных знаний, а современные алгоритмы настолько усложнили различение синтетического и реального контента, что даже специализированные системы затрудняются с их идентификацией.

ForkLog проанализировал ключевые возможности и риски ИИ в сфере цифровой безопасности и подготовил рекомендации по защите от современных угроз.

Преимущества ИИ для кибербезопасности

Современные организации все чаще интегрируют ИИ в традиционный инструментарий цифровой защиты: антивирусные решения, системы предотвращения утечек данных, обнаружения мошенничества, управления доступом и выявления вторжений. Способность искусственного интеллекта анализировать масштабные массивы информации открывает новые возможности в сфере безопасности:

  • обнаружение реальных атак с большей точностью, чем человек, уменьшение числа ложных срабатываний и определение приоритетности ответных мер с учетом их реальных рисков;
  • маркирование фишинговых электронных писем и сообщений;
  • моделирование атак с использованием социальной инженерии, что помогает службам безопасности обнаружить потенциальные уязвимости;
  • оперативный анализ огромных массивов данных, связанных с инцидентами, что позволяет оперативно принимать меры по локализации угрозы.

Особую ценность ИИ представляет в тестировании на проникновение — направленном исследовании защиты программного обеспечения и сетей. Разрабатывая специализированные инструменты для работы с собственной инфраструктурой, организации могут заблаговременно выявлять слабые места до их обнаружения хакерами.

Внедрение ИИ-технологий в системы безопасности не только повышает уровень защиты данных, но и оптимизирует IT-расходы предприятий за счет предотвращения потенциальных атак.

https://forklog.com/exclusive/fishing-v-web3-kak-zashhitit-sebya-i-svoi-aktivy

Как хакеры злоупотребляют искусственным интеллектом

Киберпреступники крайне изобретательны в освоении новых технологий. Рассмотрим основные способы использования ИИ в незаконных целях.

Схемы социальной инженерии

В основе этих схем лежит психологическое манипулирование с целью получения конфиденциальной информации или принуждения к действиям, компрометирующим безопасность. Арсенал включает фишинг, вишинг и подмену деловой переписки.

Технологии ИИ помогают автоматизировать создание персонализированных мошеннических сообщений. В результате злоумышленники увеличивают масштаб атак при меньших временных затратах, достигая более высокой эффективности.

Взлом паролей

Искусственный интеллект совершенствует алгоритмы расшифровки, делая процесс более быстрым и точным. Это повышает эффективность атак и мотивирует злоумышленников уделять больше внимания данному направлению.

Исследование Security Hero в 2023 году продемонстрировало возможности генеративного ИИ во взломе паролей, «скормив» нейросети 15 млн данных учетных записей.

В результате 51% паролей были взломаны менее чем за минуту. Уже через час удалось подобрать 65% комбинаций, через сутки — 71%, а за месяц — 81%.

Эксперимент также выявил четкие закономерности. Комбинации, состоящие только из цифр, взламывались за секунды, а время подбора увеличивалось пропорционально количеству букв и использованию разных регистров.

Дипфейки и киберугрозы

Этот метод обмана основан на способности ИИ манипулировать аудио- и видеоконтентом, создавая убедительную имитацию. Дипфейки могут моментально распространяться через социальные сети, вызывая панику и дезориентацию у пользователей.

https://forklog.com/cryptorium/ai/chto-takoe-dipfake

Такие технологии часто комбинируются с другими видами мошенничества. Показательный пример — схема, раскрытая в октябре 2024 года, когда злоумышленники использовали поддельные видеозвонки с образами привлекательных женщин для обмана мужчин. Предлагая «инвестиции» в криптовалюты, мошенники похитили более $46 млн.

Другой случай произошел в гонконгском филиале одной крупной компании. Используя технологию дипфейка, злоумышленники создали образ финансового директора во время видеоконференции. В результате сотрудник перевел им $25 млн.

«Отравление» данных

Новый вектор атак направлен на «отравление» или компрометацию обучающих данных. Злоумышленники намеренно искажают информацию, используемую алгоритмами ИИ, что приводит к принятию ошибочных решений.

В 2024 году специалисты Техасского университета выявили метод атаки на системы вроде Microsoft Copilot. Внедряя специально созданный контент в индексируемые документы, мошенники заставляют систему генерировать дезинформацию со ссылками на мнимо надежные источники. Особая опасность заключается в том, что даже после удаления вредоносных данных искаженная информация может сохраняться в системе.

Выявление такого типа атак требует много времени, из-за чего масштаб ущерба к моменту обнаружения может оказаться существенным.

Противодействие угрозам искусственного интеллекта: базовые принципы защиты

По мере развития технологий растет обеспокоенность относительно цифровой безопасности. Регуляторные органы разных стран активно работают над созданием правовой базы для максимизации преимуществ ИИ при снижении рисков, однако мало кто смог представить комплексное законодательство в этой области.

Впрочем, адаптация к современным угрозам не требует кардинального пересмотра принципов кибербезопасности. Основной акцент смещается на усиление существующих мер защиты в ключевых направлениях.

Противодействие социальной инженерии начинается с контроля публичной информации, осмотрительности в онлайн-коммуникациях и проверки подозрительных ссылок. В вопросах паролей рекомендуется использовать уникальные сложные комбинации и двухфакторную аутентификацию.

Для противодействия дипфейкам важно перепроверять чувствительную информацию через альтернативные каналы связи, особенно при финансовых операциях. Работа с ИИ-системами требует использования проверенных источников данных и официальных датасетов для минимизации рисков «отравления».

https://forklog.com/exclusive/ai/fejki-dipfejki-i-chat-boty-kak-raspoznat-ii-manipulyatsii-v-internete

Систематическое соблюдение базовых принципов цифровой безопасности остается неизменным на протяжении многих лет. Развитие искусственного интеллекта повышает значимость превентивных мер и оперативного реагирования на возникающие угрозы.