Вт. Ноя 5th, 2024

Мошенники стали чаще применять технологии имитации голоса на базе искусственного интеллекта для шантажа родственников жертв. Об этом пишет Washington Post.

По данным Федеральной торговой комиссии США (FTC), в 2022 году вымогательство с участием самозванцев стало вторым по распространенности в стране. За указанный период власти получили более 36 000 сообщений о том, что людей обманули мошенники, выдающие себя за друзей и членов семьи.

Согласно отчету FTC, более 5100 инцидентов произошли по телефону и причинили более $11 млн убытков.

Достижения в области искусственного интеллекта предоставили мошенникам новые инструменты воспроизведения голоса. Множество дешевых онлайн-сервисов на базе ИИ могут преобразовать короткий аудиофайл в копию голоса, позволяя мошеннику заставить его «произносить» любой текст.

Эксперты заявили, что регуляторы, правоохранители и суды плохо оснащены средствами предотвращения подобного вида мошенничества. Также большинство жертв не имеет зацепок, позволяющих идентифицировать преступника.

Полиции, в свою очередь, сложно отследить звонки аферистов, а у судов мало юридических прецедентов для привлечения компаний, создающих подобные ИИ-инструменты.

«Это ужасно. Это своего рода идеальный шторм… [со] всеми ингредиентами, необходимыми для создания хаоса», — сказал профессор цифровой криминалистики Калифорнийского университета в Беркли Хани Фарид.

По словам эксперта, искусственный интеллект может анализировать уникальные характеристики голоса, включая возраст, пол и акцент. Также современные технологии способны найти похожую речь в больших базах данных и закономерности.

Затем ИИ-инструменты воссоздают высоту тона, тембр и отдельные звуки голоса человека, чтобы создать похожий общий эффект. По словам Фарида, для этого требуется короткий образец аудио, взятый из социальных сетей и других публичных площадок в интернете:

«Год назад вам нужно было много аудио, чтобы клонировать голос человека. […] Теперь достаточно 30 секунд».

Помощник директора отдела маркетинга FTC Уилл Максон заявил, что отслеживание голосовых мошенников может быть «особенно трудным». Они могут использовать телефон, находящийся в любой точке мира. Это затрудняет даже определение юрисдикции в отношении конкретного лица.

Максон призвал соблюдать бдительность. По его словам, в случае получения звонка о том, что близкий человек попал в беду и нуждается в деньгах, необходимо перепроверить информацию.

Напомним, в марте журналист Джозеф Кокс «обманул» голосовой идентификатор банка с помощью бесплатного ИИ-сервиса для синтеза речи.

В январе стартап ElevenLabs обвинили в распространении расистских аудиодипфейков. Из-за растущего числа злоупотреблений компании пришлось приостановить работу сервиса.