Искусственный интеллект может украсть ваш голос — и остановить это сложно

Технологии искусственного интеллекта, позволяющие клонировать голоса, стремительно развиваются, однако барьеры для злоупотреблений остаются слабыми. Расследование Consumer Reports выявило, что пять из шести популярных сервисов клонирования голоса имеют минимальные механизмы защиты, позволяя создать поддельный голос почти без ограничений.
Многие сервисы, такие как ElevenLabs, Speechify, PlayHT и Lovo, требуют от пользователя лишь поставить галочку, подтверждающую согласие на клонирование голоса. При этом Resemble AI, хоть и требует голосовую запись в реальном времени, оказался уязвим — тестеры смогли обойти защиту, просто проиграв запись с компьютера. Единственной платформой с относительно надежной проверкой оказался Descript — для создания клона там требуется записать уникальную фразу, что затрудняет подделку.
Опасность технологии стала очевидной после инцидента во время праймериз Демократической партии в 2024 году. Тогда избирателям звонил ИИ-клон голоса Джо Байдена с призывом не голосовать. Организатор этих звонков был оштрафован на $6 млн, а Федеральная комиссия по связи запретила ИИ-генерируемые автообзвоны.
Несмотря на риски, строгие федеральные законы по контролю ИИ-клонирования в США пока отсутствуют. Попытка Джо Байдена ввести меры безопасности в 2023 году через указ об ИИ была отменена Дональдом Трампом после его прихода к власти.
Технология, конечно, имеет и законные применения: помощь людям, потерявшим голос, или создание аудиопереводов. Однако эксперты предупреждают, что растет и потенциал для злоупотреблений. Сара Майерс Уэст из AI Now Institute подчеркивает, что клоны голоса уже используются для мошенничества — от ложных звонков с просьбами о помощи до подделки голосов знаменитостей.
Пока законодательство отстает, злоумышленники все активнее используют ИИ. Спрос на надежные методы защиты от фейковых голосов продолжает расти, но индустрия пока лишь на начальном этапе создания таких решений.