Перейти к основному содержанию
Реклама
Прямой эфир
Происшествия
Гоночная машина на скорости влетела в толпу людей на Кубке Ленобласти по ралли
Спорт
В «Динамо» заявили о продлении контракта с тренером Марцелом Личкой
Мир
Десятки рейсов отменили в аэропорту Мюнхена из-за митинга экоактивистов
Мир
Совершившего покушение на премьера Словакии заключили под стражу
Мир
Reuters сообщило о росте числа «отказников» в моргах Канады
Мир
Трамп потребовал проверить Байдена на наркотики перед дебатами в июне
Мир
Подозреваемый в покушении на премьера Словакии признал вину
Мир
СМИ сообщили о запуске дрона с флагом РФ над Рейхстагом в День Победы
Политика
Пушков связал санкции против российских СМИ с неудачами Киева
Политика
Лавров указал на открытость РФ к диалогу по безопасности с Западом на равных
Общество
Актриса Наталия Кудрявцева умерла на 92-м году жизни
Происшествия
В Хабаровском крае обезьяна сбежала от хозяев и покусала местных жителей
Спорт
Футболист Георгий Джикия покинет московский «Спартак» в конце сезона
Армия
ПВО уничтожила четыре авиабомбы и две ракеты над Белгородской областью
Мир
Фуры перекрыли трассу на Украине в знак протеста против закона о мобилизации
Общество
В Намском районе Якутии затопило девять сел из-за паводка на реке Лена
Мир
Польша потратит $2,5 млрд на укрепление границы с Россией и Белоруссией
Главный слайд
Начало статьи
Озвучить текст
Выделить главное
вкл
выкл

В интернете появились предложения предоставить запись своего голоса якобы для коммерческого использования. Авторы объявлений обещают пристроить речь в рекламные проекты, а взамен сулят пассивный доход в виде отчислений. Почему опасны такие предложения и как злоумышленники могут использовать скомпилированные фразы, выясняли «Известия».

Зачем собирают

Компании начали активно собирать записанные в цифровой форме голоса россиян под различными предлогами. В частности, одна американская компания — разработчик софта разместила в русскоязычном сегменте Telegram предложения для русскоговорящих прислать им свое 30-минутное аудио, а также анкету и платежные реквизиты. «При использовании вашего голоса на баланс будет капать пассивный доход. Но будьте готовы услышать свой голос в рекламе или где-нибудь поинтересней», — говорится в сообщении. Заокеанские бизнесмены прозрачно намекают, что голоса могут быть использованы самым неожиданным (и не факт, что законным в РФ) способом. Другой ресурс вовсю торгует записями чужих голосов через популярный мессенджер, предлагая на выбор свыше 400 образцов. Правовая сторона такого бизнеса вызывает массу вопросов, так как большинство компаний, собирающих чужую речь, находятся вне юрисдикции России.

звук
Фото: Global Look Press/dpa/Andreas Arnold

Проба пера

Между тем мошенники уже освоили ряд фишинговых схем с использованием технологий синтеза речи.

— Они активно используют ботов для прозвона граждан, и, разумеется, «говорилку» озвучивают не сами мошенники — голоса берут из открытого доступа в Сети, — сообщил источник «Известий» в правоохранительных органах.

Прошлым летом эксперты обеспокоились тем, что жулики начали клонировать аудиосообщения из мессенджеров, которые им удавалось взломать. Вместе со стандартной текстовой рассылкой «срочно пришли денег» контактам взломанного пользователя направлялись короткие аудиозаписи, синтезированные, предположительно, с использованием «похищенной» речи. Об одном из таких преступлений ранее рассказывали «Известия».

ИИ
Фото: Global Look Press/dpa/Annette Riedl

Особую опасность представляют нейросети, способные генерировать чужой голос — такие попытки обмана уже зафиксированы в Астраханской области. Схема «мама, помоги, я в беде» становится всё более адресной, отметили в ярославском отделении Банка России.

Преступники уже синтезируют голоса представителей региональной власти и бизнес-элиты. Реплики с требованием помочь силовикам или перевести куда-либо деньги генерируются на основе публичных выступлений. Затем проводится веерная рассылка аудиосообщений. Тех, кто клюет на удочку, передают уже другим «специалистам».

Насколько это реально

— Подделать голос легко, — считает руководитель отдела аналитических систем компании «Первый Бит» Петр Иванов. — В 2022 году компания Silero проводила эксперимент еще на старом своем движке. Они взяли два часа [записи] речи человека и пытались пройти систему аутентификации по голосу для своего заказчика. Только 10% попыток оказались неудачными. Прошло два года, и на третьей версии программы уже 0% попыток были неудачными. Причем для эксперимента понадобилось лишь 15 минут записи голоса. В их Telegram-боте можно, например, озвучить любой текст голосами из популярной компьютерной игры уже сейчас.

запись
Фото: Global Look Press/dpa/Soeren Stache

По словам эксперта, 15-минутную аудиозапись можно с легкостью сделать во время публичного выступления известного человека, а у обычных пользователей Сети скомпилировать из голосовых сообщений.

— Гипотетически мошенники могут прислать голосовое сообщение ребенку, чтобы сфотографировал вашу платежную карту со всех сторон, например. Однако если для обычного мошенничества нужно просто взять телефон и позвонить, то тут придется создавать свой «научный центр» с серьезного уровня сотрудниками. Порог входа будет высокий, и эти центры легче будет выявлять и уничтожать.

Почему это легально

Само по себе использование чужого голоса без согласия обладателя этого голоса в России не запрещено, говорит адвокат, управляющий партнер AVG Legal Алексей Гавришев.

— Голос, безусловно, относится к биометрическим персональным данным. Однако если он используется не для установления личности его обладателя, то согласие на использование речи даже в дипфейках не требуется.

В качестве обоснования своего мнения адвокат приводит положения ст. 11 закона «О персональных данных». Там указано, что письменное согласие субъекта ПД требуется на обработку сведений, «которые характеризуют физиологические и биологические особенности человека, на основании которых можно установить его личность (биометрические персональные данные) и которые используются оператором для установления личности».

творчество
Фото: Global Look Press/Ilya Galakhov

— Вот это «и» является ключевым. Многие ошибочно думают, что забирать чужой голос без согласия для использования, например, в творческой деятельности незаконно. Однако в случае создания дипфейков голос используется не для установления личности (как, например, в случае прохода в какое-нибудь охраняемое помещение или разговора с банком). Кроме того, при использовании чужого голоса в творчестве не происходит автоматизированной обработки персональных данных, а закон о персональных данных регулирует их обработку только с использованием средств автоматизации или для целей поиска в каких-либо картотеках.

Юрист, основатель и СЕО консалтинговой группы vvCube Вадим Ткаченко говорит, что биометрия может включать и голос тоже, но сейчас законодательно это в достаточной степени не регулируется, хотя голос и становится сейчас одним из основных способов для идентификации человека.

— Если лица, передающие права на свой голос, подписали соответствующие документы и договор, то он может использоваться где-то, в том числе в публичных пространствах, здесь не будет каких-то нарушений, — считает Ткаченко. — То есть такое использование должно быть правильно оформлено документально.

обработка
Фото: Global Look Press/Ingram Images

Проблема не только у нас

Что касается зарубежных стран, то в США этот вопрос также не урегулирован, говорит адвокат Гавришев.

— Пробел пытаются восполнить. Пока что выдвинут законопроект в конгрессе, и известно недавно инициированное наследниками Джорджа Карлина судебное дело, поводом к которому стало использование видеоблогерами голоса покойного комика. Чем всё закончится, узнаем скоро. Поэтому даже ответственность за «кражу» вашего голоса иностранцами пока что тоже под большим вопросом.

Прямой эфир