Шахраї все частіше використовують ШІ для клонування голосу. У ФБР порадили, як від цього захиститися


Федеральне бюро розслідувань США повідомило, що зловмисники все частіше використовують шахрайські схеми з клонуванням голосу за допомогою штучного інтелекту, щоб видавати себе за близьких у кризових ситуаціях. У ФБР радять впровадити просту перевірку, щоб захистись від такого.

«Створіть зі своєю сім’єю секретне слово або фразу, щоб підтвердити їхню особу», — заявили в ФБР. Про це повідомляє Ars Technica. 

У Бюро радять заздалегідь домовитися з близькими про спеціальне слово або фразу для перевірки вашої особи, якщо щось здається підозрілим. Ось кілька прикладів, які радять у ФБР:

  • «Горобець прилітає опівночі»;
  • «Грег — король буріто»;
  • «Фліббертігіббет». 

Пароль має бути незвичним словом чи фразою, якою могли б теоретично вгадати зловмисники.

ФБР повідомляє, що злочинці використовують аудіо, згенероване штучним інтелектом, для створення переконливих голосових кліпів родичів, які благають про термінову фінансову допомогу або виплату викупу.  Агенція рекомендує уважно прислухатися до тону й вибору слів у несподіваних дзвінках, які видаються за дзвінки від членів сім’ї.

Варто зазначити, що ці типи шахрайських клонів зазвичай покладаються на наявність зразків голосу у відкритому доступі (наприклад, у подкасті або записаному інтерв’ю). Тому небезпека загрожує насамперед хоча б дещо публічним особам

У повідомленні ФБР також ідеться про те, що злочинці також використовують моделі штучного інтелекту для створення переконливих фотографій профілю, документів, що посвідчують особу, та чат-ботів, вбудованих у шахрайські вебсайти. Ці інструменти автоматизують створення оманливого контенту, одночасно зменшуючи раніше очевидні ознаки того, що за шахрайством стоїть людина, такі як погана граматика або явно фальшиві фотографії.

Перша поява секретного слова в контексті сучасного ШІ-синтезу голосу та діпфейків, ймовірно, належить розробниці ШІ Асарі Нір, яка повідомила про цю ідею у Twitter 27 березня 2023 року.

«Може бути корисно створити „доказ людяності“, яке ваші довірені контакти можуть попросити у вас. Якщо вони отримають від вас дивний і терміновий голосовий або відеодзвінок, це допоможе їм переконатися, що вони дійсно розмовляють з вами, а не з підробленою/клонованою вашою версією», — зазначила Нір.

Раніше Ілон Маск розповсюдив відео, яке нагадувало першу рекламу президентської кампанії 2024 року віцепрезидентки США Камали Гарріс. Щоправда, він не уточнив, що це була пародія із синтезованим ШІ голосом.

Клонування голосу за допомогою ШІ використовується не лише зі зловмисною метою. Раніше український стартап Respeecher за допомогою штучного інтелекту відтворив голос померлого актора для доповнення «Ілюзія Свободи» до гри Cyberpunk 2077. У компанії говорять, що ця технологія може трансформувати сферу озвучування, не залишаючи людей «за бортом».



Джерело

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *