Зараз жертви насильства можуть бути дорослими, але, за словами експертів та опитаних постраждалих, за допомогою штучного інтелекту можуть збільшуватись кількість сексуального контенту, який зображує їх дітьми. Про це пише The Guardian. Жертви побоюються, що їхні зображення, які циркулюють в інтернеті або їхніх спільнотах, можуть загрожувати їхньому життю та кар’єрі, які вони побудували вже після насильства.
Звіт Стенфордського університету, опублікований у грудні 2023 року, показав, що сотні відомих зображень сексуального насильства над дітьми були включені в LAION-5B (база даних, відкритий каталог із понад 5 мільярдів зображень, які кожен може використовувати для навчання моделей ШІ) і зараз використовуються для навчання популярних моделей генерації зображень штучного інтелекту для створення CSAM.
The Guardian наводить кілька уривків бесід у чаті темної мережі, де імена жертв були відредаговані з міркувань безпеки. Обговорення відбуваються в доброзичливому тоні, і членам форуму пропонується створювати нові зображення за допомогою штучного інтелекту, щоб ділитися ними в групах. Багато хто сказав, що вони були б в захваті від перспективи появи нового матеріалу, створеного за допомогою штучного інтелекту, інших це не зацікавило, оскільки зображення не зображують справжнього насильства.
В одному з повідомлень від листопада 2023 року йдеться: «Чи не могли б ви змусити штучний інтелект відтворити прекрасні образи колишніх зірок КП [дитячого порно] [відредаговано ім’я жертви] та [відредаговано ім’я жертви] і отримати їх у деяких сценах — наприклад [відредаговано ім’я жертви] у традиційній католицькій формі школярки в початковій школі та [відредаговано ім’я жертви] в костюмі вболівальниці в молодшій школі?»
В оцінці Національного центру зниклих і експлуатованих дітей у 2020 році Meta повідомила, що лише шість відео становлять половину всіх матеріалів про сексуальне насильство над дітьми, які публікуються та повторно публікуються у Facebook та Instagram. Приблизно 90% образливих матеріалів, які Meta відслідковувала протягом двох місяців, були такими ж, як вміст, про який повідомлялося раніше.
Справжні голлівудські знаменитості також є потенційними мішенями для віктимізації за допомогою CSAM, створеного штучним інтелектом. The Guardian проаналізував теми чатів у дарк-мережі, в яких обговорювали бажання хижаків, які володіють штучним інтелектом, створювати образи жорстокого поводження зі знаменитостями, включно з ідолами підлітків 1990-х років, які тепер стали дорослими.
Оскільки темні веббраузери дають змогу користувачам бути анонімними або неможливими для відстеження, у груп безпеки дітей є небагато способів вимагати видалення цих зображень або повідомляти про користувачів правоохоронним органам. Правозахисники закликають прийняти законодавство, яке виходить за рамки криміналізації, щоб запобігти створенню CSAM, ШІ та іншим чином.