Ми вже майже не відрізняємо згенеровані ШІ тексти, зображення, аудіо та відео від створених людьми. Наприклад, є експеримент, у якому 54% людей не відрізнили спілкування із ChatGPT від спілкування з людьми. А на конкурсі Sony World Photography (!) Awards перемогла не фотографія, а згенероване зображення.
Поради та рекомендації щодо визначення, чи є контент згенерованим, швидко застарівають через блискавичний розвиток ШІ-технологій. Та навіть автоматизовані детектори не дадуть гарантій чи безпомилковий вирок, чи є контент згенерованим. Тому краще виходити з припущення, що будь-який контент, який навіть виглядає правдиво, може бути несправжнім.
Ключове питання — що робити далі? По-перше, продовжувати рух до цивілізованості. І це стосується не тільки регулювання та правил типу європейського AI Act та американських правових ініціатив. Це ще й спільні угоди між розробниками ШІ-систем і медіа, коли win-win ситуація: розробники отримують доступ до нових даних, на яких можна навчати моделі, а медіа отримують гроші. Крім того, майданчики, на яких поширюється згенерований контент — а це соцмережі — почали маркувати такий контент. І це теж рух у правильному напрямку для більшої прозорості. На рівні громадян і суспільства слід популяризувати ШІ-грамотність.
Медійникам варто фокусуватися на конструктивному використанні ШІ. Це б дало змогу пришвидшити роботу журналістів і підвищити її якість. Топові світові медіа використовували ШІ ще багато років тому, коли це вимагало залучення інвестицій, а зараз ці можливості демократизувалися й відкрилися для всіх, навіть для регіональних медіа.
В Україні є чудові ШІ-стартапи, які дуже допомагають в інфовійні:
Вони моніторять увесь інформаційний простір та оперативно визначають у ньому поширення фейків, ворожих наративів, ІПСО тощо. І вони вже співпрацюють із відповідними державними органами.