Чоловік, який підірвав Tesla Cybertruck у Лас-Вегасі, консультувався з ChatGPT щодо злочину


Підозрюваний у скоєнні вибуху біля готелю «Трамп Інтернешнл» на Новий рік у Лас-Вегасі, використовував популярний чатбот ChatGPT, щоби спланувати вибух. У поліції заявляють, що це перший відомий випадок, коли цей чатбот виявився причетним до виготовлення вибухівки.

Як повідомляє Reuters, підозрюваний використовував ChatGPT, щоб з’ясувати, скільки вибухівки потрібно для здійснення вибуху.

Минулого тижня влада ідентифікувала особу чоловіка, якого знайшли мертвим всередині Tesla Cybertruck, як Метью Лівелсбергера, 37-річного солдата армії США з Колорадо-Спрінгс. ФБР заявляє, що він діяв сам, а інцидент був схожий на самогубство.

Раніше поліція Лас-Вегаса заявила, що вибух Cybertruck став першим інцидентом на території США, коли ChatGPT був використаний для створення вибухового пристрою. Скептики штучного інтелекту попереджають, що він може бути використаний у шкідливих цілях, і теракт у Лас-Вегасі може стати ще одним приводом для критики.

«Особливо слід відзначити, що тепер у нас є чіткі докази того, що підозрюваний використовував штучний інтелект ChatGPT для планування своєї атаки», — заявив на пресконференції шериф Кевін МакМахілл із департаменту поліції Лас-Вегаса.

Розробник ChatGPT OpenAI заявив, що компанія «прагне до відповідального використання інструментів штучного інтелекту» і що її «моделі розроблені таким чином, щоб відмовлятися від шкідливих інструкцій».

«У цьому випадку ChatGPT відповів інформацією, яка вже була загальнодоступною в Інтернеті, і надав застереження проти шкідливих або незаконних дій», — йдеться в коментарі компанії.

У ФБР також відзначили, що підозрюваний не мав ворожості до новообраного президента США Дональда Трампа і, ймовірно, мав посттравматичний стресовий розлад.

Нагадаємо, що раніше OpenAI анонсувала нове сімейство моделей штучного інтелекту o3, які, як стверджує компанія, є більш досконалими, ніж o1 чи будь-які інші, випущені до цього. В OpenAI стверджували, що стали краще пасувати принципам безпеки компанії. Зокрема, була зменшена швидкість, з якою o1 відповідала на «небезпечні» запитання — принаймні на ті, які OpenAI вважав небезпечними — одночасно покращуючи його здатність відповідати на «нормальні».



Джерело

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Powered by atecplugins.com