Як повідомляє Reuters, підозрюваний використовував ChatGPT, щоб з’ясувати, скільки вибухівки потрібно для здійснення вибуху.
Минулого тижня влада ідентифікувала особу чоловіка, якого знайшли мертвим всередині Tesla Cybertruck, як Метью Лівелсбергера, 37-річного солдата армії США з Колорадо-Спрінгс. ФБР заявляє, що він діяв сам, а інцидент був схожий на самогубство.
Раніше поліція Лас-Вегаса заявила, що вибух Cybertruck став першим інцидентом на території США, коли ChatGPT був використаний для створення вибухового пристрою. Скептики штучного інтелекту попереджають, що він може бути використаний у шкідливих цілях, і теракт у Лас-Вегасі може стати ще одним приводом для критики.
«Особливо слід відзначити, що тепер у нас є чіткі докази того, що підозрюваний використовував штучний інтелект ChatGPT для планування своєї атаки», — заявив на пресконференції шериф Кевін МакМахілл із департаменту поліції Лас-Вегаса.
Розробник ChatGPT OpenAI заявив, що компанія «прагне до відповідального використання інструментів штучного інтелекту» і що її «моделі розроблені таким чином, щоб відмовлятися від шкідливих інструкцій».
«У цьому випадку ChatGPT відповів інформацією, яка вже була загальнодоступною в Інтернеті, і надав застереження проти шкідливих або незаконних дій», — йдеться в коментарі компанії.
У ФБР також відзначили, що підозрюваний не мав ворожості до новообраного президента США Дональда Трампа і, ймовірно, мав посттравматичний стресовий розлад.
Нагадаємо, що раніше OpenAI анонсувала нове сімейство моделей штучного інтелекту o3, які, як стверджує компанія, є більш досконалими, ніж o1 чи будь-які інші, випущені до цього. В OpenAI стверджували, що стали краще пасувати принципам безпеки компанії. Зокрема, була зменшена швидкість, з якою o1 відповідала на «небезпечні» запитання — принаймні на ті, які OpenAI вважав небезпечними — одночасно покращуючи його здатність відповідати на «нормальні».