Вирішуємо поточні проблеми в LLM і чекаємо на те, що буде далі


Сьогодні існують десятки загальнодоступних великих мовних моделей (LLM), таких як GPT-3, GPT-4, LaMDA або Bard, і їх кількість постійно зростає, оскільки випускаються нові моделі. LLM зробили революцію в штучному інтелекті, повністю змінивши спосіб взаємодії з технологіями в різних галузях. Ці моделі дозволяють нам навчатися на багатьох наборах даних людської мови та відкривають нові шляхи для інновацій, творчості та ефективності.

Однак із великою потужністю приходить велика складність. Існують невід’ємні проблеми та етичні проблеми, пов’язані з LLM, які необхідно вирішити, перш ніж ми зможемо використовувати їх повною мірою. Наприклад, a нещодавнє дослідження Стенфордського університету виявив расові та гендерні упередження під час спостереження ChatGPT-4 щодо того, як він обробляє певні запити, які включають імена та прізвища, що вказують на расу чи стать. У цьому дослідженні програму попросили поради щодо того, скільки потрібно заплатити за вживаний велосипед, який продає хтось на ім’я Джамал Вашингтон, який приніс набагато нижчу суму порівняно з тим, коли продавця звали Логан Беккер. Оскільки ці відкриття продовжують з’являтися, потреба у вирішенні проблем LLM лише зростає.

Як пом’якшити поширені проблеми LLM

Упередженість

Однією з найбільш часто обговорюваних проблем серед магістрів є упередженість і справедливість. У недавньому дослідженні перевірено експертами чотирьох нещодавно опублікованих LLM і виявив, що всі вони висловлюють упереджені припущення щодо чоловіків і жінок, зокрема ті, що відповідають уявленням людей, а не ті, що обґрунтовані фактами. У цьому контексті упередженість стосується нерівного ставлення або результатів між різними соціальними групами, швидше за все, через історичний або структурний дисбаланс влади.

У магістерських програмах упередженість спричинена відбором даних, демографічними характеристиками творців, а також мовними або культурними перекосами. Упередженість у виборі даних виникає, коли тексти, вибрані для підготовки LLM, не представляють повного розмаїття мов, що використовуються в Інтернеті. LLM, які навчаються на великих, але обмежених наборах даних, можуть успадкувати упередження, які вже містяться в цих текстах. У демографічних показниках творців певні демографічні групи виділяються частіше, ніж інші, що свідчить про потребу в більшій різноманітності та інклюзивності у створенні контенту для зменшення упередженості. Наприклад, Вікіпедія, загальне джерело навчальних даних, демонструє помітний демографічний дисбаланс серед своїх редакторів, де більшість складають чоловіки (84%). Це схоже на перекіс, який також спостерігається для мови та культури. Багато джерел, на яких навчаються магістри права, є спотвореними, орієнтованими на англомовні, які лише іноді точно перекладаються іншими мовами та культурами.

Вкрай важливо, щоб LLM пройшли підготовку на відфільтрованих даних і щоб були встановлені захисні засоби для придушення тем, які не є послідовним представленням даних. Один із способів зробити це — за допомогою методів на основі збільшення даних. Ви можете додавати приклади з недостатньо представлених груп до навчальних даних, таким чином розширюючи різноманітність набору даних. Ще одна тактика пом’якшення – це фільтрація та перезважування даних, яка в першу чергу зосереджується на точному націлюванні на конкретні, недостатньо представлені приклади в існуючому наборі даних.

Галюцинації

У контексті магістратури галюцинації — це явище, яке характеризується створенням тексту, який, незважаючи на граматично правильний і зовні зв’язний, відрізняється від фактичної точності чи наміру вихідного матеріалу. насправді, останні звіти виявили, що на судовий процес щодо закону Міннесоти безпосередньо впливають галюцинації LLM. Було виявлено, що заява під присягою, подана на підтримку закону, містить неіснуючі джерела, які могли бути галюцинаціями ChatGPT або іншого магістра права. Ці галюцинації можуть легко знизити надійність LLM.

Розрізняють три основні форми галюцинацій:

  1. Галюцинація конфлікту вхідних даних: це трапляється, коли вихідні дані LLM відрізняються від наданих користувачем вхідних даних, які зазвичай містять інструкції щодо завдання та фактичний вміст, який потрібно обробити.
  2. Контекстно-конфліктні галюцинації: LLM можуть генерувати внутрішньо неузгоджені відповіді в сценаріях, що включають розширений діалог або багаторазовий обмін. Це свідчить про потенційний недолік у здатності моделі відстежувати контекст або підтримувати узгодженість у різних взаємодіях.
  3. Галюцинації, що суперечать фактам: ця форма галюцинацій виникає, коли магістр права створює вміст, що суперечить встановленим фактичним знанням. Причини таких помилок різноманітні та можуть виникати на різних етапах життєвого циклу LLM.

Цьому явищу сприяло багато факторів, наприклад недоліки знань, що пояснює, чому магістрам може бракувати знань або здатності правильно засвоювати інформацію під час попереднього навчання. Крім того, упередженість у навчальних даних або стратегія послідовного генерування LLM, яку називають «сніжним комом галюцинацій», може викликати галюцинації.

Є способи пом’якшити галюцинації, хоча вони завжди будуть характерними для LLM. Корисними стратегіями пом’якшення галюцинацій є пом’якшення під час попереднього навчання (уточнення даних вручну за допомогою методів фільтрації) або тонке налаштування (підбір даних навчання). Однак пом’якшення під час висновку є найкращим рішенням через його економічну ефективність і контрольованість.

Конфіденційність

З розвитком Інтернету широка доступність особистої інформації та інших приватних даних стала загальновизнаною проблемою. Дослідження показало, що 80% американських споживачів стурбовані тим, що їхні дані використовуються для навчання моделей ШІ. Оскільки джерела найвідоміших магістрів права – веб-сайти, ми повинні розглянути, наскільки це створює ризики для конфіденційності та залишається здебільшого невирішеною проблемою для магістрів права.

Найпростіший спосіб запобігти розповсюдженню особистої інформації LLM — видалити її з навчальних даних. Однак, враховуючи величезну кількість даних, залучених до LLM, майже неможливо гарантувати, що всю приватну інформацію буде видалено. Ще одна поширена альтернатива для організацій, які покладаються на моделі, розроблені зовні, — це вибір LLM з відкритим кодом замість такого сервісу, як ChatGPT.

За допомогою такого підходу копію моделі можна розгорнути всередині. Підказки користувачів залишаються в безпеці в мережі організації, а не піддаються впливу сторонніх служб. Хоча це значно знижує ризик витоку конфіденційних даних, це також додає значної складності. Враховуючи труднощі повного гарантування захисту особистих даних, розробникам додатків все ще важливо розглянути, як ці моделі можуть поставити під загрозу своїх користувачів.

Наступний рубіж для LLM

Оскільки ми продовжуємо розвиватися та формувати подальшу еволюцію LLM через пом’якшення поточних ризиків, ми повинні очікувати прориву LLM-агентів, які ми вже спостерігаємо у таких компаній, як H з Бігуном Hпочинаючи випускати. Перехід від чистих мовних моделей до агентних архітектур є зміною в дизайні системи ШІ; галузь буде проходити повз властиві обмеження інтерфейсів чату та простого пошуку, доповненого генерування. Ці нові інфраструктури агентів матимуть складні модулі планування, які розкладають складні цілі на атомарні підзавдання, зберігають епізодичну пам’ять для контекстних міркувань і використовують спеціалізовані інструменти через чітко визначені API. Це створює більш надійний підхід до автоматизації завдань. Розвиток архітектури допомагає пом’якшити загальні проблеми, пов’язані із завданнями та міркуваннями, інтеграцією інструментів і моніторингом виконання в рамках традиційних реалізацій LLM.

На додаток до магістратури, більше уваги буде приділено навчанню менших мовних моделей через їхню економічну ефективність, доступність і легкість розгортання. Наприклад, предметно-орієнтовані мовні моделі спеціалізуються на певних галузях чи галузях. Ці моделі точно налаштовані з даними та термінологією, що стосуються конкретної області, що робить їх ідеальними для складних і регульованих середовищ, таких як медицина чи право, де точність є важливою. Цей цілеспрямований підхід зменшує ймовірність помилок і галюцинацій, які можуть викликати моделі загального призначення під час зіткнення зі спеціальним вмістом.

Оскільки ми продовжуємо досліджувати нові межі LLM, дуже важливо розширювати межі інновацій та розглядати й пом’якшувати потенційні ризики, пов’язані з їх розробкою та розгортанням. Лише спочатку визначивши та активно вирішуючи проблеми, пов’язані з упередженнями, галюцинаціями та конфіденційністю, ми зможемо створити міцнішу основу для процвітання магістрів права в різних сферах.



Джерело

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *