Грейс Йі є старшим директором з етичних інновацій (AI Ethics and Accessibility) в Adobeстимулюючи глобальну роботу в масштабах усієї організації щодо етики та розробляючи процеси, інструменти, тренінги та інші ресурси, щоб забезпечити постійний розвиток провідних у галузі інновацій штучного інтелекту Adobe відповідно до основних цінностей і етичних принципів Adobe. Грейс підтримує зобов’язання Adobe створювати та відповідально використовувати технології, зосереджуючи етику та інклюзивність у всій роботі компанії над розробкою ШІ. У рамках цієї роботи Грейс керує Комітетом з етики та оглядовою радою Adobe, яка дає рекомендації, щоб допомогти командам розробників Adobe, і переглядає нові функції та продукти штучного інтелекту, щоб переконатися, що вони відповідають принципам підзвітності, відповідальності та прозорості Adobe. Ці принципи допомагають гарантувати, що ми виводимо на ринок наші функції на базі ШІ, одночасно пом’якшуючи шкідливі та упереджені результати. Крім того, Грейс співпрацює з командою з питань політики, щоб стимулювати адвокацію, допомагаючи формувати державну політику, закони та нормативні акти щодо ШІ на благо суспільства.
У рамках зобов’язань Adobe щодо доступності Grace допомагає гарантувати, що продукти Adobe включають і доступні для всіх користувачів, щоб будь-хто міг створювати, взаємодіяти та використовувати цифровий досвід. Під її керівництвом Adobe співпрацює з урядовими групами, торговими асоціаціями та спільнотами користувачів, щоб просувати та вдосконалювати політику та стандарти доступності, створюючи ефективні галузеві рішення.
Чи можете ви розповісти нам про шлях Adobe за останні п’ять років у формуванні етики ШІ? Які ключові віхи визначили цю еволюцію, особливо в умовах швидкого розвитку, як-от генеративний ШІ?
П’ять років тому ми формалізували наш процес етики штучного інтелекту, встановивши наші принципи етики штучного інтелекту підзвітності, відповідальності та прозорості, які є основою для нашого процесу управління етикою штучного інтелекту. Ми зібрали різноманітну багатофункціональну команду співробітників Adobe з усього світу, щоб розробити дієві принципи, які витримають випробування часом.
Після цього ми розробили надійний процес перевірки, щоб виявити та зменшити потенційні ризики та упередження на ранніх етапах циклу розробки ШІ. Ця багатоетапна оцінка допомогла нам визначити та розглянути функції та продукти, які можуть увічнити шкідливі упередження та стереотипи.
З появою генеративного штучного інтелекту ми адаптували нашу оцінку етики ШІ для вирішення нових етичних проблем. Цей ітеративний процес дозволив нам випереджати потенційні проблеми, гарантуючи, що наші технології ШІ розробляються та розгортаються відповідально. Наша відданість безперервному навчанню та співпраці з різними командами в компанії має вирішальне значення для підтримки актуальності та ефективності нашої програми етики штучного інтелекту, зрештою покращуючи досвід, який ми надаємо нашим клієнтам, і сприяючи інклюзивності.
Як принципи Adobe AI Ethics — підзвітність, відповідальність і прозорість — втілюються в повсякденній діяльності? Чи можете ви поділитися прикладами того, як ці принципи керувалися проектами Adobe у сфері штучного інтелекту?
Ми дотримуємося зобов’язань Adobe щодо етики штучного інтелекту щодо наших функцій на базі штучного інтелекту, впроваджуючи надійні методи розробки, які забезпечують відповідальні інновації, і водночас постійно збираємо відгуки від наших співробітників і клієнтів для внесення необхідних коригувань.
Нові функції штучного інтелекту проходять ретельну етичну оцінку, щоб виявити та зменшити потенційні упередження та ризики. Коли ми представили Adobe Firefly, наше сімейство генеративних моделей штучного інтелекту, воно пройшло оцінку, щоб запобігти створенню вмісту, який міг би увічнити шкідливі стереотипи. Це оцінювання є повторюваним процесом, який розвивається на основі тісної співпраці з командами продуктів, включаючи відгуки та навчання, щоб залишатися актуальними та ефективними. Ми також проводимо вправи з виявлення ризиків з командами продуктів, щоб зрозуміти потенційні наслідки для розробки відповідних механізмів тестування та зворотного зв’язку.
Як Adobe вирішує занепокоєння, пов’язані з упередженістю ШІ, особливо в інструментах, які використовуються глобальною різноманітною базою користувачів? Чи могли б ви навести приклад того, як було виявлено та пом’якшено упередження в певній функції ШІ?
Ми постійно вдосконалюємо наші процеси оцінки та перевірки етики штучного інтелекту в тісній співпраці з нашими продуктами та командами інженерів. Оцінка етики штучного інтелекту, яку ми проводили кілька років тому, відрізняється від тієї, яку ми маємо зараз, і я очікую додаткових змін у майбутньому. Цей ітеративний підхід дозволяє нам використовувати нові знання та вирішувати нові етичні проблеми в міру розвитку таких технологій, як Firefly.
Наприклад, коли ми додали багатомовну підтримку у Firefly, моя команда помітила, що він не видає належного результату, а деякі слова ненавмисно блокуються. Щоб пом’якшити це, ми тісно співпрацювали з нашою командою з інтернаціоналізації та носіями мови, щоб розширити наші моделі та охопити терміни та значення, характерні для певної країни.
Наше прагнення до вдосконалення підходу до оцінювання в міру розвитку технологій допомагає Adobe збалансувати інновації та етичну відповідальність. Заохочуючи інклюзивний та оперативний процес, ми гарантуємо, що наші технології штучного інтелекту відповідають найвищим стандартам прозорості та цілісності, що дає змогу творцям впевнено використовувати наші інструменти.
Завдяки вашій участі у формуванні державної політики, як Adobe перебуває на перетині між швидко змінюваними правилами ШІ та інноваціями? Яку роль відіграє Adobe у формуванні цих правил?
Ми активно співпрацюємо з політиками та галузевими групами, щоб допомогти сформувати політику, яка балансує між інноваціями та етичними міркуваннями. Наші дискусії з політиками зосереджуються на нашому підході до штучного інтелекту та важливості розробки технологій для покращення людського досвіду. Регулятори шукають практичні рішення для подолання поточних викликів і, представляючи такі рамки, як наші принципи етики ШІ, розроблені спільно та послідовно застосовувані в наших функціях на основі штучного інтелекту, ми сприяємо більш продуктивним обговоренням. Вкрай важливо навести конкретні приклади, які демонструють, як наші принципи працюють у дії, і показують реальний вплив, а не говорити через абстрактні поняття.
Яким етичним міркуванням Adobe надає пріоритет під час пошуку навчальних даних і як вона гарантує, що використовувані набори даних є етичними та достатньо надійними для потреб ШІ?
У Adobe ми надаємо пріоритет кільком ключовим етичним міркуванням під час отримання навчальних даних для наших моделей ШІ. У рамках наших зусиль створити Firefly так, щоб він був комерційно безпечним, ми навчили його на наборі даних ліцензованого вмісту, наприклад Adobe Stock, і загальнодоступного вмісту, на який минув термін дії авторських прав. Ми також зосередилися на різноманітності наборів даних, щоб уникнути посилення шкідливих упереджень і стереотипів у результатах нашої моделі. Щоб досягти цього, ми співпрацюємо з різними командами та експертами для перегляду та курування даних. Дотримуючись цих практик, ми прагнемо створювати технології штучного інтелекту, які є не тільки потужними та ефективними, але й етичними та інклюзивними для всіх користувачів.
На вашу думку, наскільки важливою є прозорість у повідомленні користувачам про те, як навчаються системи ШІ Adobe, такі як Firefly, і які дані використовуються?
Прозорість має вирішальне значення, коли йдеться про те, щоб повідомляти користувачам, як навчаються генеративні функції штучного інтелекту Adobe, як-от Firefly, включно з типами використовуваних даних. Це зміцнює довіру до наших технологій, гарантуючи, що користувачі розуміють процеси, що стоять за нашою генеративною розробкою ШІ. Відкрито розповідаючи про наші джерела даних, навчальні методики та запроваджені етичні заходи, ми даємо користувачам можливість приймати зважені рішення щодо того, як вони взаємодіють із нашими продуктами. Ця прозорість не тільки відповідає нашим основним принципам етики штучного інтелекту, але й сприяє співпраці з нашими користувачами.
Оскільки штучний інтелект продовжує масштабуватися, особливо генеративний штучний інтелект, які, на вашу думку, будуть найбільш серйозними етичними проблемами, з якими такі компанії, як Adobe, зіткнуться найближчим часом?
Я вважаю, що найважливішими етичними проблемами для таких компаній, як Adobe, є пом’якшення шкідливих упереджень, забезпечення інклюзивності та збереження довіри користувачів. Потенціал штучного інтелекту випадково підтримувати стереотипи або створювати шкідливий і оманливий контент викликає занепокоєння, яке вимагає постійної пильності та надійних заходів безпеки. Наприклад, завдяки останнім досягненням у генеративному штучному інтелекті «поганим акторам» легше, ніж будь-коли, створювати оманливий контент, поширювати дезінформацію та маніпулювати громадською думкою, підриваючи довіру та прозорість.
Щоб вирішити цю проблему, Adobe заснувала Content Authenticity Initiative (CAI) у 2019 році, щоб створити більш надійну та прозору цифрову екосистему для споживачів. CAI для впровадження нашого рішення для створення довіри в Інтернеті під назвою Content Credentials. Облікові дані вмісту включають «інгредієнти» або важливу інформацію, таку як ім’я творця, дата створення зображення, які інструменти використовувалися для створення зображення та будь-які зміни, внесені на цьому шляху. Це дозволяє користувачам створювати цифровий ланцюжок довіри та автентичності.
Оскільки генеративний штучний інтелект продовжує масштабуватися, стане ще важливішим сприяти широкому впровадженню облікових даних вмісту, щоб відновити довіру до цифрового контенту.
Що б ви порадили іншим організаціям, які тільки починають думати про етичні рамки розвитку ШІ?
Моя порада полягала б у тому, щоб почати з встановлення чітких, простих і практичних принципів, якими можна керувати вашими зусиллями. Я часто бачу компанії чи організації, які зосереджені на тому, що виглядає добре в теорії, але їхні принципи не є практичними. Причина, чому наші принципи витримали випробування часом, полягає в тому, що ми розробили їх, щоб бути дієвими. Коли ми оцінюємо наші функції на базі штучного інтелекту, наша команда продуктів і інженерів знають, чого ми шукаємо та яких стандартів від них очікуємо.
Я також рекомендував би організаціям взяти участь у цьому процесі, знаючи, що він буде повторюватися. Можливо, я не знаю, що Adobe збирається винайти через п’ять або десять років, але я точно знаю, що ми будемо вдосконалювати нашу оцінку відповідно до цих інновацій і відгуків, які ми отримуємо.
Дякую за чудове інтерв’ю, читачі, які хочуть дізнатися більше, повинні відвідати Adobe.