Завдання Кайла Фіша полягатиме в тому, щоб у міру розвитку штучного інтелекту до нього ставилися з належною повагою. Він розглядатиме такі питання, як «які здібності необхідні для того, щоб система ШІ була гідною моральної оцінки», і які практичні кроки компанії можуть зробити для захисту «інтересів» систем ШІ, пише Business Insider.
На онлайн-форумі, присвяченому ШІ, Фіш сказав, що хоче бути добрим до роботів, частково тому, що вони, можливо, врешті-решт, будуть правити світом. «Я хочу бути тією людиною, яка завчасно і серйозно замислюється про можливість того, що новий вид істот може мати власні інтереси, які мають моральне значення», — написав він. «Існує також практичний аспект: якщо серйозно ставитися до інтересів систем штучного інтелекту і добре поводитися з ними, це може підвищити ймовірність того, що вони віддячать нам тим же, якщо/коли вони стануть могутнішими за нас».
У нещодавній статті «Серйозне ставлення до добробуту ШІ», яку написав Фіш у співавторстві з ШІ-дослідниками зі Стенфорда та Оксфорда, говориться, що алгоритми машинного навчання вже на шляху до того, щоб мати «обчислювальні можливості, пов’язані зі свідомістю і здатністю до дії». Іншими словами, ці люди вважають, що машини стають не просто розумними. Вони стають чуттєвими.
На думку Фіша, добробут ШІ незабаром стане важливішим за людський, наприклад, за такі речі, як дитяче харчування та боротьба зі зміною клімату. «Мені здається правдоподібним, — пише він, — що протягом 1-2 десятиліть добробут ШІ перевершить добробут тварин і глобальне здоров’я та розвиток за важливістю/масштабом лише на основі короткострокового добробуту».
Як зазначає BI, тут виникає парадокс. Прихильники ШІ кажуть, що ми повинні використовувати його, щоб звільнити людей від усілякої рутинної роботи. Але вони також попереджають, що ми повинні бути добрими до ШІ, тому що це може бути аморально — і небезпечно — ображати почуття робота.
«Спільнота розробників штучного інтелекту намагається досягти обох цілей, — каже Мілдред Чо, лікар зі Стенфордського центру біомедичної етики. «Існує аргумент, що основна причина, чому ми повинні використовувати ШІ для виконання завдань, які виконують люди, полягає в тому, що ШІ не нудьгує, не втомлюється, не має почуттів і не потребує їжі. А тепер ці люди кажуть: «А може, у нього є права?».
Скептики добробуту ШІ також ставлять ще одне цікаве питання: якщо ШІ має права, то чи не варто говорити і про його обов’язки? «Я думаю, що вони упускають ту частину, що коли ви говорите про моральну свободу, ви також повинні говорити про відповідальність», — каже Чо. «Не лише про відповідальність систем ШІ як частини морального рівняння, а й про відповідальність людей, які розробляють ШІ».