Штучний інтелект наділили мораллю та етикою. Вчені MIT спробували вирішити цю проблему і наділили машину здатністю до мислення в рамках моралі, заснованих на думці більшості живих людей.

Чим сильніше ШІ входить в наше повсякденне життя, тим частіше йому доводиться стикатися зі складними морально-етичними дилемами, вирішити які часом не так просто і живій людині, передає Ukr.Media. Вчені MIT спробували вирішити цю проблему і наділили машину здатністю до мислення в рамках моралі, заснованих на думці більшості живих людей.

Деякі експерти вважають, що кращий спосіб тренувати штучний інтелект для обробки морально складних ситуацій — це використання «досвіду натовпу». Інші стверджують, що подібний метод не обійдеться без упереджень, і різні алгоритми можуть прийти до різних висновків на основі одного і того ж набору даних. Як же в такій ситуації бути машин, яким явно доведеться приймати непрості морально-етичні рішення при роботі з реальними людьми?

Інтелект і мораль

По мірі розвитку систем штучного інтелекту (ШІ) експерти все частіше намагаються вирішити проблему того, як краще всього дати системі етичну і моральну основу для здійснення тих чи інших дій. Найпопулярніша ідея полягає в тому, щоб ШІ робив висновки, вивчаючи рішення людини. Щоб перевірити це припущення, дослідники з Массачусетського технологічного інституту створили Moral Machine. Відвідувачам веб-сайту було запропоновано зробити вибір відносно того, як має вчинити автономний автомобіль в тому випадку, якщо йому довелося зіткнутися з досить важким вибором. Наприклад, це всім знайома дилема про потенційної аварії, у якій є лише два варіанти розвитку подій: автомобіль може збити трьох дорослих, щоб врятувати життя двох дітей, а може вчинити навпаки. Який варіант вибрати? І чи можна, наприклад, пожертвувати життям літньої людини, щоб врятувати вагітну жінку?

В результаті алгоритм зібрав величезну базу даних на підставі результатів тестування, і Аріель Прокачча з відділу комп'ютерних наук Університету Карнегі-Меллона вирішив використовувати їх для вдосконалення машинного розуму. У новому дослідженні він і один з творців проекту, Іяд Рахван, завантажили в ШІ повну базу проекту Moral Machine і попросили систему передбачити те, як машина на автопілоті відреагувала б на схожі, але все-таки трохи відмінні сценарії. Прокачча хотів продемонструвати, як система, заснована на результатах голосування, може стати рішенням для «етичного» штучного інтелекту". Сам автор зізнається, що подібну систему, звичайно, ще рано застосовувати на практиці, однак вона чудово доводить саму концепцію того, що це можливо.

Перехресна мораль

Сама ідея вибору між двома морально негативними результатами не нова. У етиків для неї використовується окремий термін: принцип подвійного ефекту. Але це область біоетики, а ось до машини подібну систему раніше ніхто не застосовував, а тому дослідження викликало особливий інтерес в експертів по всьому світу. Співголова OpenAI Елон Маск вважає, що створення «етичного» ШІ — це питання розробки чітких керівних принципів або політики для управління розвитком програми. Політики поступово прислухаються до нього: наприклад, Німеччина створила перші в світі принципи етики для автономних автомобілів. Навіть у Alphabet AI DeepMind, що належить Google, тепер з'явився відділ етики і суспільної моралі.

Інші експерти, в тому числі команда дослідників з Університету Дьюка, вважають, що кращий спосіб просування вперед — створення «загальної структури», яка описує те, як ШІ буде приймати етичні рішення в тій або іншій ситуації. Вони вважають, що об'єднання колективних моральних поглядів, як у тій же Moral Machine, дозволить в майбутньому зробити штучний інтелект навіть більш моральним, ніж сучасне людське суспільство.

Критика «моральної машини»

Як би те ні було, у даний час принцип «думки більшості» далекий від надійності. Наприклад, одна група опитуваних може мати упередження, не властиві всім іншим. Результатом буде те, що ШІ, отримали абсолютно однаковий набір даних, можуть прийти до різних висновків на підставі різних вибірок з цієї інформації.

Для професора Джеймса Гриммельманна, який спеціалізується на динаміці між програмним забезпеченням, багатством і владою, сама ідея суспільної моралі видається хибною. «Вона не здатна навчити ІІ етики, а лише наділить його подобою етичних норм, властивих певній частині населення», стверджує він. Та й сам Прокачча, як вже було згадано вище, визнає, що їх дослідження — не більше, ніж вдале доказ концепції. Втім, він упевнений, що подібний підхід може майбутньому принести успіх усієї кампанії по створенню високоморального ШІ. «У демократії, поза всяким сумнівом, є ряд недоліків, але як єдина система вона працює — навіть за умови, що частина людей все ще приймає рішення, з якими не погоджується більшість».