Схоже на те, що люди скоро опиняться на розвилці. Або ми будемо сліпо вірити роботам і штучному інтелекту, або ми від них відмовимось.
Роботи, як і автономні системи в цілому, можуть викликати занепокоєння і невпевненість, особливо коли їх використання в повсякденному житті стає можливим. Щоб зменшити рівень занепокоєння, нам потрібно злегка змістити фокус з тих речей, які роблять роботи, на те, чим вони є. У певному сенсі вони можуть бути більш надійними, ніж люди.
Подобається вам це чи ні, автономні системи вже тут і залишаться тут. Під автономністю ми маємо на увазі здатність системи приймати власні рішення про те, що робити і коли робити. До цих пір велика частина прикладів - роботи-пилососи, автопілот літака та інші дрібниці, прості і не особливо автономні. Ці системи адаптуються до навколишнього середовища, автоматично відповідаючи на зміни в ній. Вони запрограмовані адаптуватися до навколишнього середовища.
Але старі як світ історії наукової фантастики говорять нам про те, що буде далі. Нас турбує те, що станеться, коли пілот -людина, водій або оператор буде замінений програмним забезпеченням, яке самостійно вирішує, що робити.
Під час повітряного перельоту система автопілота може утримувати літак на певній траєкторії, але пілот вирішує, який шлях обрати, коли це зробити і що робити в надзвичайній ситуації. Аналогічним чином круїз -контроль дозволяє нашим автомобілям виконувати певні дії самостійно, хоча саме водії приймають важливі рішення.
Але коли ми перейдемо до справжніх автономним системам, програмне забезпечення буде грати набагато більшу роль. Нам більше не знадобиться людина для зміни маршруту літака або поставити автомобіль на узбіччя.
Саме в цей момент люди починають турбуватися. Якщо машина дійсно зможе приймати власні рішення, звідки нам знати, що це безпечно? Подивившись пару « Термінаторів », ми задаємося питаннями, як можна довіряти машинам? Для багатьох ідея посадки в літак, який летить сам по собі, вже здається божевільною, не кажучи вже про те, щоб дозволити роботу відвезти себе за всіма цими дорогами з божевільними за кермом.
Схоже на те, що ми знаходимося на роздоріжжі. Або ми сліпо довіряємо цим машинам, або ми від них відмовляємося. Але можливий і третій варіант.
Коли ми маємо справу з іншою людиною, ми не можемо бути впевнені в тому, яке рішення вона прийме, але ми можемо припускати залежно від того, що думаємо про нього. Ми вважаємо, скільки разів людина брехала нам у минулому, і записуємо всі її помилки. Але ми не можемо бути впевнені напевно, що ця людина ще раз обдурить нас.
Наші автономні системи, з іншого боку, контролюються програмним забезпеченням, тому якщо ми можемо ізолювати всі рішення програмного забезпечення на високому рівні - ті, які повинна приймати людина, - ми зможемо детально проаналізувати роботу цих програм. З людським мозком таке не пройде.
Популярний напрям досліджень в інформатиці сьогодні стурбоване глибоким аналізом програмного забезпечення, а також приведення логічних доказів, що програмне забезпечення завжди відповідає формальним вимогам. Цей підхід, який називається формальною верифікацією, особливо корисний для аналізу та оцінці критичного програмного забезпечення, яке впливає на безпеку людей, наприклад системи енерго -, життє-і транспортного забезпечення. Ізолювавши ПО, що приймає важливі рішення всередині автономної системи, ми можемо проаналізувати його роботу за допомогою формальної верифікації
У деяких випадках ми можемо довести, що програмне забезпечення ніколи не прийме погане рішення.
Процес прийняття рішень - центральний при створенні робота, якому можна довіряти. Все це призводить до того, що хоча нещасні випадки все ще можуть відбутися, ми можемо переконатися, що система завжди намагається їх уникнути. Цього недостатньо, але це вирішить деякі з проблем старої наукової фантастики.
Хоча ми не можемо сказати, що робот ніколи не заподіє комусь шкоди випадково, формальна верифікація надійно доведе, що робот ніколи не заподіє шкоду навмисно. Найчастіше, при оцінці програмного забезпечення і його роботи, ми оцінюємо не тільки те, що робитиме ПО, але і чому. Якщо люди будуть упевнені в тому, що система не спробує завдати шкоди, найімовірніше, вони стануть довіряти таким системам трохи більше. Питання не тільки в спробі заподіяти шкоду, але і в спробі уникнути його нанесення.
І тут в справу вступають філософські питання. Ми могли б спробувати довести, що робот ніколи не зашкодить людині свідомо. Але що робити медичним і поліцейським роботам? Перший може спробувати реанімувати когось, зробивши штучний масаж серця. Але це може заподіяти людині шкоди.
Поліцейський робот відповідає за захист населення, але що робити, якщо злочинець стріляє в когось з рушниці? Чи може робот заподіяти шкоду злочинцю, щоб запобігти велику небезпеку?
Щоб створити правильні алгоритми поведінки, доведеться з'ясувати, що таке прийнятна для роботів поведінка, а що таке робототехнічна етика. Цікаво, чи не цими чи питаннями займатиметься рада з етики Google?