Сьогодні

Штучний інтелект насправді не такий вже й розумний

У класичній британській комедії «Засліплений» герой Дадлі Мура продає свою душу дияволу, якого грає чарівний Пітер Кук, в обмін на сім бажань.

Схоже, що він закоханий в офіціантку з закусочної, де він працює, але вона не звертає на нього ніякої уваги.

Протягом усього фільму Мур за допомогою диявола намагається завоювати серце офіціантки.

Кожен раз він чітко і докладно формулює своє бажання, і кожен раз диявол буквально і точно виконує його прохання.

Однак кожен раз диявол вводить якісь нові фактори, що повністю відповідають первісному бажанню, але роблять результат пародійним.

Він просить стати найбагатшою людиною на землі, і — пуф! — він стає нею.

Але, на жаль, дівчина віддає перевагу хлопцю, який доглядає за басейном.

Він уточнює, що вони повинні бути закохані, і — пуф — вони закохані, але вона одружена з іншим.

Звичайно, від диявола можна очікувати тільки такого роду співпраці.

Але що, якби так вчинив ваш колега або онлайн-друг?

Ви ставите питання, і вона дає відповідь, яка може здатися розумною, ерудитованою і надійною, але в половині випадків вона абсолютно невірна, а іноді і небезпечно вводить в оману.

Багато людей зараз стикаються з подібним досвідом при використанні додатків штучного інтелекту, де вони шукають інформацію про все, від дієт до медичних процедур і юридичних документів.

Люди покладаються на ШІ як на інструмент для дослідження, так і для складання готових продуктів, таких як шкільні твори та журнальні статті.

І ШІ йде назустріч.

Він дасть повну, розмовну і детальну відповідь, яка здається нормальною.

Однак багато людей також стикаються з химерними і катастрофічними результатами, які міг би придумати тільки диявол.

Історії накопичуються.

Були складені юридичні документи, що містять вигадані цитати.

На медичні питання були надані відповіді зі змовницькою дезінформацією.

Емоційно нестабільним людям радять завдавати шкоди собі або оточуючим.

Слово, що позначає помилкову відповідь ШІ, — «галюцинація». Термін, що позначає пораду завдати шкоди, — «сприяння злочину». Чи можна покласти провину на комп’ютерний додаток, який вводить в оману?

Він зробив це спеціально? Він думав?

Ці додатки штучного інтелекту обіцяють багато, але вони не можуть виконати свої обіцянки, якщо обманюють нас, вводять в оману і заманюють у пастку.

Чи може штучний інтелект коли-небудь навчитися розрізняти добро і зло? Чи можна навчити штучний інтелект етиці?

Боти штучного інтелекту насправді не думають.

Вони працюють за алгоритмами, які встановлюють зв’язки між словами та ідеями.

ШІ буде використовувати величезний обсяг письмових матеріалів і зображень, завантажених в його пам’ять, і відповідати на питання або запит найбільш поширеними послідовностями слів і речень, пов’язаних з піднятою вами темою.

Він не оцінює, яка відповідь є найкращою, а просто відтворює послідовності слів, які найчастіше зустрічаються в його базі даних.

Люди на досвіді вчаться, що деяким послідовностям краще не слідувати.

Комп’ютер може навчитися розрізняти, що добре, а що погано, тільки якщо йому це сказати.

Кремнієва долина запевняє нас, що помилки можна виправити, запрограмувавши всі відповідні правила.

Але неможливо передбачити все, що потрібно знати комп’ютеру — наприклад, що хімія — це добре, а бомби — ні; що медичні ілюстрації — це добре, а зловмисна порнографія — ні.

Чи можна навчити ШІ не брехати — або брехати, коли це краще зробити?

Ми, люди, боремося з питаннями етики протягом усіх 3000 років записаної історії і, без сумніву, задовго до цього.

Ми знаємо, що правил етики безліч, і вони розвиваються зі зміною обставин і з плином часу.

Сьогодні багато людей розуміють, що правила етики є культурним творінням і продуктом безперервного людського досвіду.

Правила поведінки виникають з наших взаємодій і є результатом постійного спілкування людей один з одним та обміну їхніми потребами і очікуваннями.

Як і мова, вони постійно розвиваються.

Ця точка зору, яку відстоюють такі філософи, як Джон Дьюї, стверджує, що фіксований список правил є поганою наближеною моделлю нашого складного і багатогранного культурного етичного кодексу.

Сама ідея перерахувати їх всі і запрограмувати в базі даних абсурдна.

Ми знаємо, що застосування етики вимагає досвіду, судження і співчуття.

Потрібна мужність, щоб взяти на себе відповідальність і визнати наслідки своїх дій, будь то добро чи зло.

Розуміння того, що правильно робити в даній ситуації або якій істині слідувати, може вимагати напруги уяви і проникливості навіть від наймудріших людей.

Але це людське прагнення.

Нереалістично очікувати, що машина, яка не має нічого спільного з нашою фізичною природою і нашим досвідом, буде давати поради щодо людського стану.

Вона може слідувати бажанням до букви і все одно все зіпсувати — навіть без злості диявола.

Люди повинні залишатися остаточними редакторами.

Передача повноважень щодо прийняття рішень боту зі штучним інтелектом, чи то з міркувань зручності, чи то з міркувань прибутку, буде рівнозначна продажу наших душ.

Автор, доктор Річард Корал, є лідером Нью-Йоркського товариства етичної культури США, найстарішої і найвідомішої гуманістичної установи міста.

Джерело: thehill.com

Обговорити

Також на тему: