Сьогодні

ИИ, в конце концов, не такой уж и умный

В классической британской комедии «Ослепленный» герой Дадли Мура продает свою душу дьяволу, которого играет обаятельный Питер Кук, в обмен на семь желаний.

Похоже, что он влюблен в официантку из закусочной, где он работает, но она не обращает на него никакого внимания.

На протяжении всего фильма Мур с помощью дьявола пытается завоевать сердце официантки.

Каждый раз он четко и подробно формулирует свое желание, и каждый раз дьявол буквально и точно исполняет его просьбу.

Однако каждый раз дьявол вводит какие-то новые факторы, полностью соответствующие первоначальному желанию, но делающие результат пародийным.

Он просит стать самым богатым человеком на земле, и — пуф! — он становится им.

Но, к сожалению, девушка предпочитает парня, ухаживающего за бассейном.

Он уточняет, что они должны быть влюблены, и — пуф — они влюблены, но она замужем за другим.

Конечно, от дьявола можно ожидать только такого рода сотрудничества.

Но что, если бы так поступил ваш коллега или онлайн друг?

Вы задаете вопрос, и она дает ответ, который может показаться разумным, эрудированным и надежным, но в половине случаев он совершенно неверный, а иногда и опасно вводящий в заблуждение.

Многие люди сейчас сталкиваются с подобным опытом при использовании приложений искусственного интеллекта, где они ищут информацию обо всем, от диет до медицинских процедур и юридических документов.

Люди полагаются на ИИ как на инструмент для исследования, так и для составления готовых продуктов, таких как школьные сочинения и журнальные статьи.

И ИИ идет навстречу.

Он даст полный, разговорный и подробный ответ, который кажется нормальным.

Однако многие люди также сталкиваются с причудливыми и катастрофическими результатами, которые мог бы придумать только дьявол.

Истории накапливаются.

Были составлены юридические документы, содержащие вымышленные цитаты.

На медицинские вопросы были даны ответы с заговорщической дезинформацией.

Эмоционально неустойчивым людям советуют причинять вред себе или окружающим.

Слово, обозначающее ложный ответ ИИ, — «галлюцинация». Термин, обозначающий совет причинить вред, — «содействие преступлению». Можно ли возложить вину на компьютерное приложение, которое вводит в заблуждение?

Оно сделало это специально? Оно думало?

Эти приложения искусственного интеллекта обещают многое, но они не могут выполнить свои обещания, если обманывают нас, вводят в заблуждение и заманивают в ловушку.

Может ли искусственный интеллект когда-нибудь научиться различать добро и зло? Можно ли научить искусственный интеллект этике?

Боты искусственного интеллекта на самом деле не думают.

Они работают по алгоритмам, которые устанавливают связи между словами и идеями.

ИИ будет использовать огромный объем письменных материалов и изображений, загруженных в его память, и отвечать на вопрос или запрос наиболее распространенными последовательностями слов и предложений, связанными с поднятой вами темой.

Он не оценивает, какой ответ является лучшим, а просто воспроизводит последовательности слов, которые чаще всего встречаются в его базе данных.

Люди на опыте учатся, что некоторым последовательностям лучше не следовать.

Компьютер может научиться различать, что хорошо, а что плохо, только если ему это сказать.

Кремниевая долина уверяет нас, что ошибки можно исправить, запрограммировав все соответствующие правила.

Но невозможно предусмотреть все, что нужно знать компьютеру — например, что химия — это хорошо, а бомбы — нет; что медицинские иллюстрации — это хорошо, а злонамеренная порнография — нет.

Можно ли научить ИИ не лгать — или лгать, когда это лучше сделать?

Мы, люди, боремся с вопросами этики на протяжении всех 3000 лет записанной истории и, без сомнения, задолго до этого.

Мы знаем, что правил этики бесчисленное множество, и они развиваются с изменением обстоятельств и с течением времени.

Сегодня многие люди понимают, что правила этики являются культурным творением и продуктом непрерывного человеческого опыта.

Правила поведения возникают из наших взаимодействий и являются результатом постоянного общения людей друг с другом и обмена их потребностями и ожиданиями.

Как и язык, они постоянно развиваются.

Эта точка зрения, отстаиваемая такими философами, как Джон Дьюи, гласит, что фиксированный список правил является плохой приближенной моделью нашего сложного и многогранного культурного этического кодекса.

Сама идея перечислить их все и запрограммировать в базе данных абсурдна.

Мы знаем, что применение этики требует опыта, суждения и сострадания.

Требуется мужество, чтобы взять на себя ответственность и признать последствия своих действий, будь то добро или зло.

Понимание того, что правильно делать в данной ситуации или какой истине следовать, может потребовать напряжения воображения и проницательности даже от самых мудрых людей.

Но это человеческое стремление.

Нереалистично ожидать, что машина, которая не имеет ничего общего с нашей физической природой и нашим опытом, будет давать советы по поводу человеческого состояния.

Она может следовать желанию до буквы и все равно все испортить — даже без злобы дьявола.

Люди должны оставаться окончательными редакторами.

Передача полномочий по принятию решений боту с искусственным интеллектом, будь то из соображений удобства или прибыли, будет равносильна продаже наших душ.

Автор, доктор Ричард Корал является лидером Нью-Йоркского общества этической культуры США, старейшего и наиболее известного гуманистического учреждения города.

Источник: thehill.com

Обсудить

Также по теме: