
В классической британской комедии «Ослепленный» герой Дадли Мура продает свою душу дьяволу, которого играет обаятельный Питер Кук, в обмен на семь желаний.
Похоже, что он влюблен в официантку из закусочной, где он работает, но она не обращает на него никакого внимания.
На протяжении всего фильма Мур с помощью дьявола пытается завоевать сердце официантки.
Каждый раз он четко и подробно формулирует свое желание, и каждый раз дьявол буквально и точно исполняет его просьбу.
Однако каждый раз дьявол вводит какие-то новые факторы, полностью соответствующие первоначальному желанию, но делающие результат пародийным.
Он просит стать самым богатым человеком на земле, и — пуф! — он становится им.
Но, к сожалению, девушка предпочитает парня, ухаживающего за бассейном.
Он уточняет, что они должны быть влюблены, и — пуф — они влюблены, но она замужем за другим.
Конечно, от дьявола можно ожидать только такого рода сотрудничества.
Но что, если бы так поступил ваш коллега или онлайн друг?
Вы задаете вопрос, и она дает ответ, который может показаться разумным, эрудированным и надежным, но в половине случаев он совершенно неверный, а иногда и опасно вводящий в заблуждение.
Многие люди сейчас сталкиваются с подобным опытом при использовании приложений искусственного интеллекта, где они ищут информацию обо всем, от диет до медицинских процедур и юридических документов.
Люди полагаются на ИИ как на инструмент для исследования, так и для составления готовых продуктов, таких как школьные сочинения и журнальные статьи.
И ИИ идет навстречу.
Он даст полный, разговорный и подробный ответ, который кажется нормальным.
Однако многие люди также сталкиваются с причудливыми и катастрофическими результатами, которые мог бы придумать только дьявол.
Истории накапливаются.
Были составлены юридические документы, содержащие вымышленные цитаты.
На медицинские вопросы были даны ответы с заговорщической дезинформацией.
Эмоционально неустойчивым людям советуют причинять вред себе или окружающим.
Слово, обозначающее ложный ответ ИИ, — «галлюцинация». Термин, обозначающий совет причинить вред, — «содействие преступлению». Можно ли возложить вину на компьютерное приложение, которое вводит в заблуждение?
Оно сделало это специально? Оно думало?
Эти приложения искусственного интеллекта обещают многое, но они не могут выполнить свои обещания, если обманывают нас, вводят в заблуждение и заманивают в ловушку.
Может ли искусственный интеллект когда-нибудь научиться различать добро и зло? Можно ли научить искусственный интеллект этике?
Боты искусственного интеллекта на самом деле не думают.
Они работают по алгоритмам, которые устанавливают связи между словами и идеями.
ИИ будет использовать огромный объем письменных материалов и изображений, загруженных в его память, и отвечать на вопрос или запрос наиболее распространенными последовательностями слов и предложений, связанными с поднятой вами темой.
Он не оценивает, какой ответ является лучшим, а просто воспроизводит последовательности слов, которые чаще всего встречаются в его базе данных.
Люди на опыте учатся, что некоторым последовательностям лучше не следовать.
Компьютер может научиться различать, что хорошо, а что плохо, только если ему это сказать.
Кремниевая долина уверяет нас, что ошибки можно исправить, запрограммировав все соответствующие правила.
Но невозможно предусмотреть все, что нужно знать компьютеру — например, что химия — это хорошо, а бомбы — нет; что медицинские иллюстрации — это хорошо, а злонамеренная порнография — нет.
Можно ли научить ИИ не лгать — или лгать, когда это лучше сделать?
Мы, люди, боремся с вопросами этики на протяжении всех 3000 лет записанной истории и, без сомнения, задолго до этого.
Мы знаем, что правил этики бесчисленное множество, и они развиваются с изменением обстоятельств и с течением времени.
Сегодня многие люди понимают, что правила этики являются культурным творением и продуктом непрерывного человеческого опыта.
Правила поведения возникают из наших взаимодействий и являются результатом постоянного общения людей друг с другом и обмена их потребностями и ожиданиями.
Как и язык, они постоянно развиваются.
Эта точка зрения, отстаиваемая такими философами, как Джон Дьюи, гласит, что фиксированный список правил является плохой приближенной моделью нашего сложного и многогранного культурного этического кодекса.
Сама идея перечислить их все и запрограммировать в базе данных абсурдна.
Мы знаем, что применение этики требует опыта, суждения и сострадания.
Требуется мужество, чтобы взять на себя ответственность и признать последствия своих действий, будь то добро или зло.
Понимание того, что правильно делать в данной ситуации или какой истине следовать, может потребовать напряжения воображения и проницательности даже от самых мудрых людей.
Но это человеческое стремление.
Нереалистично ожидать, что машина, которая не имеет ничего общего с нашей физической природой и нашим опытом, будет давать советы по поводу человеческого состояния.
Она может следовать желанию до буквы и все равно все испортить — даже без злобы дьявола.
Люди должны оставаться окончательными редакторами.
Передача полномочий по принятию решений боту с искусственным интеллектом, будь то из соображений удобства или прибыли, будет равносильна продаже наших душ.
Автор, доктор Ричард Корал является лидером Нью-Йоркского общества этической культуры США, старейшего и наиболее известного гуманистического учреждения города.
Источник: thehill.com
Также по теме: