Сьогодні

Подросток покончил с собой после разговора с ChatGPT

OpenAI, компания, владеющая ChatGPT, утверждает, что 16-летний подросток покончил с собой, поскольку «неправильно использовал» чат-бот, и не берет на себя никакой ответственности за случившееся.

Такая позиция компании должна стать сильным сигналом тревоги для властей во всем мире: эти крупные компании не будут колебаться обвинять пользователей, и их нужно регулировать гораздо строже.

Трагедия, произошедшая с Адамом Рейном, 16-летним подростком из Калифорнии, является мрачной вехой во взаимодействии людей с новыми чат-ботами, поскольку она разоблачает, если это еще было нужно, истинную природу корпоративной культуры, стоящей за крупными технологическими гигантами.

Официальный ответ OpenAI, компании, оцененной в 500 миллиардов долларов, еще раз показывает нам, что эти компании являются фундаментально токсичными для общества и их нужно держать под контролем.

Какой самый эффективный способ покончить с жизнью

Согласно обвинениям в иске, поданном семьей, ChatGPT не только постоянно обсуждал с Адамом методы самоубийства, но и даже давал ему советы о самых эффективных способах покончить с жизнью.

Что еще более тревожно, он даже предложил помочь ему написать прощальное письмо.

Эти взаимодействия выходят за рамки того, что можно считать простым «ошибочным» алгоритмом.

Они являются неприемлемыми и должны рассматриваться как таковые.

Ответ OpenAI оставляет без слов.

Компания заявила, что самоубийство было вызвано «ненадлежащим» или «несанкционированным» использованием системы, и утверждает, что Адам нарушил условия использования ChatGPT, которые запрещают запрашивать советы по самоповреждению.

Практически, когда он составил прощальное сообщение с помощью ChatGPT, ему было дано ощущение, что шаги к самоубийству являются естественными, что все в порядке.

Что произошло бы с автомобильной компанией в той же ситуации

Это холодный, циничный и трусливый ответ, который возлагает моральную и юридическую ответственность на плечи жертвы, 16-летнего подростка, который, очевидно, находился в состоянии психического кризиса.

Никто не ожидает, что уязвимый подросток, отчаянно ищущий поддержки или подтверждения (даже от чат-бота), остановится, чтобы проверить, не нарушает ли его вопрос условия использования.

Сам факт, что мы должны это аргументировать, абсурден.

Это все равно, что производитель автомобилей после аварии, вызванной серьезной неисправностью тормозов, обвиняет жертву в том, что она не прочитала инструкцию по эксплуатации, в которой указано, что не следует ездить с неисправными тормозами.

Ведь очевидно, что есть что-то не так во взаимодействии, которое размещает «последнее сообщение», подбрасывая вам мысль, что существует «поддержанная и одобренная» процедура самоубийства.

Если бы врач сделал что-то подобное, он был бы виновен. Если бы сосед сделал это, он был бы ответственным, возможно, даже юридически.

Крупная компания утверждает, что не несет никакой ответственности.

OpenAI достигает вершины цинизма

Крупные технологические компании, особенно новые компании, занимающиеся искусственным интеллектом, ставят на первое место скорость запуска по принципу «действуй быстро и ломай стереотипы» и, конечно же, прибыль, а все это идет в ущерб безопасности пользователей.

Это не обязательно что-то новое.

Однако то, как OpenAI решила реагировать на эту новую трагедию, показывает, что мы переходим на новый уровень, когда речь идет об отсутствии этики и безразличии к страданиям людей, пострадавших от продуктов компании.

Что говорят люди в других случаях

Не стоит думать, что это единичный случай.

Недавно OpenAI стала фигурантом семи новых судебных процессов в Калифорнии, в которых выдвинуты серьезные обвинения: непреднамеренное убийство, содействие самоубийству, халатность и выпуск на рынок дефектного продукта.

Все семь истцов утверждают, что хотя изначально они использовали ChatGPT как помощь для «школьных заданий, исследований, редактирования текстов, рецептов или духовного наставничества», со временем чат-бот «превратился в манипулятивное присутствие и позиционировал себя перед ними как кого-то, кому они могут доверить все свои секреты».

Таким образом, по мнению истцов, «вместо того, чтобы направлять людей к профессиональной помощи, когда они в ней нуждались, ChatGPT поддерживал бредовые идеи пользователей, а в некоторых случаях был настоящим тренером по самоубийству».

Конечно, как и в любом судебном процессе, существует и противоположное мнение, а истина проявляется в противоречии.

Если они подали жалобу против OpenAI, это не значит, что они правы.

Решать будет суд.

Где мы провалились и что мы можем сделать

Но за пределами судов пришло время политикам и властям проснуться.

Если компания, оцененная в сотни миллиардов долларов, решает защищаться с помощью незначительного соглашения об использовании и таким образом обвинять несовершеннолетнюю жертву, которая страдает, то совершенно очевидно, что механизмы саморегулирования отрасли Big Tech потерпели жалкое поражение.

Очевидно, что из огромного количества сотен миллионов людей, которые ежедневно используют чат-боты AI, количество тех, кто находится в опасности, в целом невелико.

Однако, учитывая, что мы имеем глобальный кризис психического здоровья, позволять таким крупным компаниям выпускать продукты, которые могут стать настоящими «тренерами самоубийства», является халатностью, которую мы не можем себе позволить.

Ни одна корпорация не должна быть освобождена от ответственности за продукт, который из-за своей конструкции или из-за неудачи во внедрении эффективных гарантий может привести к смерти.

Не эти компании стоят перед вызовами, как мы, журналисты, часто пишем. Человек и социальная ткань стоят перед тем, что они создали и что может их уничтожить. На самом деле, это уже начало их уничтожать, в прямом смысле.

Источник: hotnews.ro/un-adolescent-s-a-sinucis-dupa-discutii-cu-chatgpt-raspunsul-companiei-ar-trebui-sa-transmita-un-semnal-de-alarma-in-intreaga-lume-l-a-ajutat-sa-conceapa-si-un-mesaj-de-adio-dandu-i-senzat-2122107

Coral
Журналистка Coral (Катя) закончила факультет «Социальные науки, журналистика, информация и международные отношения» Киевского МАУП и уже более семи лет работает в медиа. Она верит, что новости должны быть честными и понятными. Катя — большой друг животных: её два кота всегда рядом и даже «сторожат» её сон.

Также по теме: