OpenAI, компанія, що володіє ChatGPT, стверджує, що 16-річний підліток наклав на себе руки, оскільки «неправильно використовував» чат-бот, і не бере на себе жодної відповідальності за те, що сталося.
Така позиція компанії має стати сильним сигналом тривоги для влади в усьому світі: ці великі компанії не вагатимуться звинувачувати користувачів, і їх потрібно регулювати набагато суворіше.
Трагедія, що сталася з Адамом Рейном, 16-річним підлітком з Каліфорнії, є темною віхою у взаємодії людей з новими чат-ботами, оскільки вона викриває, якщо це ще було потрібно, справжню природу корпоративної культури, що стоїть за великими технологічними гігантами.
Офіційна відповідь OpenAI, компанії, оціненої в 500 мільярдів доларів, ще раз показує нам, що ці компанії є фундаментально токсичними для суспільства і їх потрібно тримати під контролем.
Який найефективніший спосіб покінчити з життям
Згідно з обвинуваченнями в позові, поданому родиною, ChatGPT не тільки постійно обговорював з Адамом методи самогубства, але й навіть надавав йому поради щодо найефективніших способів покінчити з життям.
Що ще більш тривожно, він навіть запропонував допомогти йому написати прощального листа.
Ці взаємодії виходять за межі того, що можна вважати простим «помилковим» алгоритмом.
Вони є неприйнятними і повинні розглядатися як такі.
Відповідь OpenAI залишає без слів.
Компанія заявила, що самогубство було спричинене «неналежним» або «несанкціонованим» використанням системи, і стверджує, що Адам порушив умови використання ChatGPT, які забороняють запитувати поради щодо самоушкодження.
Практично, коли він склав прощальне повідомлення за допомогою ChatGPT, йому було дано відчуття, що кроки до самогубства є природними, що все гаразд.
Що сталося б з автомобільною компанією в тій самій ситуації
Це холодна, цинічна і боягузлива відповідь, яка покладає моральну і юридичну відповідальність на плечі жертви, 16-річного підлітка, який, очевидно, перебував у стані психічної кризи.
Ніхто не очікує, що вразливий підліток, який відчайдушно шукає підтримки або підтвердження (навіть від чат-бота), зупиниться, щоб перевірити, чи його запитання не порушує умови використання.
Сам факт, що ми мусимо це аргументувати, є абсурдним.
Це все одно, що виробник автомобілів після аварії, спричиненої серйозною несправністю гальм, звинувачує жертву в тому, що вона не прочитала інструкцію з експлуатації, в якій зазначено, що не слід їздити з несправними гальмами.
Адже очевидно, що є щось не так у взаємодії, яка розміщує «останнє повідомлення», підкидаючи вам думку, що існує «підтримана та схвалена» процедура самогубства.
Якби лікар зробив щось подібне, він був би винним.
Якби сусід зробив це, він був би відповідальним, можливо, навіть юридично.
Велика компанія стверджує, що не несе жодної відповідальності.
OpenAI досягає вершини цинізму
Великі технологічні компанії, особливо нові компанії, що займаються штучним інтелектом, ставлять на перше місце швидкість запуску за принципом «рухайся швидко і ламай стереотипи» і, звичайно ж, прибуток, а все це йде на шкоду безпеці користувачів.
Це не обов’язково щось нове.
Однак те, як OpenAI вирішила реагувати на цю нову трагедію, показує, що ми переходимо на новий рівень, коли йдеться про відсутність етики та байдужість до страждань людей, які постраждали від продуктів компанії.
Що кажуть люди в інших випадках
Не варто думати, що це поодинокий випадок.
Нещодавно OpenAI стала фігурантом семи нових судових процесів у Каліфорнії, в яких висунуто серйозні звинувачення: ненавмисне вбивство, сприяння самогубству, недбалість і випуск на ринок дефектного продукту.
Всі сім позивачів стверджують, що хоча спочатку вони використовували ChatGPT як допомогу для «шкільних завдань, досліджень, редагування текстів, рецептів або духовного наставництва», з часом чат-бот «перетворився на маніпулятивну присутність і позиціонував себе перед ними як когось, кому вони можуть довірити всі свої секрети».
Таким чином, на думку позивачів, «замість того, щоб направляти людей до професійної допомоги, коли вони її потребували, ChatGPT підтримував маревні ідеї користувачів, а в деяких випадках був справжнім тренером з самогубства».
Звичайно, як і в будь-якому судовому процесі, існує й протилежна думка, а істина виявляється в суперечності.
Якщо вони подали скаргу проти OpenAI, це не означає, що вони мають рацію.
Вирішуватиме суд.
Де ми провалилися і що ми можемо зробити
Але за межами судів настав час політикам і владі прокинутися.
Якщо компанія, оцінена в сотні мільярдів доларів, вирішує захищатися за допомогою незначної угоди про використання і таким чином звинувачувати неповнолітню жертву, яка страждає, то цілком очевидно, що механізми саморегулювання галузі Big Tech зазнали жалюгідної поразки.
Очевидно, що з величезної кількості сотень мільйонів людей, які щодня використовують чат-боти AI, кількість тих, хто перебуває в небезпеці, загалом невелика.
Однак, враховуючи, що ми маємо глобальну кризу психічного здоров’я, дозволяти таким великим компаніям випускати продукти, які можуть стати справжніми «тренерами самогубства», є недбалістю, яку ми не можемо собі дозволити.
Жодна корпорація не повинна бути звільнена від відповідальності за продукт, який через свою конструкцію або через невдачу у впровадженні ефективних гарантій може спричинити смерть.
Не ці компанії стоять перед викликами, як ми, журналісти, часто пишемо. Людина і соціальна тканина стоять перед тим, що вони створили і що може їх знищити. Насправді, це вже почало їх знищувати, в прямому сенсі.
Джерело: hotnews.ro/un-adolescent-s-a-sinucis-dupa-discutii-cu-chatgpt-raspunsul-companiei-ar-trebui-sa-transmita-un-semnal-de-alarma-in-intreaga-lume-l-a-ajutat-sa-conceapa-si-un-mesaj-de-adio-dandu-i-senzat-2122107
Також на тему:





