
Зростає кількість людей, які використовують ChatGPT як альтернативу особистому психотерапевту, проте керівник OpenAI Сем Альтман застерігає, що такі бесіди не захищені законом так само, як розмови з кваліфікованими фахівцями.
Застереження від Сема Альтмана
Сем Альтман, виступаючи в подкасті Тео Вона, підкреслив, що розмови з терапевтами, юристами або лікарями мають правовий захист. Натомість діалоги з ШІ-чатботами, такими як ChatGPT, не мають такої ж чіткості та безпеки. OpenAI може бути зобов’язана надати переписку користувача у випадку судового рішення. Альтман зауважив, що користувачі, які обговорюють з ChatGPT “найделікатніші речі”, повинні бути готові до їх можливого оприлюднення.
Особливості зберігання та використання даних
На відміну від зашифрованих месенджерів, OpenAI може технічно отримувати доступ до чатів користувачів з ChatGPT. Ці дані використовуються для поліпшення моделі або для виявлення порушень. Згідно з політикою зберігання даних OpenAI, чати зберігаються не більше 30 днів, але в окремих випадках зберігаються з юридичних причин. Це може стати проблемою для користувачів, які очікують повної конфіденційності.
Концепція конфіденційності
Альтман наголошує на необхідності застосування до ШІ тих самих принципів конфіденційності, що й до бесід з терапевтами. Він наполягає на вирішенні цього питання якнайшвидше. Поки що користувачі повинні пам’ятати про можливу відсутність приватності в розмовах з ChatGPT.
Нові горизонти для ШІ
OpenAI планує випустити нову ШІ-модель цього літа, яка буде складно відрізнити від людини. GPT-5 об’єднає в собі найкращі напрацювання попередніх моделей. У свою чергу, Ілон Маск презентував Grok 4, назвавши її “найрозумнішим ШІ в історії людства”. Проте з’ясувалося, що для відповідей на спірні питання чат-бот часто звертається до особистих публікацій Маска.
Джерела: https://www.technologyreview.com, https://www.theverge.com
Також на тему: