Сьогодні

Вперше вчені виявили здатність штучного інтелекту до людського мислення

Китайські дослідники зробили важливе відкриття і показали, що моделі штучного інтелекту, зокрема ChatGPT, можуть обробляти інформацію подібно до людського мозку. Про це повідомляє портал The Independent. Нове дослідження підтвердило, що мультимодальні великі мовні моделі можуть впорядковувати об’єкти на подібний до людського мозку спосіб. Це відкриття може вплинути на розвиток штучного інтелекту та змінити підхід до оцінки його когнітивних здібностей.

Вчені поєднали поведінкові експерименти та нейровізуалізацію для того, щоб з’ясувати, наскільки концепти об’єктів у мовних моделях співпадають з уявленнями в людському мозку. Їх метою було з’ясувати, чи може штучний інтелект розпізнавати та класифікувати об’єкти на основі функції, емоцій тощо. Дослідники доручили ChatGPT-3.5 і Gemini Pro Vision завдання “третій зайвий”. Результатом було отримання 4,7 мільйонів суджень про схожість між 1 854 об’єктами реального світу – від тварин до меблів.

Аналіз показав, що штучний інтелект створив 66 концептуальних вимірів для організації об’єктів, а ці виміри включають такі атрибути, як текстура, емоційна значущість тощо. Найбільша схожість між штучним інтелектом та людиною спостерігалася під час оцінювання семантичних ознак, хоча візуальні аспекти залишалися менш виразними. У мультимодальній версії ступінь збігу з людським сприйняттям був вищим.

Вчені виявили кореляцію між активацією ділянок мозку людини, що відповідають за сприйняття навколишнього середовища, і векторними уявленнями об’єктів у штучному інтелекті. Особливо це проявилося у парагіпокампальній ділянці, пов’язаній із розпізнаванням сцен. Великі мовні моделі – це не лише “папуги”, що імітують мову, вони мають внутрішнє розуміння концепцій реального світу, дуже схоже на людське, що може відкрити нові можливості для створення “людяних” когнітивних систем.

Уже було звільнено понад 52 тисячі ІТ-спеціалістів по всьому світу через широке впровадження штучного інтелекту, який здатний заміняти людей у виконанні рутинних завдань програмування. Дослідники провели експеримент з користувачами Reddit, де моделі штучного інтелекту успішно впливали на погляди коментаторів, видаючи себе за людей. Хоча етичність таких дій породжує суперечки, самі дослідники вважають їх допустимими.

Обговорити Читати далі

Також на тему: