Сьогодні

Исследования показали: искусственный интеллект способен на человеческое мышление

Исследование, проведенное китайскими учеными, доказало, что модели искусственного интеллекта, включая ChatGPT, способны обрабатывать информацию аналогично человеческому мозгу. Это открытие может оказать влияние на развитие ИИ и пересмотр оценки его когнитивных возможностей. Новые данные подтверждают, что крупные языковые модели (LLM) имеют способность упорядочивать объекты схожим образом с человеческим мышлением, даже без специального обучения на эту тему.

Слияние поведенческих экспериментов с нейровизуализацией помогло ученым оценить соответствие концепций объектов в LLM человеческим представлениям. Проведенные исследования выявили, что ИИ способен распознавать и классифицировать объекты на основе различных признаков, таких как функциональность, эмоциональная окраска и окружающая среда.

Исследователи попросили ChatGPT-3.5 и Gemini Pro Vision выполнить задачу по выявлению сходства между различными объектами из реального мира. Результаты показали, что ИИ создал 66 концептуальных измерений для организации объектов, включая детали, которые обычно не входят в основные категории. 

Полученные данные показали, что при оценке семантических признаков ИИ демонстрирует большее сходство с человеческим восприятием, однако визуальные аспекты остаются менее выраженными. Анализ мультимодальной версии языковых моделей (MLLM) показал значительное увеличение степени совпадения с человеческим восприятием.

Исследование обнаружило корреляцию между активацией участков мозга, отвечающих за восприятие окружающей среды, и векторными представлениями объектов в ИИ. Особенно ярко это проявилось в парагиппокампальной зоне, отвечающей за распознавание сцен. Эти данные подчеркивают, что мультимодальные языковые модели обладают внутренним пониманием концепций реального мира, что приближает их к человеческому восприятию.

С начала 2025 года более 52 000 IT-специалистов были уволены по всему миру из-за потенциала искусственного интеллекта, способного автоматизировать рутинные задачи программирования. Ученые провели эксперимент на пользователях Reddit, где ИИ-модели смогли успешно влиять на мнения комментаторов, выдавая себя за людей. Вопрос об этичности эксперимента вызывает разногласия, хотя само исследование считается допустимым.

Обсудить Читать далее

Также по теме: