Согласно недавнему исследованию, большинство людей верят, что большие языковые модели (LLM), такие как ChatGPT, имеют сознательный опыт, подобный человеческому.
Эксперты в области технологий и науки в подавляющем большинстве отвергают идею о том, что самые мощные современные модели искусственного интеллекта (ИИ) обладают сознанием или самосознанием, как люди и другие животные. Однако по мере улучшения ИИ-модели становятся всё более впечатляющими и начинают демонстрировать признаки того, что для случайного наблюдателя может выглядеть как сознание.
Например, недавно запущенная модель Claude 3 Opus поразила исследователей своей кажущейся самосознательностью и высоким уровнем понимания. В 2022 же году инженер Google был отстранён от работы после публичного заявления о том, что разрабатываемая компанией система ИИ является «разумной».
В новом исследовании, опубликованном 13 апреля в журнале Neuroscience of Consciousness, исследователи утверждают, что восприятие сознания в ИИ столь же важно, как и то, действительно ли они обладают самосознанием. Это особенно актуально, когда мы рассматриваем будущее ИИ с точки зрения его использования, регулирования и защиты от негативных последствий, утверждают они.
Это также подтверждается недавней статьёй, в которой утверждается, что GPT-4, большая языковая модель, лежащая в основе ChatGPT, прошла тест Тьюринга, который оценивает, может ли ИИ быть неотличимым от человека по мнению взаимодействующих с ним людей.
В новом исследовании эксперты попросили 300 граждан США описать частоту использования ими ИИ, а также прочитать краткое описание ChatGPT.
Затем они ответили на вопросы о том, можно ли приписать ИИ ментальные состояния. Более двух третей участников (67%) признали возможность самосознания или феноменального сознания — ощущения того, что значит быть «собой», в отличие от неразумной имитации, симулирующей внутреннее самопознание, — в то время как 33% не приписали ИИ никакого сознательного опыта.
Участников также попросили оценить ответы по шкале от 1 до 100, где 100 означало абсолютную уверенность в том, что ChatGPT обладает сознанием, а 1 — абсолютную уверенность в обратном. Чем чаще люди использовали инструменты, такие как ChatGPT, тем больше они склонялись к мнению, что ИИ обладает каким-то уровнем сознания.
Основной вывод, что большинство людей считают, что большие языковые модели демонстрируют признаки сознания, доказал, что «народные интуиции» о сознании ИИ могут расходиться с интуициями экспертов, говорится в статье исследователей. Они добавили, что это расхождение может иметь «значительные последствия» для этического, юридического и морального статуса ИИ.
Учёные отметили, что эксперимент показал, что неспециалисты не понимают концепцию феноменального сознания так, как это делают нейробиологи или психологи. Однако это не означает, что результаты не окажут большого влияния на будущее данной области.
Согласно статье, народные психологические приписывания сознания могут влиять на будущие моральные вопросы, связанные с ИИ, независимо от того, обладают ли они на самом деле сознанием. Вес общественного мнения и широкие представления общества по любому вопросу часто направляют регулирование, а также влияют на технологическое развитие, отметили исследователи.