Искусственный общий интеллект (AGI) — это область исследований искусственного интеллекта (ИИ), в которой учёные стремятся создать компьютерную систему, обладающую интеллектом, превосходящим человеческий. Эти гипотетические системы могут обладать определённой степенью самосознания и самоконтроля — включая способность редактировать свой собственный код — и уметь решать проблемы, как это делают люди, без предварительной подготовки.
Термин впервые был введён в сборнике эссе «Artificial General Intelligence»/«Искусственный общий интеллект» (Springer, 2007), отредактированном компьютерным учёным Беном Гертцелем (Ben Goertzel) и исследователем ИИ Кассио Пеннчини (Cassio Pennachin). Однако концепция AGI существует десятилетиями в истории ИИ и активно фигурирует в популярных научно-фантастических книгах и фильмах.
Современные ИИ-сервисы — включая базовые алгоритмы машинного обучения, используемые на Facebook, и даже крупные языковые модели (LLM), такие как ChatGPT — считаются «узкими». Это означает, что они могут выполнять как минимум одну задачу — например, распознавание изображений — лучше, чем люди, но ограничены только этой конкретной задачей или набором действий, основанных на данных, на которых они были обучены. AGI, напротив, должен выйти за рамки своих обучающих данных и продемонстрировать способности на уровне человека в различных областях жизни и знаний, обладая тем же уровнем рассуждения и контекстуализации, что и человек.
Но поскольку AGI никогда не был создан, среди учёных нет единого мнения о том, что это может значить для человечества, какие риски более вероятны, чем другие, или какие могут быть социальные последствия. Некоторые ранее высказывали предположения, что его никогда не разработают, но многие учёные и технологи сходятся во мнении, что AGI может быть достигнут в ближайшие несколько лет — включая компьютерного учёного Рэя Курцвейла (Ray Kurzweil) и руководителей Кремниевой долины, таких как Марк Цукерберг (Mark Zuckerberg), Сэм Альтман (Sam Altman) и Илон Маск (Elon Musk).
Каковы преимущества и риски AGI?
Искусственный интеллект уже продемонстрировал множество преимуществ в различных областях, от помощи в научных исследованиях до экономии времени. Новые системы, такие как инструменты генерации контента, создают произведения искусства для маркетинговых кампаний или составляют электронные письма на основе разговорных паттернов пользователя. Однако эти инструменты могут выполнять только те специфические задачи, для которых они были обучены, основываясь на данных, предоставленных разработчиками. AGI, с другой стороны, может открыть новые возможности для человечества, особенно в областях, где требуется решение проблем.
Гипотетически, AGI может помочь увеличить ресурсы, ускорить глобальную экономику и способствовать открытию новых научных знаний, изменяющих границы возможного. Генеральный директор OpenAI Сэм Альтман написал в блоге в феврале 2023 года — через три месяца после выхода ChatGPT:
«AGI имеет потенциал предоставить всем невероятные новые возможности; мы можем представить себе мир, где каждый из нас имеет доступ к помощи почти в любой когнитивной задаче, что станет мощным усилителем человеческой изобретательности и креативности.»
Однако AGI несёт с собой множество экзистенциальных рисков — от «несоответствия», когда основные цели системы могут не совпадать с целями людей, которые её контролируют, до «не нулевого шанса» на то, что будущая система может уничтожить всё человечество, как отметил Илон Маск в 2023 году. Обзор, опубликованный в августе 2021 года в журнале Experimental and Theoretical Artificial Intelligence, описал несколько возможных рисков, связанных с будущими системами AGI, несмотря на «огромные преимущества для человечества», которые они могут принести.
«В обзоре были выявлены различные риски, связанные с AGI, включая возможность его выхода из-под контроля человеческих владельцев/управляющих, получение или развитие небезопасных целей, создание небезопасного AGI, AGI с низкой этикой, моралью и ценностями; недостаточное управление AGI и экзистенциальные риски», — написали авторы исследования.
Авторы также предположили, что будущая технология может «обладать способностью к рекурсивному самоусовершенствованию, создавая более умные версии себя, а также изменяя свои предустановленные цели». Существует также возможность, что группы людей создадут AGI для злонамеренного использования, а также риск «катастрофических непреднамеренных последствий», вызванных добрыми намерениями AGI, как отметили исследователи.
Когда же всё-таки будет выпущен AGI?
Существуют конкурирующие мнения о том, смогут ли люди действительно создать систему, способную стать AGI, не говоря уже о сроках её создания. Оценка нескольких крупных опросов среди учёных в области ИИ показывает, что общий консенсус заключается в том, что это может произойти до конца века — однако взгляды на это со временем менялись. В 2010-х годах существовало общее мнение, что AGI находится примерно в 50 годах от нас. Но недавно этот срок был сокращён до пяти-двадцати лет.
В последние месяцы ряд экспертов предположили, что система AGI появится уже в этом десятилетии. Этот временной график был представлен Курцвейлом в его книге «The Singularity is Nearer»/«Сингулярность уже близка» (2024, Penguin) — момент, когда мы достигнем AGI, будет представлять собой технологическую сингулярность.
Этот момент станет точкой невозврата, после которой технологический рост станет неконтролируемым и необратимым. Курцвейл предсказывает, что достижение AGI приведёт к созданию в 2030-х годах сверхинтеллекта, а затем, уже к 2045 году, люди смогут напрямую соединить свои мозги с ИИ — что расширит человеческий интеллект и сознание.
Другие представители научного сообщества предполагают, что AGI может появиться в ближайшее время. Например, Гертцел высказал мнение, что мы можем достичь сингулярности к 2027 году, в то время как соучредитель DeepMind Шейн Легг (Shane Legg) заявил, что ожидает AGI к 2028 году. Маск также предположил, что ИИ станет умнее самого умного человека к концу 2025 года.