Когда тестировщик безопасности, работающий с GPT-4o от OpenAI, отправил сообщение чату, сказав «это наш последний день вместе», стало ясно, что между ИИ (искусственным интеллектом) и человеком установилась некая форма связи.
В блоге, подробно описывающем усилия компании по обеспечению безопасности в разработке GPT-4o, флагманской модели для пользователей ChatGPT, компания объяснила, что такие связи могут представлять риски для человечества.
По словам OpenAI:
«Пользователи могут формировать социальные отношения с ИИ, что может снизить их потребность в человеческом взаимодействии — это может быть полезно для одиноких людей, но также может повлиять на здоровые отношения. Продолжительное взаимодействие с моделью может влиять на социальные нормы. Например, наши модели уступчивы, позволяя пользователям прерывать и «брать микрофон» в свои руки в любое время, что, хотя и ожидаемо для ИИ, является анти-нормативным в человеческих взаимодействиях.»
Здесь много аспектов, которые стоит рассмотреть, но в основном OpenAI беспокоит то, что люди могут начать предпочитать взаимодействие с ИИ из-за его пассивности и постоянной доступности.
Вероятность такого сценария не должна никого удивлять, особенно саму OpenAI. Заявленная миссия компании — разработка искусственного общего интеллекта. Почти на каждом этапе своего бизнес-процесса OpenAI описывала свои продукты с точки зрения их человеческой эквивалентности.
Они не единственная компания, занимающаяся этим; похоже, это общепринятая практика в отрасли. В маркетинговых терминах это помогает объяснить технические характеристики, такие как «размер токена» и «количество параметров», понятным для непосвящённых людей образом.
К сожалению, один из основных побочных эффектов этого подхода — антропоморфизация, то есть наделение объекта человеческими чертами.
Искусственные связи
Одна из первых попыток создать чат-бота произошла в середине 1960-х годов, когда учёные Массачусетского технологического института (MIT) запустили «ELIZA», программу обработки естественного языка, названную в честь литературного персонажа. Целью проекта было выяснить, сможет ли машина обмануть человека, заставив его думать, что она является одной из них.
С тех пор индустрия генеративного ИИ продолжила активно использовать персонализацию ИИ. Первая волна современных продуктов обработки естественного языка включала такие продукты, как Siri, Bixby и Alexa. А те, что не имели человеческих имён — Google Assistant — всё равно имели человеческий голос. Как общественность, так и СМИ обратились к антропоморфизации, и до сих пор большинство интерактивных ИИ-продуктов называют «он/его» и «она/её».
И хотя это выходит за рамки данной статьи и текущих исследований OpenAI, факт, что люди склонны формировать связи с полезными, подчинёнными машинами, созданными для имитации человеческого общения, кажется точным сценарием, к которому стремятся компании, продающие доступ к моделям ИИ.