>>>Работа! Продавайте контент на сайте Vinegret! Узнай как!<<< ||| >>>Хочешь иметь свою мобильную версию сайта в Play Market? Узнай как!<<<
OpenAI выражает опасения, что люди могут начать формировать эмоциональные связи с искусственным интеллектом, созданным для имитации человеческого общения.

OpenAI выражает опасения, что люди могут начать формировать эмоциональные связи с искусственным интеллектом, созданным для имитации человеческого общения.

2 мин


Когда тестировщик безопасности, работающий с GPT-4o от OpenAI, отправил сообщение чату, сказав «это наш последний день вместе», стало ясно, что между ИИ (искусственным интеллектом) и человеком установилась некая форма связи.

В блоге, подробно описывающем усилия компании по обеспечению безопасности в разработке GPT-4o, флагманской модели для пользователей ChatGPT, компания объяснила, что такие связи могут представлять риски для человечества.

OpenAI выражает опасения, что люди могут начать формировать эмоциональные связи с искусственным интеллектом, созданным для имитации человеческого общения.
Изображение: Vinegret.Net

По словам OpenAI:

«Пользователи могут формировать социальные отношения с ИИ, что может снизить их потребность в человеческом взаимодействии — это может быть полезно для одиноких людей, но также может повлиять на здоровые отношения. Продолжительное взаимодействие с моделью может влиять на социальные нормы. Например, наши модели уступчивы, позволяя пользователям прерывать и «брать микрофон» в свои руки в любое время, что, хотя и ожидаемо для ИИ, является анти-нормативным в человеческих взаимодействиях.»

Здесь много аспектов, которые стоит рассмотреть, но в основном OpenAI беспокоит то, что люди могут начать предпочитать взаимодействие с ИИ из-за его пассивности и постоянной доступности.

Вероятность такого сценария не должна никого удивлять, особенно саму OpenAI. Заявленная миссия компании — разработка искусственного общего интеллекта. Почти на каждом этапе своего бизнес-процесса OpenAI описывала свои продукты с точки зрения их человеческой эквивалентности.

Они не единственная компания, занимающаяся этим; похоже, это общепринятая практика в отрасли. В маркетинговых терминах это помогает объяснить технические характеристики, такие как «размер токена» и «количество параметров», понятным для непосвящённых людей образом.

К сожалению, один из основных побочных эффектов этого подхода — антропоморфизация, то есть наделение объекта человеческими чертами.

Искусственные связи

Одна из первых попыток создать чат-бота произошла в середине 1960-х годов, когда учёные Массачусетского технологического института (MIT) запустили «ELIZA», программу обработки естественного языка, названную в честь литературного персонажа. Целью проекта было выяснить, сможет ли машина обмануть человека, заставив его думать, что она является одной из них.

С тех пор индустрия генеративного ИИ продолжила активно использовать персонализацию ИИ. Первая волна современных продуктов обработки естественного языка включала такие продукты, как Siri, Bixby и Alexa. А те, что не имели человеческих имён — Google Assistant — всё равно имели человеческий голос. Как общественность, так и СМИ обратились к антропоморфизации, и до сих пор большинство интерактивных ИИ-продуктов называют «он/его» и «она/её».

И хотя это выходит за рамки данной статьи и текущих исследований OpenAI, факт, что люди склонны формировать связи с полезными, подчинёнными машинами, созданными для имитации человеческого общения, кажется точным сценарием, к которому стремятся компании, продающие доступ к моделям ИИ.


Понравилось? Поделитесь с друзьями!

Комментарии

- комментариев

Включить уведомления Да Спасибо, не надо