Роль искусственного интеллекта (ИИ) в том, как мы используем Интернет, неизбежно возрастает, особенно с появлением SearchGPT от OpenAI — компании, стоящей за ChatGPT. Это инструмент для поиска на базе ИИ, предназначенный для того, чтобы предоставлять прямые ответы на запросы, а не список «оптимизированных» результатов.
Если у вас возникло ощущение дежавю, это не случайно — Google уже пытался внедрить нечто подобное. Используя свою модель ИИ Gemini, Google протестировал инструмент «AI Overviews», который, как и SearchGPT, был создан для того, чтобы собирать информацию в Интернете и предоставлять краткие ответы на запросы. Идея заключалась в том, чтобы пользователь сразу получал нужную информацию без необходимости просматривать множество поисковых результатов.
Однако на практике это не сработало — по крайней мере, на начальном этапе. В некоторых вопиющих случаях ИИ Google советовал пользователям добавлять клей в соус для пиццы для «большей липкости», рекомендовал стирать одежду с токсичным газом хлором и даже сказал, как побороть депрессию — прыгнуть с моста «Золотые Ворота». Проблема заключалась в том, что, хотя AI Overviews мог извлекать информацию из множества источников, он явно не справлялся с тем, чтобы отделять сатирические, ложные или вредоносные данные от полезной и правильной информации.
SearchGPT основан на модели ChatGPT, которая, возможно, является более развитой, чем Gemini, и поэтому может предоставлять более качественные результаты с меньшим количеством вопиющих ошибок. Однако этот инструмент находится на стадии прототипа, и пока никто не знает, как он будет работать после выпуска для широкой аудитории.
Однако это вызывает вопрос: насколько эффективной будет роль ИИ в будущем? Если его довести до совершенства, есть ли вероятность, что ИИ сможет вытеснить традиционные поисковые системы, или же точность поисковых запросов на базе ИИ останется разочаровывающей?
Надёжность, а не хаотичность
«Современные ИИ-системы имеют множество несоответствий, потому что они недостаточно целостны. Модели мышления могут принимать странные и даже легкомысленные направления. Однако исследования показывают, что можно создавать модели, способные мыслить намного эффективнее», — рассказала в интервью Live Science Нелл Уотсон (Nell Watson), исследователь ИИ из Института инженеров электротехники и электроники (IEEE).
По её словам, некоторые модели можно комбинировать с логическими языками программирования, такими как Prolog, что значительно улучшит их способность к рассуждениям, делая математические процессы более надёжными.
«Это также помогает моделям становиться более агентными — понимать ситуацию, составлять планы и принимать независимые действия в ответ, — отметила Уотсон. — Однако без такой основы системы ИИ будут крайне ограничены в своей способности предоставлять точную и достоверную информацию», а также сохранять достаточную концентрацию на желаемом контексте.»
В этом и заключается проблема ИИ и поиска — потенциальное отсутствие надёжной структуры, обеспечивающей точность и доверие. Похоже, что именно стремление действовать быстро, пока интерес к ИИ растёт, стало причиной тех некачественных результатов, которые они выдают.
«Очевидно, что некоторые функции ИИ были выпущены слишком рано, без достаточного тестирования», — сказала Уотсон.
Кроме того, им не хватает пользовательского контекста.
Но проблемы не ограничиваются только моделями ИИ. Виноваты также современные методы веб-поиска, особенно в таких крупных системах, как Google Search.
«Помимо бесполезности системы искусственного интеллекта, в наши дни существуют более широкие проблемы с самим поиском: изменения, внесенные для облегчения получения результатов платного поиска, значительно усложняют поиск контента, — добавила Уотсон. — Кроме того, существует предвзятость ИИ-инфраструктуры, которая препятствует продвижению «нежелательного» контента на верхние позиции, что снова нарушает интересы пользователей. Важно помнить, что это функция, предназначенная для использования клиентами, и устранение этих проблем только улучшит их опыт работы с поисковыми системами.»
Агентная точность и доверие
Что же ждёт нас в будущем? Уотсон отметила, что текущее состояние ИИ-поиска основано на агентных моделях — автономных ИИ-моделях, которые выполняют конкретные задачи и решают проблемы без постоянного контроля со стороны человека, ориентируясь на достижение целей. Это отличается от генеративных ИИ-моделей, создающих контент. Агентные модели будут становиться всё более сложными.
«Агентные ИИ-системы будут отправляться в «миссии», чтобы выполнять глубокий анализ и поиск с гораздо большей сложностью, чем простой поиск по ключевым словам. Они смогут находить ответы на вопросы, которые пользователи даже не знали, как задать», — объяснила Уотсон, добавив, что таким ИИ необходимо будет понимать человеческие ценности, границы и важный контекст.
«Мы возлагаем ответственность за настройку этих моделей на обычных граждан, и это может привести к катастрофе. Необходимо значительное просвещение общественности, чтобы мы могли максимально эффективно использовать следующий этап развития ИИ, а не дать ему нас запутать.»
И хотя вопросы об эффективности и точности ИИ-систем в поиске вызывают опасения, есть значительный потенциал для того, чтобы изменить то, как мы находим информацию в Интернете, или, по крайней мере, предложить альтернативу классическим поисковым системам.
«Поскольку «агентность» систем искусственного интеллекта возрастает, агенты искусственного интеллекта, вероятно, однажды станут нашими представителями, активно ища продукты, услуги и опыт, которые могут удивить и порадовать нас и соответствовать нашим существующим планам, — отметила Уотсон. — Это выйдет за рамки примитивного рынка, оптимизированного для поиска, поскольку пользователям даже не нужно будет искать продукт, чтобы его продать. Это также означает, что маркетинг, ориентированный на ботов, может стать более ценным, чем маркетинг, ориентированный на людей. Более того, есть доказательства, что ИИ-системы находят контент, созданный другими ИИ, более стимулирующим», — добавила Уотсон.
Однако наряду с таким позитивным прогнозом возникает важный вопрос — и это вопрос доверия.
«Навязывание слишком большого количества продуктов ИИ-потребителям рискует подорвать доверие и вызвать разочарование. Будущие системы должны стремиться сохранять доверие своих клиентов», — заключила Уотсон.