Чат-боты с искусственным интеллектом со временем становятся все хуже.

Чат-боты с искусственным интеллектом со временем становятся все хуже.

1 мин


Недавнее исследование под названием «Larger and more instructable language models become less reliable»/«Чем больше и обучаемее языковые модели, тем они становятся менее надёжными», опубликованное в журнале Nature Scientific, показало, что чат-боты на базе искусственного интеллекта (ИИ) с течением времени совершают всё больше ошибок, по мере выхода новых моделей.

Один из авторов исследования, Лексин Чжоу (Lexin Zhou), выдвинул теорию, что поскольку модели ИИ оптимизируются для предоставления правдоподобных ответов, приоритет отдаётся кажущимся правильными ответам, независимо от их точности.

Чат-боты с искусственным интеллектом со временем становятся все хуже.
Изображение: Cointelegraph

Эти «галлюцинации» ИИ самоподдерживающиеся и со временем накапливаются — феномен, который усугубляется использованием старых языковых моделей для обучения новых, что приводит к «коллапсу модели».

Редактор и писатель Матьё Руа (Mathieu Roy) предостерегает пользователей от излишней зависимости от таких инструментов и подчёркивает необходимость проверки результатов, сгенерированных ИИ:

«И хотя ИИ может быть полезен для выполнения множества задач, важно, чтобы пользователи проверяли информацию, полученную от таких моделей. Проверка фактов должна стать обязательной частью процесса при использовании ИИ. Всё ещё сложнее, когда речь идёт о чат-ботах для обслуживания клиентов.»

Что ещё хуже, как утверждает Руа:

«Часто нет возможности проверить информацию, кроме как спросить сам чат-бот.»

Проблема галлюцинаций ИИ

В феврале 2024 года платформа искусственного интеллекта Google вызвала волну критики, после того как начала создавать исторически неточные изображения. Примеры включали изображение людей в роли нацистских офицеров с другим цветом кожи и создание искажённых изображений известных исторических личностей.

К сожалению, подобные инциденты случаются с нынешними версиями искусственного интеллекта и большими языковыми моделями слишком часто. Руководители отрасли, такие как генеральный директор Nvidia Дженсен Хуанг (Jensen Huang), предложили смягчить проблему галлюцинаций ИИ, заставляя модели проводить исследования и предоставлять источники для каждого ответа.

Тем не менее, подобные меры уже реализованы в самых популярных моделях ИИ, однако проблема галлюцинаций всё равно остаётся нерешённой.

Совсем недавно, в сентябре, генеральный директор HyperWrite AI Мэтт Шумер (Matt Shumer) объявил, что новая модель компании с 70 миллиардами параметров использует метод «Рефлективной настройки», который, как утверждается, с течением времени позволяет ИИ анализировать собственные ошибки и корректировать ответы.


Понравилось? Поделитесь с друзьями!

Комментарии

- комментариев

Включить уведомления Да Спасибо, не надо