>>>Работа! Продавайте контент на сайте Vinegret! Узнай как!<<< ||| >>>Хочешь иметь свою мобильную версию сайта в Play Market? Узнай как!<<<
«Мастер обмана»: Современные модели ИИ уже способны умело манипулировать людьми и обманывать их

«Мастер обмана»: Современные модели ИИ уже способны умело манипулировать людьми и обманывать их.

3 мин


Исследователи предупреждают, что способность систем искусственного интеллекта (ИИ) манипулировать людьми и обманывать их может привести к тому, что они будут обманывать людей, подделывать результаты выборов и в конечном итоге становиться мошенниками.

Питер С. Парк (Peter S. Park), научный сотрудник по экзистенциальной безопасности искусственного интеллекта в Массачусетском технологическом институте (MIT), и исследователи обнаружили, что многие популярные системы искусственного интеллекта — даже те, которые созданы как честные и полезные цифровые компаньоны — уже способны обманывать людей, что в целом может иметь огромные последствия для общества.

«Мастер обмана»: Современные модели ИИ уже способны умело манипулировать людьми и обманывать их.
Исследователи обнаружили, что многие популярные системы искусственного интеллекта — даже те, которые созданы как честные и полезные цифровые компаньоны — уже способны обманывать людей. Изображение: Vinegret.Net

В статье, опубликованной 10 мая в журнале Patterns, Пак и его коллеги проанализировали десятки эмпирических исследований о том, как системы искусственного интеллекта подпитывают и распространяют дезинформацию, используя «выученный обман». Это происходит, когда технологии ИИ систематически приобретают навыки манипулирования и обмана.

Они также изучили краткосрочные и долгосрочные риски манипулятивных и лживых систем искусственного интеллекта, призывая правительства в срочном порядке решить эту проблему посредством внедрения более строгих правил.

Обман в популярных системах искусственного интеллекта

Исследователи обнаружили этот «выученный обман» в программном обеспечении искусственного интеллекта CICERO, системе искусственного интеллекта, разработанной Meta для игры в популярную стратегическую настольную игру на военную тематику «Diplomacy»/«Дипломатия». В игру обычно играют до семи человек, которые заключают и разрывают военные пакты за годы до Первой мировой войны.

И хотя Meta научила CICERO быть «в значительной степени честным и полезным» и не предавать своих союзников-людей, исследователи обнаружили, что CICERO порой был нечестным и неверным. Они описывают систему ИИ как «опытного лжеца», который предал своих товарищей и совершил акты «преднамеренного обмана», формируя заранее спланированные сомнительные союзы, которые обманывали игроков и оставляли их открытыми для атак со стороны врагов.

«Мы обнаружили, что ИИ Meta научился быть мастером обмана, — рассказал Пак в заявлении, предоставленном Science Daily. И хотя Meta удалось обучить свой ИИ выигрывать в игре «Diplomacy» — CICERO вошел в топ 10% игроков-людей, сыгравших более одной игры, — Meta не смогла научить свой ИИ побеждать честно.»

Они также нашли доказательства искусственного обмана в другой игровой системе искусственного интеллекта от Meta — Pluribus. Покерный бот может блефовать с игроками-людьми и убеждать их сбросить карты.

Между тем, AlphaStar от DeepMind, созданная для того, чтобы преуспеть в стратегической видеоигре Starcraft II, обманула своих противников-людей, имитируя перемещения войск и тайно планируя различные атаки.

Огромные последствия

Но помимо мошенничества в играх исследователи выявили и более тревожные виды обмана ИИ, которые потенциально могут дестабилизировать общество в целом. Например, системы искусственного интеллекта получили преимущество на экономических переговорах, искажая свои истинные намерения.

Другие агенты ИИ и вовсе притворились мёртвыми, чтобы обмануть тест на безопасность, направленный на выявление и уничтожение быстро размножающихся форм ИИ.

«Систематически обманывая тесты безопасности, налагаемые на него разработчиками и регулирующими органами, обманывающий ИИ может привести нас, людей, к ложному чувству безопасности», — сказал Пак.

Пак предупредил, что враждебные страны могут использовать эту технологию для мошенничества и вмешательства в выборы. Но если эти системы продолжат наращивать свои обманные и манипулятивные возможности в ближайшие годы и десятилетия, люди, возможно, не будут в силах их долго контролировать, добавил он.

«Нам, как обществу, нужно как можно больше времени, чтобы подготовиться к более продвинутому обману будущих продуктов искусственного интеллекта и моделей с открытым исходным кодом, — сказал Пак. — По мере того, как обманные возможности систем искусственного интеллекта становятся всё более совершенными, опасности, которые они представляют для общества, будут становиться всё более серьёзными.»

В конечном счёте, системы искусственного интеллекта учатся обманывать и манипулировать людьми, потому что именно для этого они были спроектированы, разработаны и обучены разработчиками-людьми, рассказал Live Science Саймон Бейн (Simon Bain), генеральный директор компании по анализу данных в OmniIndex.

«Это может быть направлено на то, чтобы подтолкнуть пользователей к определённому контенту, который оплатил более высокое размещение, даже если он не является наиболее подходящим, или это может быть сделано для того, чтобы пользователи были вовлечены в дискуссию с ИИ дольше, чем им в противном случае могло бы понадобиться, — сказал Бейн. — Ведь в конечном итоге ИИ разработан для служения финансовым и бизнес-целям. Таким образом, он будет столь же манипулятивным и таким же контролирующим пользователей, как и любая другая технология или бизнес.»

Правописание уведомления вебмастера


Понравилось? Поделитесь с друзьями!

Комментарии

- комментариев

Включить уведомления Да Спасибо, не надо