>>>Работа! Продавайте контент на сайте Vinegret! Узнай как!<<< ||| >>>Хочешь иметь свою мобильную версию сайта в Play Market? Узнай как!<<<
Американское военно-исследовательское агентство DARPA финансирует искусственный интеллект, помогающий принимать решения на поле боя.

Американское военно-исследовательское агентство DARPA финансирует искусственный интеллект, помогающий принимать решения на поле боя.

4 мин


Агентство перспективных исследовательских проектов министерства обороны США (DARPA) тратит миллионы на исследования по использованию искусственного интеллекта (ИИ) при принятии стратегических решений на поле боя.

Военное исследовательское агентство финансирует проект под названием «Strategic Chaos Engine for Planning, Tactics, Experimentation and Resiliency»/«Стратегический механизм хаоса для планирования, тактики, экспериментирования и устойчивости» (SCEPTER, или СКИПЕТР) — по разработке технологии искусственного интеллекта, которая призвана прорываться сквозь туман войны. Агентство делает ставку на то, что более продвинутые модели искусственного интеллекта упростят имеющиеся сложности современной войны, выявят ключевые детали на фоне ненужной информации и, в конечном итоге, ускорят принятие боевых решений в реальном времени.

Американское военно-исследовательское агентство DARPA финансирует искусственный интеллект, помогающий принимать решения на поле боя.
Стратегический механизм хаоса для планирования, тактики, экспериментирования и устойчивости — это военный проект по разработке технологий искусственного интеллекта. Изображение: Anton Petrus via Getty Images

«Инструмент, помогающий восполнить недостающую информацию, полезен во многих аспектах военной деятельности, в том числе в пылу сражения. Основная задача состоит в том, чтобы признать ограничения прогностических машин», — сказал Ави Гольдфарб (Avi Goldfarb), заведующий кафедрой искусственного интеллекта и здравоохранения в Школе менеджмента Ротмана Университета Торонто и главный специалист по данным в лаборатории Creative Destruction Lab, который никак не связан с проектом SCEPTER.

«ИИ не выносит суждений и не принимает решений. Вместо этого он предоставляет информацию для принятия решений, — рассказал Гольдфарб Live Science. — Злоумышленники будут пытаться снизить точность информации, что в некоторых ситуациях затруднит полную автоматизацию.»

Поддержка ИИ может быть особенно полезна для операций, охватывающих наземные, морские, воздушные, космические или киберпространства. Целью проекта DARPA SCEPTER является продвижение военных игр с искусственным интеллектом за пределы существующих технологий. Объединив экспертные знания человека с вычислительной мощью ИИ, DARPA надеется, что военные симуляции станут менее вычислительно напряжёнными, что, в свою очередь, может привести к созданию более эффективных и быстрых военных стратегий.

Три компании — Charles River Analytics, Parallax Advanced Research и BAE Systems — получили финансирование в рамках проекта SCEPTER.

Машинное обучение (МО) — ключевая область, в которой ИИ может улучшить процесс принятия решений на поле боя. Машинное обучение — это тип искусственного интеллекта, в котором компьютерам показываются примеры, например, сценарии прошлых военных событий, и затем они могут делать прогнозы или «учиться» на этих данных.

«Именно здесь были достигнуты основные успехи за последние несколько лет», — сказал Гольдфарб.

Тоби Уолш (Toby Walsh), главный научный сотрудник Института искусственного интеллекта Университета Нового Южного Уэльса в Австралии и сторонник введения ограничений на автономное оружие, с этим согласен. Но машинного обучения будет недостаточно, добавил он.

«Сражения редко повторяются — ваши враги быстро учатся не повторять одних и тех же ошибок, — сказал Уолш, не получивший финансирования SCEPTER, в электронном письме Live Science. — Поэтому нам необходимо объединить МО с другими методами искусственного интеллекта.»

Проект SCEPTER также будет уделять внимание улучшению эвристики — быстрым путям решения сложных задач, которые не всегда будут идеальными, но могут быть созданы быстро, — а также причинному искусственному интеллекту, который способен устанавливать причинно-следственные связи, что позволяет приближаться к принятию решений, аналогичным человеческому.

Однако даже самые прогрессивные и новаторские технологии искусственного интеллекта имеют ограничения, и ни одна из них не будет работать без вмешательства человека. Последнее слово всегда будет за человеком, добавил Гольдфарб.

«Это машины прогнозирования, а не машины принятия решений, — сказал Гольдфарб. — Всегда есть человек, который решает, какие прогнозы выполнять и что делать с этими прогнозами, когда они появятся.»

США — не единственная страна, которая делает ставку на искусственный интеллект для улучшения процесса принятия решений в военное время.

«Китай ясно дал понять, что он стремится к военному и экономическому доминированию посредством использования искусственного интеллекта, — сказал Уолш. — И Китай действительно догоняет США по различным показателям — патентам, научным работам — он уже идёт ноздря в ноздрю с США.»

Проект SCEPTER отличается от проектов на основе искусственного интеллекта по разработке летального автономного оружия (LAW), которое способно самостоятельно осуществлять поиск и поражать цели на основе заранее запрограммированных ограничений и описаний. Такие роботы, отметил Уолш, потенциально могут причинить катастрофический вред.

«С технической точки зрения эти системы в конечном счёте станут оружием массового уничтожения, позволяющим производить убийства промышленным способом, — сказал Уолш. — Они также создадут ряд проблем, таких как снижение барьеров для войны и усиление неопределённости (кто только что на меня напал ?). И, с моральной точки зрения, мы не можем привлекать машины к ответственности за их действия на войне. Они не являются моральными существами.»

Правописание уведомления вебмастера


Понравилось? Поделитесь с друзьями!

Комментарии

- комментариев

Включить уведомления Да Спасибо, не надо