>>>Работа! Продавайте контент на сайте Vinegret! Узнай как!<<< ||| >>>Хочешь иметь свою мобильную версию сайта в Play Market? Узнай как!<<<
Взгляните на потрясающую игру в футбол роботов с новым ИИ.

Взгляните на потрясающую игру в футбол роботов с новым ИИ.

1 мин


Учёные, задействовав новый метод обучения искусственному интеллекту (ИИ), научили миниатюрных роботов-гуманоидов играть в футбол. На кадрах видно, как роботы демонстрируют свои навыки в игре один на один.

В коротких роликах два двуногих робота играют несколько игр, в которых один атакует ворота, а другой их защищает.

Они пинают мяч, блокируют удары и носятся по полю, размахивая руками и падая в процессе. При этом машины стараются сохранять равновесие и быстро восстанавливаться после падения.

На первый взгляд может показаться, что это не так, но они также играют в высшей степени стратегически — изучают, как движется мяч, и предугадывают следующие ходы соперника, пытаясь перехитрить и опередить его, заявили учёные в исследовании, опубликованном 10 апреля в журнале Science Robotics.

Гуманоидные роботы сложно настраивать, потому что каждое движение требует программирования — что требует от ученых компилировать огромные объемы данных. Однако многие современные гуманоидные роботы получили помощь со стороны искусственного интеллекта. Самообучение, благодаря ИИ, означает, что роботам не нужно предварительно программировать каждое движение или действие. Например, робот Figure 01 может учиться, просто просматривая видео — учёные предварительно обучили его готовить кофе, показав всего 10 часов обучающего видеоматериала.

Взгляните на потрясающую игру в футбол роботов с новым ИИ.
Ученые Google DeepMind научили своих миниатюрных роботов Robotis OP3 играть в футбол, используя технику, называемую «глубокое обучение с подкреплением». Изображение: Google Deepmind

В новом исследовании учёные Google DeepMind научили своих миниатюрных роботов Robotis OP3 играть в футбол, используя технику, называемую «глубокое обучение с подкреплением». Это метод обучения машинному обучению, который сочетает в себе несколько различных методов обучения ИИ.

Данный набор методов включал обучение с подкреплением, которое основано на фактическом вознаграждении за достижение целей; контролируемое обучение; и глубокое обучение с использованием нейронных сетей — уровней алгоритмов машинного обучения, которые действуют подобно искусственным нейронам и устроены так, чтобы напоминать человеческий мозг.

Первоначально роботы отработали базовый набор навыков по сценарию, прежде чем учёные применили свою комбинированную технику обучения искусственному интеллекту с глубоким подкреплением.

Во время своих матчей роботы, обученные искусственному интеллекту, ходили на 181% быстрее, поворачивались на 302% быстрее, били по мячу на 34% быстрее и тратили на 63% меньше времени на восстановление после падений, когда они теряли равновесие, по сравнению с роботами, не обученными использовать эту технику, сообщают учёные в своей статье.

Роботы также развили «нестандартное поведение», которое было бы чрезвычайно трудно запрограммировать, например, поворот на угол стопы и вращение по кругу, добавили они.

Полученные данные показывают, что эта методика обучения ИИ может быть использована для создания простых, но безопасных движений у человекоподобных роботов в более общем плане, что затем может привести к более изощрённым движениям в меняющихся и сложных ситуациях, говорят учёные.


Понравилось? Поделитесь с друзьями!

Комментарии

- комментариев

Включить уведомления Да Спасибо, не надо