Искусственный интеллект, созданный совместно специалистами из Google DeepMind и канадскими учёными из Университета Торонто, продемонстрировал впечатляющие результаты в игре Minecraft. Начав с нуля, всего за неделю он достиг уровня эксперта, самостоятельно развивая свои навыки.
Нейросеть Dreamer("Мечтатель"), разработанная в рамках этого проекта, смогла самостоятельно освоить игру, не получая никаких инструкций от человека. Вместо этого ей были предоставлены рамки для действий и система поощрений за поиск алмазов, что способствовало её обучению.
Хотя на первый взгляд для обывателя может показаться, что обучение ИИ на играх — это лишь пустая трата ресурсов, такие эксперименты открывают новые горизонты для понимания того, как заставить ИИ адаптироваться, учиться и достигать целей в постоянно меняющихся условиях. Это, в свою очередь, открывает двери к созданию роботов, способных справляться с задачами в реальном мире без постоянного надзора и вмешательства.
В ходе эксперимента "Мечтатель" был помещён в игровую среду виртуального мира, где каждый игровой сеанс длился всего 30 минут. После этого игра перезапускалась в новом виртуальном мире с различными ландшафтами, ресурсами и условиями. Несмотря на эти ограничения, алгоритм быстро учился, представляя себе будущее, в котором он уже достиг всех целей, и концентрируясь только на действиях, ведущих к этому результату. Эти навыки сохранялись и использовались в следующем виртуальном мире, помогая Dreamer стремительно улучшать свои способности.
Важно отметить, что Dreamer учится не копируя чью-то стратегию, а экспериментируя и осмысленно прокладывая путь к успеху. Это открывает новые горизонты: если ИИ способен достигать сложных целей в таких условиях, то он потенциально может научиться решать реальные задачи в физическом мире, такие как навигация, ремонт или обслуживание.
И, возможно, совсем скоро роботы действительно смогут обучать сами себя, не дожидаясь инструкций от человека.