Нейросеть, разработанная специалистами компаний OpenAI и DeepMind, которые являются частью Google, превзошла людей в серии классических игр на приставке Atari 2600, популярной 40 лет назад. Да, хоть и геймплейная составляющая достаточно примитивная, и все же, нейросеть научилась обыгрывать любого человека в этой игре. Такое не под силу никому.
Нейросеть создавалась по принципам глубокого обучения с подкреплением. Благодаря наблюдению и обучению на показательных матчах, нейросеть научилась использовать различные приемы, чтобы обыгрывать живых противников. Специалисты объединили две концепции, чтобы достичь сверхчеловеческой производительности игрового ИИ. С помощью специальных функций вознаграждения ученые направляли процесс обучения в режиме реального времени, а само обучение занимало не так много времени за счет пропускной способности нейросети. Времени потребовалось в два раза меньше, чем человеку.
Модель состояла из двух частей: нейросети Q-Learning, которую DeepMind использовала в предыдущих исследованиях с играми на Atari 2600 и сверточной нейронной сети, обучаемой на примерах, представленных либо человеком, либо компьютером, создающим их, пишет VentureBeat.