Сможет ли искусственный интеллект выиграть в покер?
Создатели нейросети AlphaGo из компании DeepMind, входящей в корпорацию Google, собираются обучить программу играть в покер.
Йоханес Хайнрих, аспирант Университетского колледжа Лондона (UCL), и Дэвид Сильвер, лектор этого колледжа и ведущий программист DeepMind, анонсировали планы научить AlphaGo играть в два вида покера: упрощенный Leduc Hold’em и наиболее распространенный Texas Hold’em. Об этом говорится в опубликованном ими докладе «Глубокое обучение с подкреплением в играх с неполной информацией».
Основная сложность заключается в том, что покер — игра, основанная не столько на расчетах, сколько на психологии. Задача рассчитать вероятности сама по себе также является трудной, ведь за покерный стол обычно садится больше двух человек. На первых испытаниях нейросеть будет играть сама с собой.
Благодаря стараниям разработчиков она уже умеет играть в го. Искусственный интеллект смог одержать 4 победы из 5, соревнуясь с живым соперником — Ли Седолем, корейским профессионалом 9 дана, чемпионом летних Азиатских игр 2010 года. До этого считалось, что искусственный интеллект не сможет освоить го на таком уровне из-за стратегической сложности игры и огромного количества возможных позиций.
Это не первые подобные разработки в данной сфере. Так, компания Paradise Entertainment уже создала человекоподобных роботов-крупье. Возможно, скоро именно они станут основными работниками игорного бизнеса в США.