モンテカルロ木探索 と TOTAL WAR: ROME II

TOTAL WAR : ROME II のAIでモンテカルロ木探索法(MCTS)が採用された。

モンテカルロ木探索は、90年代から囲碁AIに応用されて来た方法であるが、2006年頃に改良され(勝敗だけを取る)、囲碁AIに革命的進歩をもたらした。

その後、理論的基盤やさらなる(プレイアウトにおける)改良が加えられたが、基本的にはとてもシンプルな方法で、選んだ手の評価を、それ以降をランダムにシミュレーションして、良さそうならさらにシミュレーション回数を増やすという方法である。

ゲーム産業も長い間、注目して来て、ウィーンのゲームAI会議や、GDCで、解説講演が何度も開催されて来たが、実用例はなかった。

今回は、プレイヤーの対戦相手として、RTSのプレイをするAIに、MCTSが採用された。ゲームの局面局面で、その時に実行可能なタスクを生成する(task generation)。囲碁の手の代わりに、実行可能なタスクの積み重ねをシミュレーションして行くことで、次の一手=タスクを選択する。

評価は相手陣のロス(loss)と自分の兵の保持数で行う。

Monte-Carlo Tree Search in TOTAL WAR: ROME II’s Campaign AI
http://aigamedev.com/open/coverage/mcts-rome-ii/

Game AI Conference 2014 資料(有料IDがないと見れない。)
http://gameaiconf.com/recording/total-war-rome-2/

この記事が気に入ったらサポートをしてみませんか?