3人集まれば文殊の知恵~アンサンブル学習
近年、アンサンブル学習(あるいは集団学習)と呼ばれる手法が、機械学習の高い汎化性能獲得の実現方法として注目されています。
汎化能力とは、未学習データ に対してどれだけ正しい予測できるかどうかの能力を意味しています。 従来は単一の学習機械の性能向上追求(ベストモデル)をゴールとしてきたわけですが、そうではなく、個別に学習した(性能的には劣るが得意な識別領域を持つ)複数のモデルを何らかの形で融合させて、ベストモデルを超えた汎化性能を追求するというものです。
これは、諺でいえば「3人集まれば文殊の知恵」(余談)という話です。
具体的には、
ブースティング: 逐次的に例題(入出力ペア)の重み(重要度)を変化させながら異なる複数のモデルを生成。
バギング: 与えられた例題からのリサンプリングによる複数のデータセットからモデルを複数生成。
が有名で、このような手段により得られたモデル群を組み合せて精度の高い予測・判別システムを構築する研究が盛んに行なわれ、大きな成果が得られています。
ちなみにクラス分類問題の場合はいわゆる多数決、回帰問題の場合は加重平均値を採用します。
ニューラルワークス・シリーズのNeuralSightは、さまざまな初期条件からの多数のモデルを一括生成(数千~数万)し、多数決戦略に基づく業務活用を支援します。
(余談) 9カ国語でことわざ三人寄れば文殊の知恵http://www.jfg.to/green/news/shinchaku_kotowaza.html
弊社では、データ分析プロジェクトにまつわる様々なご相談に、過去20年以上に渡るプロジェクト経験に基づき、ご支援しています。
社内セミナーの企画等、お気軽にご相談いただければ幸いです。
この記事が気に入ったらサポートをしてみませんか?