証券アナリストジャーナル読後メモ:AIと資産運用
https://www.saa.or.jp/dc/sale/apps/journal/JournalShowDetail.do?goDownload=&itmNo=34679
証券アナリストジャーナルを2010年頃からずっと購読している。著名な学者そして経営者の貴重な講演や論文を閲覧できることができ、大変勉強になっている。年会費18,000円は維持コストとして高い、という声も周囲でよく聞くが、月にならせば月額1,500円である。月一回の外食をやめればいい程度のコストで、この水準の論文や講演が読めるのは圧倒的にコストパフォーマンスが良い、と常々思っている。
以下は2017年の人工知能に関する記事で少し古いが、そもそもなぜ2010年代後半から第三次AIブームが来たのか・過去との違いは何か、金融ビジネスは果たしてAIの活用に適している領域なのか、について考えさせられる記事である。
1.AIブームの背景
今回のブームと過去のブームの違いは、コンピューティングリソースの規模の違いである。コンピューティングリソースにはCPU・ネットワーク・ストレージの3大要素がある。
現在のCPUは10年、20年前とは比較にならないほど高速化が進んでいる。ネットワークも同様である。帯域や遅延だけでなくモバイルネットワークのようにいつでもどこでもアクセスが可能という環境が整っている。
ストレージコストも劇的に変わってきている。一昔前であれば、スーパーコンピュータやHPCのようなハイパフォーマンス・コンピューティングにアクセスしなければ大容量のデータ分析ができなかった。
大規模なコンピューターノードを持てる人と持てない人ではリサーチ活動の範囲に大きな違いが生じていた(※ノードとは、一つのユニットとして構成された計算処理装置。一般にサーバーを指す場合が多い)。
現在は使用した分のコスト負担で済むため、機械学習や様々なデータ分析の手法を含めて、これまでアイデアを持ちつつアイデアを試せなかった研究者が、かなり自由に試せる環境ができているように思う。
機械学習を考える上ではいかに効率的に品質の高いデータを集めるかが重要。データセットとAIを切り離して考えることはできない。
大規模なデータをクラウド上に持てるようになり、それを処理するためのコンピューティングリソースが容易に安く扱えるようになったことが今回のAIブームを牽引する背景。
今のディープラーニングは、人がデータセットとアルゴリズムを規定している以上、全て想定された範囲の中に収まっている結果しか得ることはできない。もちろん人間では見つけられないような違いや特徴の抽出は可能だが。
モデルを作る仕組みにおいて、解決手段としてAIに取り組むべきかどうかを判断する大きな一つのポイントは、AIを使うことで、もともとのデータセットに大きな影響を与えるかどうか、である。
例えば、スーパーでの商品の陳列や店の広告などをどのようにすべきか、AIでモデル化する。そのモデルの実行(陳列の変更)によって、購買者行動も変わってくる。
データを集めてデータセットを作り、データセットごとに学習をさせてモデルを作り、どのように売るのかを決めているのだから、学習させた結果を元に販売手法を変え、買う人の行動が変われば当然のことながら最初に集めたデータの意味は低減する。
データを集める行為・分析・学習・モデル化の行為が、延々とループ、新たな問題を生んでいくことになる。
数年前、10代の会話データを集めたが現在の言葉は大きく違っている。たった4、5年前のデータがすでにその価値を大きく下げている。
昔、投資判断に関するモデルを作ったことがあるが、気がつくと似たようなアプローチが出てきて投資効率が目に見えて下がっていくことを経験した。
AIも同様。手法が確立された普及すればするほどそれによって人の行動も変わる。そして次のステップとして、役に立つデータのあり方や集め方、活用の仕方も変化し続けていくことになる。
2.画像処理と言語処理の違いについて
学習データの作成は、画像処理によるオブジェクト認識より言語処理の方が難しい。
文書を読んだ上でラベル付けしなければならず、特に金融テキストの場合では誰もができるわけではない。
質の高い学習データをいかに多く集めるかが第一の関門であり、言語処理においては質の高いものを揃えるのが難しいのが現状。
AIは学習データにない結果を予想することはできないため、個人的にはAIを使って株価を高精度で当てることは難しいと考えている。
09年頃から、衛星画像を処理したデータサービスが始まった。駐車場の台数を数えて、資産運用会社に提供した。投資の効率性が落ちるのは、その情報が様々なことに普及していくためだろう。
3.クオンツ運用とAI,アクティブマネジャーの能力強化の可能性
ブラックロックは17年3月末に米国株のアクティブ運用に関する運用方針を、定性運用から定量運用のプロセスに変えると発表した。
パッシブ運用とアクティブ運用の間に、ファクター分析などによるクオンツ運用が存在する。ファクターは現在、大型株、バリュエーション、業種など、人間がファクターを与えている。
しかし、膨大な株価の値動きの中からAIがファクターを自動的に剪定するとなると、そのファクターがどのようなものかできないが、同じような値動きをするファクターが出てくる可能性がある。
そのファクターに対して人間は定義を与えられないが、有効なファクターは次々と出てくるのかは疑問。
AIは過去のデータでしかモデルを作れないため、目先のデータには強いかもしれないが将来のことを見通すものではない。
アナリストやファンドマネージャーが、社会のあり方や産業の在り方がどのようになるかを予測してファンドを組んでいくことになる。
長期で大きなリターンを得る投資は、AIにはできないことだとも言える。それがアクティブマネージャーになるのかもしれない。
経験豊富なアナリストやファンドマネージャーは社長のパーソナリティや前回の面談を踏まえ、会話をうまく誘導して情報を得ている。その場合、感情による領域が広くなるはず。それをAIで代替するのは難しい。
AIにどのようなデータを読み込ませてモデルを作るかという場合、アナリストやファンドマネジャーが、その嗅覚を元に、相関がありそうなデータをいかに見つけ出していくか、そして、それを学習の対象にしていくかが重要なポイントになる。
定義が可能なものはAIで代替が可能である。
運用であれば、「ルーティン作業」の部分である。ルーティンは決められたことを繰り返しているだけなので、このようなところにAIが必要かという議論もあるだろうが、置き換えは可能。
ルーティンには、運用報告書の作成も含まれる。ファンドマネージャーは月次報告で投資信託の説明資料として、直近1カ月の株式市場動向や運用ファンドの業種別パフォーマンス、要因分析を書かなければならない→これらの文章はほぼ定型化されている。
AIを使ったモデルで、人間の理解を超えたものはすでにある。ただ、そのモデルが利用されるかというと、汎用的に使われることはないと思う。
なぜなら、理解を超えた時点で「どうして」が答えられないからだ。
モデルを作った本人が、自分の資金で投資するのであれば問題ないが、説明責任が求められるような年金などでは不可能だ。最終的に、なぜ勝ったのか、なぜ負けたのかという説明がない限り採用されることはない。
採用されるには、なぜこのモデルが有効かを説明する必要がある。モデルの開発者がその理由を把握していない場合は問題が生じる。
最終的にそのモデルを使うことを決めるのは人間。したがって、どうしてそのモデルを使ったのかという部分も、人間が判断することになる。
AIに人間が置き換えられる可能性について重要な論点は、AIが仕事を奪うかどうかではなく、そもそも考えることが何であることについて議論すべき。
4.AI活用時代におけるセキュリティリスク
セキュリティ脅威は日々進化し続けている。
クローズドの環境であっても、おそらく侵入されていないネットワークはほとんど無いだろう。
現在のグローバルなセキュリティの考え方は、侵入を防ぐことは不可能ということを前提に、どのように安全にしていくのか、が標準的な考え。
AIや機械学習を使う時の栄養源はデータで、デバイスやセンサーがデータを集めるが、そのセンサー自体にバイアスがかけられている場合もある。
その誤ったデータをベースに学習してモデルを作り作動させる場合、その後センサーが正常かした場合、そのモデルによる動作は誤ったものになる。
データそのものが悪意を持ってバイアスをかけられていくことも十分にありうる。
データそのものが明らかに何か間違っている場合、それに気づくのは人間であり、そういう意味ではアナリストやファンドマネージャーの役割は無くならない。
今のマルウェアはお金を稼ぐ目的のものがほとんど。それなりに優秀な人が組織立って作っている。
今後の投資判断に、SNSを含めたネットワーク操縦することで莫大な利益を得ることがわかれば、確実に標的にされるだろう。
モデルを研究する人は、扱っているデータにバイアスがかかる可能性があるのかを調べた上で、研究する必要がある。ツイッターデータを利用した運用は、そもそもツイッターの情報の信頼性や情報が誘導されるリスクについて議論がなされていない。
5.その他雑記
AIの世界で、北米の著名な研究者が急に論文を出さなくなり、不思議に思っていると大手の金融機関に採用されていたというケースが多くなってきた。その金融機関を調べると、採用後のパフォーマンスが変わったケースもある。
AIの研究とは、画像の判別や認識といった、因果関係を求めない研究のこと。例えば、画像を見て犬か猫かを判別する場合、犬という結果が出ても、なぜそれが犬なのかという問いかけはしない。
ただ運用においてはこの説明は重要。そのため、AIの学者を採用するにはそれが一つのハードルになる。