
公式解説前に想像する「AWSの生成的AIサービスの強み」はコストと環境負荷
ChatGPTを中心にいま最もホットな話題、生成的AIサービスの分野に、先週末はAWSが「Bedrock」というサービスを投入して参戦しました。ユーザーグループイベント情報でおなじみの「AWSユーザーグループ勉強会情報 4/17-5/1|NUMAGUCHI, Shigeru|note」では「今週はAWS Summit 開始で勉強会はすくないですが、AI/ML支部が熱いです」と今晩のAI/ML支部イベントが推されていて、さっそくAWSの中の人からこの辺りのセッションがあるようです。必聴としか言いようがない。
そこでいろいろと解説されてしまう前に、個人的に考えたことなど書いておきます。
AWSの「Generative AI」サービス発表
AWSの生成的AI発表にあたっては、2件のオフィシャルブログ記事が公開されており、2件目も昨日ようやく日本語に翻訳されました。
先行したMicrosoftのスタートダッシュ
先行ベンダーを見ると、まずもちろんOpenAI社のChatGPTがあります。ChatGPTはAIのモデルやAPIの名前であると同時に、同社のチャット型サービス(chat.openai.com)の名前でもあって、いま最も話題にされているのはこのチャット型サービスでしょう。MicrosoftのAIサービスは、まずMicrosoft 365に統合されたAI支援機能(Copilot)として耳目を集めました。どちらも「エンドユーザーが生活や業務の中で触れられる」アプリケーションの形で、新奇性や有用性を実感させたことが起爆剤となったように思います。
Microsoftが強く急進的に「AIへの意欲」を打ち出しているのを見ていて、長くIaaS/PaaSクラウドで2番手というポジションにある同社は、AI事業へのシフトを図るのかなと思いました。それは2020年に「ハイブリッドクラウドプラットフォームとAIテクノロジーにおいて、ナンバーワンの会社を目指す」戦略を打ち出したIBMを思い出させました。自社ハードウェアや自社クラウドにとらわれずどのクラウドでもAIをという自由度を打ち出し、中核業務のクラウドからAIへのシフトを図ったとも言えます。
IBMでは、Red Hat OpenShiftによって、企業をベンダーロックインから解き放つハイブリッドクラウドプラットフォームを提供しているが、「これが、すべてのキーになる」(伊藤専務執行役員)と位置づける。そして、ハイブリッドクラウドプラットフォームの下の層にインフラストラクチャの層を置く。これは、IBMクラウドや他社のクラウド、IBMシステムズによるサーバーやストレージなどで構成。「IBMクラウドとIBMシステムズという両方のテクノロジーを持つことで、顧客のニーズに応え、全般的な支援ができる」とした。
MicrosoftはSaaS市場No.1企業たる中核のMicrosoft 365に付加価値としてAIを追加する形をとりました。クラウドからAIへのシフトではなく、クラウド×AIのシナジーで戦っていくスタンス。そこでCopilotというエンドユーザーに届く便利さと、ChatGPTという話題のモデルという二つの分かりやすさをスタートダッシュに結び付けたように思います。
AWSのクラウド×生成的AIはコスト優位性
AWSのスタートダッシュはまた別の道を取らざるを得ないでしょう。後発感のあるAWSとしては、なにかしらの優位性を主張し、先行者に追いつくスタートダッシュを決める必要があるはずです。しかし話題性を打ち出すにはLLM(大規模言語モデル)またはFM(基礎モデル)と呼ばれるAIモデルは話題のChatGPTではなく、シナジーを届けるにも強みである自社クラウドはエンドユーザーの触れるSaaSではなく開発者や事業者のためのIaaS/PaaSが中心です。IBM社のようにAI特化にシフトするには、IaaS/PaaS事業が大きく強すぎるし、親会社Amazonの事業のIT基盤としても手放せません。
そう考えながら発表ブログ記事を見ると、4種類をそろえるモデルの多様性より、AI/MLに特化したプロセッサを搭載したTrn1nとInf2の二つのEC2インスタンスタイプの発表が気になります。
基盤モデルの学習から推論構築、カスタマイズまで、あらゆる作業において、機械学習に特化して構築された、最高の性能と費用対効果を発揮する基盤が求められています。この5年間、AWS は独自のシリコン開発に投資し、機械学習トレーニングや推論などの厳しいワークロードにおける性能と費用対効果の限界に挑んできました。AWS TrainiumとAWS Inferentiaは、それぞれクラウド上でのモデルの学習と推論に用いる専用のチップとして最も節約したコストを実現します。
AI分野素人の私の視点でたとえ話をすれば、AI/MLにおける「モデル」とは実世界における「人材」です。まず学習をさせ(トレーニング)、人材(モデル)を育て、それから現場に投入して業務(推論)に従事させます。ChatGPTやBedrockなどの「FM(Foundation Model:基礎モデル)」というのは、義務教育前ではなく高度な一般教育をすでに施した、高学歴人材のようなものだと思います。それでも、専門教育(チューニング)をして自社人材として育ててから、現場に投入して業務(推論)に従事させます。
コストは人材なら教育訓練費と業務期間の人件費、AIモデルならトレーニングのマシンコストと業務期間の推論マシンコストです。一般に、AI/MLでは学習にも推論にも「最適な環境はGPUマシン」といわれますが、これはとても高価な環境です。AWS Trainiumとこれを搭載したTrn1nは、GPUマシンという「高価なトレーニングセンター」ではなく、カリキュラムの工夫によりGPUなしの「通常のクラスルーム」で学習効果を上げるためのソリューションです。
AWS Trainiumアクセラレーターを搭載したAmazon EC2 Trn1インスタンスは、高性能な (DL) トレーニング用に構築されており、同等のGPUベースのインスタンスと比較してトレーニングコストを最大50%削減することが可能です。
AWS Inferentiaとこれを搭載したInf2も同様に、特別な「高価な従業員用個室」ではなく「通常のオフィスフロア」で業務(推論)効率を上げられるよう工夫されたソリューションです。
Amazon EC2 Inf1インスタンスは、高パフォーマンスかつ低コストのML推論を提供します。これらのインスタンスでは、同等の現行世代のGPUベースの Amazon EC2インスタンスと比較して、スループットが最大2.3倍高く、推論あたりのコストが最大70%低くなっています。
Inf1インスタンスと比較して、Inf2インスタンスは、3倍のコンピューティングパフォーマンス、4倍のアクセラレーターメモリ、最大4倍のスループット、10分の1以下の低レイテンシーを提供します。(略)Inf2インスタンスは、より小規模のモデルに対してInf1よりも優れた料金パフォーマンスを提供します。
Inf2とInf1の比較については、ブログ記事中に以下のインフォグラフィックが示されています。電力効率(Performance per Watt)が最大50%向上とありますが、AWSでは電力効率が高い≒電力使用量が小さい≒料金が小さい、です。逆に言えば、Inf2でもTrn1nでも、コスト問題だけでなく電力消費問題、つまり環境負荷問題にも影響がある、ということです。

まとめ
AWSは顧客第一主義(Customer Obsession)を行動原理に掲げ、サービス設計を顧客ニーズから逆算(Working Backwards)で行うことで知られます。きっと、先行サービスがある中で「なぜAWSの生成的AIが必要か」という検討上の課題設定はあったでしょう。そしてJAWS-UGというリレーションの場、共感の場であれば、その自分たちの思いを語ってもらえるのではと思います。
それを聞く前に、私なりに考えてみた「なぜAWSの生成的AIが必要か」「AWSの生成的AIがなにを解決するのか」は、現時点では急増が予想されるコストと環境負荷の問題かなと思いました。こちらで言われている「幅広いモデル」「カスタマイズ性」「他のAWSサービスとの親和性」といった点にもうなずきつつ、開発者だけでなくそれ以外の層に、広く社会に届く優位性はまずその二つかなと。
さて、AWSの中の人がどのような思いを打ち出してくるのか。答え合わせは、今晩のJAWS-UG AI/ML支部で!