AI市場とスタートアップまとめ
こんにちは、HIRAC FUNDインターンの内藤です。*監修・編集はシニアアソシエイトの檜山。
今回は、AI市場に関しての記事をお届けします。
前半は、AIについての定義や機械学習の構造、市場規模等の外観について、後半では実際のプレイヤー(スタートアップ)や米テック大企業の動向について書いていきます。
ーーーーーー
具体的な内容にいく前に、AIに関しての最低限の用語についてまとめたので、こちらをご参照の上読み進めていただけると幸いです。
前提となる定義について:
● AIとは
○ 一般社団法人人工知能学会によると、AIとは「大量の知識データに対して、 高度な推論を的確に行うことを目指したもの」を指します。
■ 参照:一般社団法人 人工知能学会 定款
● ディープラーニングとは
○ 「深層学習」とも呼ばれるディープラーニングは、機械学習の中の一種です。ディープラーニングは、それまで予測のために必要な特徴を人間が与えるやり方とは異なり、データから自力で特徴を発見することで、予測精度を大幅に向上させることを可能にしました。
参照:押さえておきたい機械学習とディープラーニングの違い | 株式会社日立ソリューションズ・クリエイト
● 生成AIとは
○ 2022年末の『ChatGPT』の登場から一気に市民権を得て、バズワードとなりました。厳密な定義はありませんが、生成AIは「画像や文章、音声など、様々なものを学習し、独自のコンテンツを生成することができるAI」を一般的に指すそうです。今までのAIは主に、人間が行っていた作業の自動化に重点が置かれていましたが、生成AIは画像や言語、音声などを新たに生成する点で既存のAIと異なります。
■ 参照:生成AI | 用語解説 | 野村総合研究所(NRI)
● AIと機械学習の違いとは
○ AIは「人間の行動を再現するコンピューターシステム」であるのに対し、機械学習は大量のデータを分析することで規則性や関係性を見つける技術という点で異なります。
■ 参照:【入門】AI(人工知能)・機械学習とは?その種類とマーケティング手法・成功事例|株式会社 日立ソリューションズ・クリエイト
○ 直引用:
■ AIは、機械やシステムが人間のように感知、推論、行動、または適応できるようにする広範なコンセプトです。
■ ML(機械学習)はAIのアプリケーションであり、マシンがデータから知識を抽出して、自律的に学習できるようにします。
● 参照:AI と ML: 違いは何か| Google Cloud
● 半導体とは
○ 元々は、電気を良く通す金属などの「導体」と電気をほとんど通さないゴムなどの「絶縁体」との、中間の性質を持つシリコンなどの物質や材料を指していました。現在は、電子機器の頭脳として、計算処理や、論理演算を行う回路などもまとめて半導体と呼びます。
■ 参照:半導体とは|SEAJ
● 半導体の種類
○ CPU(Central Processing Unit)
■ 中央処理(演算)装置と呼ばれ、パソコンなどにおいて幅広く計算からデータベースの実行までを汎用的に行うことが可能な装置です。
○ AIチップ
■ AIの演算処理を高速化するための半導体です。機械学習による画像認識や音声認識、ディープラーニングによる膨大な演算処理をする際に必要です。
● GPU(Graphic Processing Unit)とは
○ 画像処理装置と呼ばれ、元々は画像処理に特化した装置です。画像の表示や描画は画面上の全ピクセルに影響がでるため、GPUは単純であるものを並列して計算を行う能力に長けています。その後、その並列処理能力の高さが、AIの機械学習に応用できることが分かり、需要が拡大しました。
■ 参照:GPU( Graphics Processing Unit=画像処理装置)|NTT西日本
● NPU(Neural network Processing Unit)
○ AIプロセッサと呼ばれ、人間の神経細胞の仕組みをベースにしたニューラルネットワークの処理ができる装置です。前述した、CPUやGPUに比べよりAIの計算などの処理に特化したものとなっています。
■ 参照:NPUとは?AI処理に特化したプロセッサについて、近年の開発事例も紹介|Rentec Insight
AIの構造:
まず概要として、AIのソリューション構造について説明します。
AIのソリューションは、大別すると「インフラ」「プラットフォーム」「サービス」に分けられます。まず、インフラストラクチャとして、NVIDIAなどに代表されるGPU等がAIの基礎を担っています。
そして、その上に、『Google Cloud Platform』や『AWS』に代表される、機械学習や知識マイニングを備えたプラットフォーム部分がモデル開発において重要な役割をはたします。そしてそれらの上に、個人や企業がAIを簡単に実装できたり、企業の活用支援として使えるSaaSソリューションが乗っかることで、全体を構成しています。
それぞれの詳しい説明:
インフラ:
● プロセッサ
○ AIにおけるインフラ部分はAIモデルを構築するための基礎を作っています。同時に、データ処理を行うプロセッサやサーバーなど、大規模で金銭的負担が大きい部分でもあります。直近は、例えばNVIDIAから直接プロセッサを購入するのではなく、『AWS』などがクラウド上で提供しているものを借りることで機械学習を可能にしているケースも多いです。
■ 参照:生成 AI と GPU ソリューションのための NVIDIA コラボレーション |AWS
○ 昨今、NVIDIAがAI文脈で注目されているのは、1990年代に「GPU」という言葉を一般に広め、今でもGPU市場シェアの8割を独占しているからです。
■ (厳密にはNVIDIA以前にもNECの「μPD7220」や日立の「HD63484」、TIの「TMS34010」、Intelの「82786」などが存在はしていました)
● 参照:【特集】約30年でGPUはどのぐらい速くなったの?歴史を振り返りつつぜ~んぶ計算してみた|PC Watch
● フレームワーク
○ フレームワークと呼ばれる、あらかじめ組まれている基礎となる設計モデルもインフラに該当します。画像認識や音声認識などの機能をゼロから組み立てる必要がないため、システム開発で多く使用されます。代表的なフレームワークには、モバイル機器向けのコードも備えている『TensorFlow』や、インストール不要で『AWS』などのクラウドで運用可能な『PyTorch』などがあります。こちらもインフラ同様に、ゼロから自分たちで作り上げるとかなりのコストと時間がかかってしまうため、インフラを活用してAIの開発をゼロから行わずとも短時間で効率的にモデルを作るシステムを指します。
■ 参照:機械学習・ディープラーニングで使われるフレームワークとは?メリットも紹介|TRYETING
開発ツール、AutoML、APIs:
● 開発ツール
○ 例えば、開発ツールには、図でコンテナの中に含まれるKubeflowとは、機械学習ワークフローの開発、実行、管理を行うためのオープンソースプラットフォームのことで、機械学習のライフサイクル全体をカバーする様々な要素を提供しています。
■ 参照:概要 | Kubernetes
● AutoML
○ その他には、AutoML(自動機械学習)と呼ばれる、機械学習モデルを自動で構築できる技術も存在します。通常、データの収集からその加工、分析から最終的な学習モデルの生成を行うのには、複雑かつ高度な技術が必要ですが、AutoMLを使用すると一連の作業を自動化できるという利点があります。画像用のAutoMLや言語用などそれぞれ特化したものを用途に分けて使用します。
■ 参照:AutoMLとは 概要や機能、主要サービスの特徴を紹介 | クラウドエース株式会社
● APIs
○ それ以外にも、すでに学習を終えているモデルをAPIs[1] [2] として外部から連携させて使用することもできます。こちらは、通常の学習よりも少ないデータで結果を出し、スムーズな実装が可能です。汎用性も高く、様々なタスクに応用できますが、一方で、価格の高騰も問題視されています。そのため、現在では一般的に大企業や研究所など資金に余裕があるところのみが使用できる状況になっています。また、データにバイアスがかかっている場合はそれを取り除くことが非常に困難だったりと、デメリットも存在します。
■ 参照:事前学習済み言語モデルの流行とリスク|NHK技研R&D
● AIオーケストレーション
○ 様々なツールやサービス、データベース、AIモデルを組み合わせ簡易化・自動化することで、より複雑なタスクに取り組むことができる技術。
■ 参照:複数のAIモデルを連携させる「AIオーケストレーション」の実例と可能性 | LAC WATCH
○ 例:NVIDIAは、2023年に『NVIDIA ACE (Avatar Cloud Engine)』と呼ばれるサービスを公開しました。自動音声技術、言語理解、表現AIなど複数の専門的なAIを搭載することで、デジタルヒューマンやジェネレーティブAIアバターの作成と運用ができる機能がポイントです。
■ 参照:NVIDIA ACE|NVIDIA
○ Microsoftも2023年の自社発表会 “Microsoft Build 2023”で AI Orchestrationについて言及していました。
■ 下記の図では、生成AIの『Copilot』の内部を公開しています。図によると、Microsoftではプラグイン拡張から、プロンプトのフィルタリングまでをオーケストレーションしています。
AIソリューション
● 前述した学習したモデルを活用して、実際にビジネスとして売りに出せるアプリケーションとして完成させたものが、AIソリューションです。
● 生成AIの代名詞として一般に知られている「ChatGPT」もこのようなソリューションの一つになります。
● その他だと、例えばGoogleは独自で検索や、レコメンデーションを自動化するAIを一般向けに販売しています。(GAFAの動向に関するセクションではより詳しく、ソリューションについて、どのような形で販売されているかについて書いていきます。)
続いて、市場環境に関してご説明します。最初に、AI市場のおおまかな技術的な分類に関してです。
市場環境:
グローバルインフォメーションによると、AI市場は技術別に大きく以下の5つに分類されます
参照:市場調査レポート: AIの市場規模、シェア、成長分析:製品・サービス別、技術別、アプリケーション別、地域別 - 産業予測、2024-2031年| 株式会社グローバルインフォメーション
● 自律・センサー技術
○ センサーから得た情報をAIが学習することにより、環境の変化に対応したり、独立して機械やシステムを動作することができる技術です。代表的な利用用途として自動運転技術やIoTなどがあります
■ 参照:Autonomous & Sensor Technology - Global | Market Forecast
○ 近年ではカメラや車、機械デバイスなどの現場近くの端末に直接AIを搭載することで推論処理を行うことができるエッジAIが関心を集めています。
■ 参照:エッジAIとは?活用事例10選解説!カメラ分析・エッジコンピューティングでの活用【2024年最新】|AI Market
● 自然言語処理(Natural Language Processing)
○ 日本語などの、人と人がコミュニケーションを取るために日常的に使われ、文化的な側面を持ちながら自然に発展してきた言語を自然言語と呼び、その大量のテキストデータをAIが分析する技術です。『ChatGPT』などのチャットサービスやカスタマーサポートの領域で主に使われています。
■ 参照:自然言語処理(NLP)とは?意味や仕組み、活用事例、最近の研究事例|スキルアップAI Journal
● AI ロボット工学
○ 各種センサーやカメラなどのハードウェアから入力された情報をもとにAIが学習を行い、動作の最適化を行う技術です。 状況に応じた判断が必要な作業や、人間との言葉を通じたコミュニケーションなどが特徴に挙げられます。
■ 参照:AIロボットにはどのような種類がある? 活用事例も紹介 | 株式会社 日立ソリューションズ・クリエイト
○ AIロボットは大きく分けて、業務用と家庭用に分かれます
■ 業務用AIロボット
● 工業や農業、接客業が現在の主な使用現場です。人手不足解消や生産性向上が見込まれると言われています。
○ 参照:AIロボットにはどのような種類がある? 活用事例も紹介 | 株式会社 日立ソリューションズ・クリエイト
■ 家庭用AIロボット
● 家事の自動化や心理的な癒しを得る目的で使用されます。住環境に応じて動作を最適化したり、人と自然なコミュニケーションをとることができます。
○ 参照:AIロボットにはどのような種類がある? 活用事例も紹介 | 株式会社 日立ソリューションズ・クリエイト
● コンピュータービジョン(Computer Vision)
○ コンピューターが画像やビデオ内のオブジェクトや人物を識別して理解できるようにする分野です。なお、人間が自身でものを見る方法と、人間が見ているものを理解する方法の両方を再現し、それぞれのタスクを自動化することを目指しています。
■ 参照:コンピュータービジョンとは? - 画像認識 AI/ML の説明 - |AWS
● 機械学習(Machine Learning)
○ 機械学習とは、データの分析方法の1つで、機械が自動で分析を行いパターンや法則を発見し、その結果に基づいて「予測・判断」をします。
■ 参照:機械学習 | 用語解説 | 野村総合研究所(NRI)
世界におけるAI市場は、2023年段階だと1850億ドル規模でしたが、今後4年間で最大9900億ドルにまで拡大すると考えられています。CAGRで見ると、人工知能がデータ分析を行う仕組みであるAIモデルが110%から最大135%と大きく成長する見込みです。また、AIを使用したアプリケーションやマーケットプレイスも60-85%の成長率が予測されています。
参照:AI’s Trillion-Dollar Opportunity | Bain & Company
業界ごとの投資額:
業界ごとにAIへの投資額にも一定の傾向が見られました。
2023 年に最も投資を集めた分野は、AI インフラストラクチャ/研究/ガバナンス (183 億ドル)、NLP(自然言語処理) と顧客サポート (81 億ドル)、およびデータ管理と処理 (55 億ドル) でした。特にAI インフラストラクチャ、研究、ガバナンスが目立つのは、OpenAIなど、AI アプリケーションを特に構築している企業に多額の投資が集まっていることが影響しています。
また、2022年から2023年の間にほとんどの分野で投資額が減少した一方で、AI インフラストラクチャ/研究/ガバナンスとデータ管理、処理などは成長が見られた分野でもありました。医療やヘルスケア、NLPへの投資は依然として大きいのですが、他の分野がより優先された結果でもあると考えられます。
参照:Artificial Intelligence Index Report 2024
その他、業界別で見てみると、絶対値としてはデータマネジメントとヘルスケアの領域が追随しています。
ーーーーー
国別の投資額:
また、国別の投資額では、やはり米国が他国を大きく突き放しています。2023年単体での投資額、2013年からの累積投資額のどちらも、1位のアメリカは2位の中国に3倍以上の差をつけていました。
この投資額の差は、スタートアップ数にも大きく影響があります。2013年ー2023年の間での新規スタートアップ創業数を見ると、アメリカは合計5,500社に対し、2位の中国は1,440社と大きく差がありました(日本は8位の333社)加えて、単年の創業数では、1位のアメリカは891社に対し、2位はEU・英国の368社、3位は中国の122社とどちらにおいても差は歴然です。(日本は10位42社)特に、中国は2021年以降、国内の情勢不安や経済状況の雲行きの悪化が創業数の減少に繋がっていると考えられます。
AI市場において米国がトレンドの先駆者であることは明らかです。米国のスタートアップや大企業の現状を見ることで、今のAI市場、ひいてはこれからのトレンドを深く知ることができます。
GAFAMの動向:
ここからは米大手テック企業の動向をまとめていきます。
脱NVIDIA、AIチップ製造:
現在市場の8割をNVIDIAが独占しているAIチップですが、NVIDIAに対する依存度を下げるためにGAFAMも製造に乗り出しています。
例を挙げると、メタ社が開発したAIモデル『LLaMA』は、2048個のNVIDIA「A100」と呼ばれるプロセッサを使用して開発されましたが、このプロセッサの購入額だけで約100億円と言われています。さらに世界中で需要が高まっているのに対して、供給が足りていない中、内製化することでの対処が求められています。
内製化とはいうものの、AppleやAmazonは設計だけを自社で行い、製造はTMSCなどの外部に委託する、「ファブレス方式」を採っています。(NVIDIAも実は同様であり、自社工場を持ってはいません)
参照:「我らはファブレス」とAWS、半導体開発の主役はQualcommからGAFAMへ | 日経クロステック(xTECH)
また、2024年5月にはAMD、Broadcom、Cisco、Google、Hewlett Packard Enterprise(HPE)、Intel、Meta、Microsoftなど米テック大企業が、UALink Promoter Groupを設立。AIチップ向けのオープン接続規格を策定し、データセンター間での柔軟性を高めていく方針を発表しました。NVIDIAが策定に含まれていないことから、同社への対抗施策と考えられています。
参照:AMD、Intel、MicrosoftなどがAIチップ向けのオープン接続規格策定。NVIDIA対抗か - PC Watch
ここからはより詳しく各社の最新動向について見ていきます:
Amazon:
2018年11月にAWSがチップ独自の半導体「AWS Inferentia」を発表したことを皮切りに、2020年には機械学習のトレーニングに特化したプロセッサ「Trainium」を発表しました。2023年には処理速度が最大4倍になる「Trainium2」を発表し、2024年9月には、IntelとAIチップ製造に向けた共同投資を発表しました。
参照:インテル、アマゾン向けカスタムAIチップ製造へ-独工場延期 - Bloomberg
Apple:
Appleも最新のiPhone 16を機に、独自のチップを利用してAI機能を提供しています。
2024年に発表された「M4チップ」は、同社によると、現行のNPU(機械学習に特化したプロセッサ)よりも高速の毎秒38兆回の演算処理が可能とのこと。また、1世代前の「M3」より電力効率が2倍になった上、総合的な性能は4倍になっています。
参照:Apple、M4チップを発表
AppleのAIチップ戦略における特徴は、推論用の半導体の開発を進めている点です。学習用のAIチップは現状NVIDIAが席巻していますが、推論用に関してははまだ市場がとりきれていない点に活路を見出しています。
参照:Apple「M4」がAI半導体競争を加速、TSMC追うSamsungはIntelと協力 | 日経クロステック(xTECH)
Google:
独自に開発した機械学習特化のNPU、TPU(Tensor Processing Unit)を2015年に発表、2024年5月には第6世代の「Trilium」を発表。TPUは自社開発のAI、「Gemini」やGoogle CloudのAI処理などGoogleのAI開発における重要なシステムとして稼働しています。
参照:Google、第6世代のAI専用TPU「Trillium」発表。前世代より約5倍の性能向上、2倍のメモリ容量と帯域など - Publickey
TPUは機械学習に特化しているという優位点がありますが、その一方で、NVIDIAのGPUに比べて柔軟性に欠けたり、利用者による動作変更や自動化の面では劣ります。
ですが、新型iPhone16で使用されるAIのトレーニングはNVIDIAのGPUではなく、TPUで行われたとの報道がされていたり、AIチップの競争環境がNVIDIA独占から、より過激化する可能性があります。
参照:アップルのAI、NVIDIAに依存せず グーグル半導体で「Apple Intelligence」訓練(小久保重信) - エキスパート - Yahoo!ニュース
Microsoft:
2023年11月に初めて、自社AIチップ「Maia 100」を発表しました。OpenAIと設計の共有や改良があり、生成AIのタスクに特化しています。Azureを通しての展開する予定ではあるものの、現状はNVIDIAのH100/H200とAMDのInstinct MI300Xの仮想サーバも用意されています。
参照:妙に性能のバランスが悪いマイクロソフトのAI特化型チップMaia 100 Hot Chips 2024で注目を浴びたオモシロCPU
クラウドサービスの提供:
各社が重要視している分野の一つに、クラウドサービスがあります。
これは、前述したAIのレイヤー構造における一番下のインフラ部分を提供するサービスです。サーバーや、物理的なストレージ、ネットワーク機器、実行するためのアプリなどをクラウド上で1箇所に集め、従量課金制で企業に提供します。独自でGPUを揃えるコストが高い現代においては利便性の高いサービスであります。
参照:クラウドインフラストラクチャとは何ですか?|AWS
(特に需要の高いAIに最適化された高性能GPUの「H100」や「H100NVL」は1台あたりの平均価格500-600万以上な上、稼働させるのには膨大な電気代がかかります。)
参照:GPU不足深刻化のカラクリ、「ボトルネックはパッケージング」とNVIDIA幹部 | 日経クロステック(xTECH)
クラウドサービスにおいて存在感が突出しているのは、Googleの『Google Cloud』、『AmazonのAmazon Web Service(AWS)』、『MicrosoftのAzure』の3つです。市場の66%を占めている各社のクラウドサービスは、AI及び機械学習において欠かせないものとなってきています。
Amazon:
AmazonはAI関連サービスにおいて、『Amazon Sage Maker』と『Amazon Machine Learning』を提供しています。『Amazon Sage Maker』は、トレーニングデータの前処理、作成からモデルの構築、デプロイまでを一気通貫で行うことができるサービスです。昨今注目されている、検索型の生成AIサービス「perplexity」も同社のトレーニング環境「Amazon SageMaker HyperPod」を使用して、基盤モデルのトレーニングの高速化を行っています。
参照:Perplexity が Amazon SageMaker HyperPod で、基盤モデルのトレーニングを 40% 高速化
クラウドサービスは実際にAmazonの売り上げにも反映されており、2024年1-3月期のAWSの売上高は前年同期比17%増の250億ドルと、市場の予測を上回る結果となっています。
参照:アマゾン、クラウド部門の売上高好調-AI需要増加 - Bloomberg
Google:
GoogleはCloudで自社の持つTPUを貸し出すサービス、「Google TPU」を2018年から開始しています。また、Googleによってトレーニング済みの機械学習モデルをAPIとして提供。例えばVision AIだと物体検出や顔検出など画像認識に関しての機能があり、これらを使うことでアプリケーションを制作するなどが可能です。(また、『AutoML Vision』と呼ばれる、利用者が独自にカスタマイズしたモデルを学習させることでより汎用的に使えるサービスも存在します。)
参照:GoogleのTPUって結局どんなもの? 日本法人が分かりやすく説明:CPU、GPUとの違いとは? - @IT
こちらもAWS同様に好調に伸びており、2024年1-3月決算ではGoogle Cloudの売上高は前年比約28%増の96億ドル。同部門の営業利益は9億ドルと4倍以上に成長しました。
参照:【アルファベット決算みどころ】YouTube・クラウドの好調つづくか(GOOGLE) | ブルーモ証券株式会社
まとめ
次回の記事では、米国のAIスタートアップの資金調達環境について迫ります。カテゴリ別に、様々なアプローチで挑むスタートアップの取り組みを深掘りしていきますので、ぜひお楽しみに。
AI関連で起業をされている方、投資をされている事業会社やVCのスタートアップ資金調達にご興味ある読者がいらっしゃいましたら、是非HIRAC FUNDメンバーや檜山へお気軽にご連絡ください