AI 新時代を支えるエコシステムとインフラ: Microsoft Build Japan Day 2 Keynote(2023/07/12、ニュースリリース)
※日本マイクロソフトからブログ更新のお知らせがニュースリリースで来ました!
+++++
AI 新時代を支えるエコシステムとインフラ: Microsoft Build Japan Day 2 Keynote
+++++
日本マイクロソフトが 6 月 27 日〜 28 日に開催した、国内開発者向けイベント「Microsoft Build Japan」。
2 日目は、生成 AI のマルチモーダル化、コパイロットとプラグインで展開するエコシステム、AI インフラの拡張など、新しいソフトウェア開発において欠かせない重要な要素が発表されました。
Keynote で日本マイクロソフト株式会社 執行役員 常務 最高技術責任者 野崎 弘倫が詳しく解説します。
■生成 AI はマルチモーダル化: LLM は量から質へ
AI は今、劇的に進化しています。
計算資源の向上により、膨大なデータ処理が可能となり、AI の精度も大幅に向上しました。
同時に、AI モデル開発も大きな変革点を迎えています。
従来の AI モデル開発では、特定のタスクを実行するため固有の限定されたデータセットを利用し、専用のモデルをトレーニングしていました。
そのため、作業負荷や処理速度に制約が生じ、開発コストの上昇とデプロイの遅れにつながっていました。
しかし、AI 基盤モデル (Foundation Model) をベースにした生成 AI の登場以降、1 つのモデルであらゆるドメインや業界のタスクに適応できるようになったのです。
そして今後は、テキストだけでなく、画像や音声などマルチモーダルなモデルへ進化していきます。
マイクロソフトの研究機関である Microsoft Research Asia は、マルチモーダルな入力を知覚し、指示に従って文脈内学習を行うことができるマルチモーダルモデル「Kosmos-1」を発表しました。
また、幅広いデジタルや物理的タスクに対応できる新しいエコシステム「TaskMatrix.AI」も発表しています。
また、LLM は量から質へと転換していきます。
6 月 20 日、Microsoft Research は、Transformer ベースでわずか 13 億パラメーターしかない LLM 「phi-1」を発表しました。
これは、ベンチマークスコアで 1750 億パラメーターの GPT-3.5 を大幅に凌駕しています。
■マイクロソフトの AI への投資
マイクロソフトは、AI のイノベーションを促進するために長年にわたり積極的な投資を行ってきました。
これらの投資は、5 つのカテゴリーに分類されます。
・AI のイノベーションを支える研究
AI の研究を推進している研究機関、Microsoft Research のラボを世界 8 か所に保有し、AI に関する公開済み研究論文を 6000 以上有しています。
また、1000 人以上もの研究者がコンピュータービジョン、自然言語、音声処理、インタラクションなどの研究を進めており、世界で初めて人間の読解能力を超える AI を開発するなど、AI における様々なブレイクスルーを達成しています。
・責任ある AI の原則
AI は比較的人間の知性に近く、データセットにおけるデータへの有害性、悪意ある使い手によっては、本来想定していないリアクションがある場合があります。
そこでマイクロソフトでは、AI の利用に関する倫理問題とガバナンスに対応するため、「プライバシーとセキュリティ」「包括性」「アカウンタビリティ」「透明性」「公平性」「信頼性と安全性」という 6 つの原則を「責任ある AI の原則」として定めました。
この領域において、厳密にガイドラインを策定し、製品への実装を行っています。
・大規模 AI モデルのパフォーマンスとスケールアップ
2020 年にマイクロソフトは 170 億ものパラメーターを持つ、当時としては過去最大のモデル「Turing-NLG」を発表しました。
さらに、2021 年後半、NVIDIA と共同で、パラメーター数 5300 億個の自然言語生成モデル「Megatron-Turing NLG」を発表。
これは、これまでに学習された最大かつ最も強力なモノシリック変換モデルで、様々な自然言語のタスクにおいて、他に類を見ない高い精度を提供しています。
・AI 先進企業とのパートナーシップ
NVIDIA をはじめ、META、Hagging Face など、多くの企業との協業を進めていますが、特に注目すべきは OpenAI との提携です。
OpenAI が提供する ChatGPT は、マイクロソフトのエコシステムで構成されています。
トレーニングと推論は Azure 上のデータセンターで、開発は GitHubを中心に行われています。
さらに、データベースとしては、Azure Cosmos DB が爆発的なユーザー増加を支えています。
セキュアな環境で OpenAI の AI モデルが利用できる Azure OpenAI Service は、すでに 4500 社以上のお客様が利用しており、Azure というサービスの中で最も急速に成長しています。
■コパイロットとプラグインで展開するエコシステム
複数のマイクロソフトの製品に組み込まれているコパイロットは、次世代言語モデルを利用することで複雑な認知タスクをアシストしてくれるアプリケーションです。
ユーザーとの対話を通して、ビジネスやライフスタイルを広げる大きな役割を担っています。
すでに、Microsoft 365、Dynamics 365、Power Platform、Microsoft Security、Windows、GitHub などのサービスにコパイロットが組み込まれています。
そして、コパイロットとともに大きく今後展開を想定しているのがプラグインです。
ユーザーに代わって計算処理や有益な情報を API を経由して取得する機能を持っています。
デジタルでできることは全てプラグインを通してコパイロットに接続できます。
ChatGPT プラグインにも多くのプラグインが開発・展開されており、エコシステムを形成しつつあります。
今後は、ChatGPT プラグインや様々なコパイロットの間で共通の規格を作り、相互に連携できる統合プラグインも登場する予定です。このレポジトリは、すでに GitHub 上で公開されています。
日本のお客様も、このエコシステムを活用し様々なサービスを展開しています。
例えば、価格.comと食べログでは、希望する商品やカテゴリー、メーカー、レストラン旅行のプランを指定すると、お店が希望に沿った案を提示してくれます。
また、ライフルでは、家探しの際に漠然とした希望を入力すると、適切な検索条件に変換し、物件を提案してくれます。
■進化し続ける 「Bing」
新しい Bing は、最新の言語モデル GPT-4 と Bing の検索エンジンを組み合わせ、最新情報を活用した生成型の AI サービスを提供しています。
リリース後の 5 か月間で品質の改善や機能の拡張を継続的に行い、先月、画像生成、履歴管理、Edgeブラウザとの統合などのアップデートを提供しました。
ユーザーの 71% 以上が Bing の検索結果や回答に満足しており、デイリーユーザーは 1 億人を突破しました。
また、新しい機能として、ChatGPTのブラウジング機能をBingが提供し、ChatGPTからでも新しいBingと同様に検索できるようになりました。
さらに、新しいBing も ChatGPT と互換性がある形でプラグインをサポートします。
■Copilot stack
プラグイン、コパイロットに加えて、重要な要素として「Copilot stack」があります。
これは、独自のコパイロットを構築するための新しいツールで、
LLM を使用したサービス開発のために必要な基本的な考え方を共通化し、抽象化してフレームワーク化したものです。
「Copilot stack」は、フロントエンド、ミドルティア、バックエンドの 3 つの層で構成されています。
フロントエンドは、コパイロットとプラグインで構成されています。
AI オーケストレーションは中核となり、プロンプトの補足やフィルタリング、アプリケーションの作成に必要なロジックを担当します。
マイクロソフトのオープンソースである Semantic Kernel や LangChain などがこれに該当し、Azure AI Studio でこれらの機能を代替することも可能です。
また、バックエンドのインフラ層は、AI モデルを構成するための基盤モデルと、モデルをトレーニング・推論させる GPU となります。
■GitHub 「AI が開発者の体験を変える」
マイクロソフト・ファミリーの中で、最も早くコパイロットの製品サービスをリリースしたのが GitHubです。
ギットハブ・ジャパン合同会社 リージョナル セールスディレクター 山銅 章太氏が登壇し、AI の活用が、今後、開発者の体験や世界をどのように変えていくのかについて解説しました。
AI の進化により、今までのアプリは生まれ変わり、今までにないアプリが現れるでしょう。
そして、開発者の体験に影響を与える時代が今年やってきました。
GitHub は、OpenAI と共同でプログラミングの支援ツール「GitHub Copilot」を開発しました。
2021年にリリースされて以来、精度向上に取り組んでおり、現在では世界で 1 万以上の組織と 3 万人以上のマイクロソフト・GitHub の開発者が利用しています。
利用者からは、「バグが減少した」、「学習体験が向上した」などの声が寄せられました。
また、コードの開発時間が短縮されたことで、ソフトウェア開発の向上、ひいてはビジネス全体の生産性向上にもつながると指摘されています。
しかし、その中で最も多く報告されたのは、「集中度が上がった」との意見でした。
さらに、開発者の声を数値化すると、46% 以上の新しいコードが AI によって生成され、75% がより満足のいく仕事に集中できるようになり、95% は反復作業をより迅速にこなせるようになりました。
現在のコパイロットは、オートコンプリート機能を提供していますが、最新のコパイロット X では、チャット、プルリクエスト、ドキュメントの自動生成などの機能が追加されます。
■AI ワークロードの増大で「Azure データセンター」を拡張
AI のワークロードの増大に伴い、AI のインフラであるデータセンターの拡張が不可欠となります。
・拡大・進化を続ける Azure データセンター
マイクロソフトは、世界中に Azure のデータセンターを展開しており、第 2 世代から第 4 世代までの大規模なユニットを保有しています。
2025 年までに100% 再生エネルギーを活用し、2030 年までにカーボンマイナスを実現することを目指します。
さらに、2050 年までには、1975 年の創業以来、マイクロソフトが排出してきた二酸化炭素を完全に除去する計画も立てています。
・Azure の物理的な規模
Azureリージョンは、全世界で 65 以上、データセンターは 200 を超えています。
AI の利用が急増したことで、Azure Storage の月間トランザクション数は 1115 兆、Azure Machine Learning の月間処理数は 4700 億に達しています。
・今後の Azure 投資の中心はアジア
今後は、アジアを中心に Azure データセンターへの投資を進めます。
日本では、西日本リージョンに大規模な投資を行い、新しいデータセンターを複数建設し規模を拡大します。
また、インド、インドネシア、マレーシア、ニュージーランド、台湾などアジア諸国でも新しいリージョンの開設を計画しています。
・ハードウェア処理によるインフラの高速化
既存のインフラでも高速化が進んでいます。
従来、ホスト OS で行われていたネットワークとストレージの I/O 処理を専用のハードウェアにオフロードすることで高速化を実現します。
その主役となるのが FPGA です。ハードウェア処理のパフォーマンスを維持しながら、導入後にコードを変更して機能を追加できる特徴を持っています。
バグが発生してもアップグレードで改善でき、より効率的なプログラムが開発された際も、ソフトウェアのアップグレードやハードウェアのパフォーマンスを向上させることができます。
・大規模言語モデルのトレーニングを効率化
生成 AI の需要が高まる中、AI トレーニングでは、より大規模で大容量のデータを扱うケースが増えています。
NVIDIA の GPU (A100-80GB) を 1024 個使用したトレーニングではジョブが完了するまでに 15 日かかりましたが、途中多くのエラーや再起動などが頻繁に発生し、非常に効率が悪いという課題がありました。
そこでマイクロソフトは、「Project Forge」を推進しています。
これは、ジョブの進捗状況やエラー情報などをハードウェア層の一つ上のレイヤーで管理し、必要なアクションを行うことで効率的なトレーニングを実現します。
・次世代の生成 AI インフラ 「Azure ND H100 v5 "Hopper"」
増大する AI のワークロードに対応するには、これまで以上に処理能力を高める必要があります。
そこで、マイクロソフトは NVIDIA とのパートナーシップにより、
「Azure ND H100 v5 "Hopper"」を次世代の生成 AI インフラとして提供します。
NVIDIA Quantum-2 InfiniBand のネットワークで相互接続された 8 機の H100 で構成されており、生成 AI に取り組む企業は、より大規模で複雑な AI モデルのトレーニングに取り組むことができます。
マイクロソフトが提供するツール群はあくまでもツールです。
AI を利用し、開発者、お客様、パートナー様の素晴らしい体験を実現するためには、開発者が作り出すアプリケーションやサービスが重要です。
ソフトウェア開発において AI をより良いものにしていけるよう、
マイクロソフトは開発者の皆様とともに全力で取り組んでまいります。
●本ブログの詳細につきましては、日本マイクロソフト広報資料サイトをご覧ください。
https://news.microsoft.com/ja-jp/2023/07/12/230712-ecosystems-and-infrastructure-to-support-the-new-era-of-ai-microsoft-build-japan-day-2-keynote/