次世代型半導体を使うARM
AIの電力需要に関する予測は、確かに注目に値します。現在の8 TWhから2030年までに652 TWhへと8050%の増加が予測されており、AIトレーニングがその大部分を占めると見られています。2026年には40 TWh、2030年には402 TWhに達すると予想されており、推論の電力需要は10年後にはさらに加速すると考えられています。
このような大幅な電力需要の増加に対応するためには、電力インフラの大規模な増設が必要ですが、それが間に合わない可能性があります。そのため、省電力半導体の採用が現実的な解決策として注目されています。省電力半導体は、消費電力を削減しながらも高い性能を維持することができるため、エネルギー効率の良いデバイスの開発に不可欠です。
特に、SiC(シリコンカーバイド)やGaN(窒化ガリウム)などの次世代パワー半導体は、従来のシリコン半導体に比べて高い効率と耐久性を持ち、電力損失を大幅に削減することができます。これらの半導体は、情報通信分野、エネルギー分野、電気自動車分野などでの需要が増えており2、2025年には約29億ドル、2030年には約64億ドルの市場規模に成長すると見込まれています。
このように、省電力半導体の市場は拡大しており、2030年には5兆円、2050年には10兆円市場になると言われています。AIの進化とともに、省電力半導体の重要性は今後さらに高まるでしょう。
補足)次世代パワー半導体とは、従来のシリコン(Si)ベースのパワー半導体に代わる新しい材料を用いた半導体デバイスです。これらは、高耐電圧、低損失、耐熱性に優れており、特にSiC(シリコンカーバイド)とGaN(窒化ガリウム)が注目されています。次世代パワー半導体は、以下のような特徴を持っています:
バンドギャップが大きい:バンドギャップが大きいため、高温や強い光が当たらない限り電流が流れにくく、高い電圧での使用に耐えることができます。
スイッチング損失が小さい:スイッチング損失が少ないため、電流のオンオフを切り替える際のエネルギーの無駄が少なく、エネルギー効率が高くなります2。
高耐電圧・低損失:SiCやGaNは、Siベースのパワー半導体よりも高耐電圧であり、低損失であるため、電力変換効率が良く、省エネルギーに貢献できます。
これらの特性により、次世代パワー半導体は、電気自動車(EV)、太陽光発電、電力変換器、家電製品など、多岐にわたる分野での使用が期待されています。また、IoTデバイスやAI技術の発展に伴い、これらの性能を向上させるためにも重要な役割を担っています
今後の技術革新や省エネルギー化への貢献が期待される次世代パワー半導体は、急速なデジタル化が進む中でさらなる需要の拡大が予測されています
補足2)ARMと省電力半導体は密接な関係があります。ARMは、その省電力設計で知られており、スマートフォンやタブレットなどのモバイルデバイスに広く採用されています1。ARMのプロセッサ設計は、高いエネルギー効率を実現するために最適化されており、これがARMの大きな強みの一つです。
ARMのアーキテクチャは、RISC(Reduced Instruction Set Computing)に基づいており、命令セットがシンプルであるため、プロセッサの消費電力を抑えることができます。このため、バッテリー駆動時間の延長や発熱の低減など、モバイルデバイスにとって重要な要素を改善することが可能です
また、IoT(Internet of Things)時代において、省電力性はさらに重要な要素となります。多くのデバイスがインターネットに接続されるため、省電力でありながら高性能な半導体が求められており、ARMの技術はこのニーズに応える形で進化しています
AIの発展に伴い、データセンター向けの半導体にもARMの技術が採用され始めており、省電力性に優れたARMのプロセッサは、AIサービスの基盤としても重要な役割を果たしています。このように、ARMの省電力半導体技術は、モバイルデバイスからデータセンター、そしてIoTデバイスに至るまで、幅広い分野での電力効率の向上に貢献しているのです。
また、ARMは、AIチップのプロトタイプを2025年春までに開発し、同年秋から量産を開始する計画です。2024年4月には、エッジAI向けの新型ニューラル・プロセッシング・ユニット(NPU)「Ethos-U85」を発表しました。このNPUは、前世代に比べて演算性能を最大4倍、電力効率を20%改善しています。
ソフトバンクは、ARMのAIチップの量産体制を整えるため、台湾のTSMCを含む半導体製造企業と生産能力の確保に向けて交渉を進めていると報じられています。これは、ソフトバンクが推進する「プロジェクト・イザナギ」の一環であり、AIチップの量産が開始されれば、AIチップ事業はARMから分社化され、ソフトバンク傘下の新企業として運営される可能性があります。
ARMのEthos-U85は、エッジAIの進化に重要な役割を果たすと見られており、産業用マシンビジョン、ウェアラブル端末、コンシューマー向けロボットなどのユースケースにおいて、より高性能なIoTシステムに導入されることが期待されています。ARMの技術革新は、AIの発展とともに、省電力半導体の重要性を高め、データセンターやAIプラットフォームなど、より大規模なシステムにおいても電力効率の向上に貢献していくでしょう。
ARMのEthos-U85は、エッジAI向けの高性能ニューラル・プロセッシング・ユニット(NPU)で、以下のような特徴を持っています:
スケーラブルな性能:Ethos-U85は、128から2048個のMACユニットに拡張可能で、1GHzで最大4TOPs(テラオペレーションズ・パーセカンド)の演算性能を提供します
エネルギー効率の向上:前世代のEthos NPUと比較して、20%のエネルギー効率の向上を実現しています
トランスフォーマーネットワークのサポート:Ethos-U85は、トランスフォーマーベースのモデルをサポートし、エッジAI処理を強化します。これにより、映像の理解や画像分類、物体検知などのタスクに関連するビジョンや生成AIのユースケースを推進します
幅広いアプリケーションへの展開:産業用マシンビジョン、ウェアラブル端末、コンシューマー向けロボットなど、多様なユースケースにおいて、高性能なIoTシステムでの使用が可能です
Ethos-U85は、ARMの最新のAIテクノロジーを活用しており、エッジAIの進化に重要な役割を果たすと見られています。また、既存のArmベースの機械学習(ML)ツールへの投資を活用し、シームレスな開発者体験を提供することができます1。このNPUは、AI推論用のTransformerネットワークと畳み込みニューラルネットワーク(CNN)をサポートし、エッジデバイスでの高性能かつ電力効率に優れた推論を実現することを目指しています
補足2-1)ニューラル・プロセッシング・ユニット(NPU)は、AIや機械学習プログラムで使用される最も一般的なアルゴリズムであるニューラルネットワークで使用されるタイプの計算に特化したプロセッサーです。NPUは、AIの推論処理を高速化するために設計されたプロセッサであり、以下のような特徴を持っています:
高速化と電力効率の向上:汎用のCPUと比べて、AI処理に特化しているため、高速化や電力効率の向上が期待できます
並列処理による高速化:多くの計算を同時に行うことができるため、データを迅速に処理し、リアルタイムでの画像認識や音声解析などが可能になります
効率的な電力消費:無駄な計算を省き、電力効率を高めることができます。これにより、バッテリー駆動のデバイスでも高性能なAI機能を実現できます
NPUは、スマートフォンや自動運転車、IoTデバイスなど、多様なアプリケーションでの使用が期待されており、AI技術の応用範囲を広げ、私たちの生活をより便利にする新しい技術が次々と生まれています
意味 マックユニットとは?
マックユニット(MACユニット)は、Multiply-Accumulate Unitの略で、ニューラルネットワークの演算において重要な役割を果たすプロセッサのコンポーネントです。具体的には、乗算(Multiply)と加算(Accumulate)の操作を一つのサイクルで行うことができるユニットで、AIや機械学習の計算において非常に効率的です。
ニューラルネットワークの演算では、大量の重みと入力データの乗算が必要となります。この乗算の結果を蓄積(累積)する加算処理も同時に行われます。マックユニットはこの二つの操作を高速に行うために特化されており、複数のマックユニットを搭載することで、並列処理を行い演算性能を向上させることができます。
例えば、Ethos-U85のようなNPUでは、128から2048個のマックユニットを搭載することが可能で、これにより1GHzで最大4TOPs(テラオペレーションズ・パーセカンド)の演算性能を提供します。これは、エッジデバイス上でのリアルタイムAI処理を可能にする非常に高い性能を意味しています。また、エネルギー効率も重要な指標であり、Ethos-U85は前世代のNPUと比較して20%のエネルギー効率の向上を実現しています。このように、マックユニットはAIチップの核となる部分であり、その性能と効率が全体の性能を大きく左右します。
意味2 ニューラルネットワークの演算において重要な役割を果たすプロセッサのコンポーネントてどういう意味?
ニューラルネットワークの演算において重要な役割を果たすプロセッサのコンポーネントとは、ディープラーニングや機械学習のアルゴリズムであるニューラルネットワークの計算を効率的に行うための特別なハードウェアの部品を指します。これらのコンポーネントは、ニューラルネットワークのモデルが行う大量の行列演算やベクトル計算を高速に処理するために最適化されています
ニューラルネットワークは、入力データを受け取り、それを層を通じて伝播させ、最終的に出力を生成する一連の計算プロセスです。このプロセスには、多数の乗算と加算が含まれており、特に重みと入力データの乗算や、それに続く加算(累積)が頻繁に行われます。このような計算を効率的に行うために、マックユニット(Multiply-Accumulate Unit)などの特殊なプロセッサコンポーネントが使用されます1。
例えば、Ethos-U85のようなNPU(ニューラル・プロセッシング・ユニット)には、128から2048個のマックユニットが搭載されており、これにより1GHzで最大4TOPs(テラオペレーションズ・パーセカンド)の演算性能を提供します。これは、エッジデバイス上でのリアルタイムAI処理を可能にする非常に高い性能を意味しています
このように、ニューラルネットワークの演算において重要な役割を果たすプロセッサのコンポーネントは、AIの推論処理を高速化し、エネルギー効率を向上させるために不可欠な存在です。