見出し画像

WWDC 2024について語ってみよう

日本時間の6月11日早朝、AppleのWWDCが開催されました。普通の社会人なので、流石にリアルタイムで視聴することはできませんでしたが、お昼休みにYouTubeの録画を観ました。今回の発表については、ほんの一日あまりで賛否両論さまざまなコメントがネットで見られました。今日は、これについて、私が思うところを書き留めておきたいと思います。

今回の発表で私が興味を持ったポイントは、以下の通りです。

  • Vision Proの日本リリース

  • AirPodsのジェスチャー対応

  • iPadの計算機

  • Smart Script

  • iPhone Mirroring

  • Apple Intelligence

visionOS 2の発表ではVision Proが日本でもリリースされることが発表されました。6月28日なので、もうすぐです。ただ、私は今回はVision Proは買わないです。とにかく高過ぎますし、次の次のバージョンくらいでサングラス程度まで小型化されれば検討したいと思います。

AirPodsのジェスチャー対応は地味ですが、必ず使う機能だと思います。頷いたり、首を振ったりすることで電話に出るか出ないかを指示するシーンがありましたが、今後は音声入力やジェスチャーなど今までとは違うインプットメソッドがさらに広がっていきそうです。

昔から、iPhoneにあってiPadにないもの、と言えば、標準の計算機アプリでした。なぜなんだろうとずっと思っていましたが、今回のiPad用の計算機アプリを見て納得しました。まさか手書きの数式を計算してくれるとは思いませんでした。今までiPadOSはiOSのサブセット、的な認識を持たれている方が多いと思いますが、今後はiPadならではの、手書きのインプットメソッドを前提としたアプリが充実していく予感がします。

Smart ScriptもiPadらしい機能ですね。簡単にいうと、手書き文字を綺麗に修正してくれる機能です。日本語に対応するのはなかなか難しいと思いますが、字が下手くそなためにiPadで手書きメモをとって後で見ても、何を書いているか分からなくなることが多い私にとっては、待ち遠しい機能です。

最近はmacOSの大きな話題が少なくて残念なのですが、今回もびっくりするような機能はなかったですね。そんな中でも、iPhoneをMacからリモート操作できるiPhone Mirroringはなかなか面白い機能だと思いました。通常私はiPhoneをミュートにしてカバンの中に入れていますが、時々使いたくてもバッグからiPhoneを取り出すのが面倒だなと思うことがあります。特に、出張中、新幹線の中で仕事をしていて、iPhoneが網棚のカバンの中にあるような時に便利なんじゃないかなと思います。

そして、何より今回ネットを沸かせているのが、Apple Intelligenceです。名前を「AI」の頭文字に重ねてきたところなんて、わざとですよね。かなり挑戦的な姿勢だと思います。ネットではAppleが自前のLLMを持たないことを否定的に捉えている記事が多かったですが、私は次の理由からそうは思いません。

  • 自前のLLMを持つよりもLLMを使って消費者がどう行動するか、どう活用するかに投資する決断をしていること。

  • AppleのデバイスにあるAI用のチップを使って、基本的にはローカルでAIを活用し、どうしてもクラウド側の大規模 LLMを使わなければならないときだけ、OpenAIなどのクラウドのLLMを使うようにレイヤーを分けたこと。

LLMを猫も杓子も自前で持てばいいってもんじゃないですね。LLMは電力やコンピュータリソースを大量に消費しますので、決してエコなテクノロジーではありません。脱炭素化やエコを声高に叫んでいる人たちがAppleが自前のLLMを持たないことに否定的だったりする記事を観ると、まぁ、なんというか、ご都合主義だなと思わざるを得ません。

電力効率の良いMシリーズのチップは、現在の効率性やセキュリティ無視のLLM競争に対する一つの回答なのではないかなと思っています。その意味では、Appleは最初から戦略的に、つまらんLLM競争に参加するつもりはなかったわけです。それは自分たちの価値ではない、それが今回のWWDCにおける大きなメッセージではないでしょうか。

また、イーロン・マスクみたいにOpenAIのLLMをOSに統合するから反対、みたいな意見もちょっとどうかなと思います。Appleはデバイスの外のクラウドLLMは選択できるようにすると言っています。OpenAIのChat GPTはもちろん、GoogleのGeminiも選択できるようになるでしょう。AppleはOSのコア部分を特定のAIベンダーに依存する選択肢は取らないはずです。

これは、B2Bの世界でクラウドアプリケーションの雄であるSalesforceと同じ考え方です。彼らも独自のLLMを開発することよりも、大規模LLMが持つハルシネーションやセキュリティリスクを回避して顧客のデータを守ることを優先し、それを実現する方法を提供し始めています。私はAppleやSalesforceの考え方の方に誠意を感じますね。両社の株価が落ちたことは、投資家がいかに見る目がないか、を証明しているようなものです。

さて、最後に全体を通じて興味を持ったのは、やはりApple Intelligenceの結果、どのように私たちのコンピューティング体験が変わるかということです。例えば、Siriと生成AIが統合されて、過去のやりとりも記憶されるなら、しかも価格が追加でかからないのなら(かからないって言ってましたよね)、Appleの標準アプリだけで全て私がやりたいことが賄えるかもしれない、そんな気持ちになっています。

というか、もうアプリというレイヤーは高度に抽象化されて、やりたいこと、知りたいことをAppleのデバイスに伝えるだけで、やりたいことができる、知りたいことが知れる、という昔のSFのような世界が、もう間近に来ているのではないかということです。私たちは、それがどのようなアプリやプロセスを経てアウトプットされたのか知る必要はありません。これって、まさに、ドラえもんのポケット、電脳パンツそのものですよね。若いころNewtonデバイスに憧れ、HP200LXを弄りながら夢想した世界がようやく来る、目の前にある…そう考えただけで、ワクワクが止まりません。もう、死ぬまでAppleについていくことに決めました。

いいなと思ったら応援しよう!