iPhoneでSiriの背後にChatGPTが待機!Siriで分からない物にはChatGPTが返答
本日開催されたWWDCでApple インテリジェンスの一環で、SiriがシームレスにChatGPTに連携する事が発表されました。
WWDCとは?
WWDC(Worldwide Developers Conference)は、Appleが毎年開催する開発者向けのカンファレンスです。主にソフトウェア開発者や技術者を対象としたイベントで、Appleの最新のソフトウェア、ハードウェア、テクノロジーに関する情報が公開されます。
以下はWWDCについての基本情報です:
開催時期と場所:WWDCは毎年6月に開催され、最近はオンライン形式とサンノゼのApple本社での一部対面形式を組み合わせて行われています。
基調講演:WWDCのハイライトは初日に行われる基調講演(Keynote)で、AppleのCEOや幹部が登壇し、新しいソフトウェア、製品、サービスについて発表します。ここでiOS、iPadOS、macOS、watchOS、tvOSの最新バージョンが紹介されることが多いです。
セッションとワークショップ:開発者向けに多数の技術セッションやワークショップが開催され、Appleのエンジニアから直接新技術の詳細を学ぶことができます。これには、新しいAPIやフレームワークの使い方、開発ツールのアップデート、ユーザーインターフェースデザインのベストプラクティスなどが含まれます。
ラボ:開発者はAppleのエンジニアと直接対話できるラボが提供され、自分のアプリやプロジェクトについて質問したり、フィードバックを受け取ったりすることができます。
受賞プログラム:WWDCではApple Design Awardsが開催され、優れたデザインと技術革新を持つアプリやゲームが表彰されます。
今年のWWDCは本日下記のyoutubeでライブ配信され、今は動画が上がっています。
SiriがChatGPTとのシームレスな連携ができる様に
下記に、本日のWWDCの発表の中から、ChatGPTに関する説明の部分を全て翻訳します。
Siriに答えられない場合は自動でChtGPTを呼び出す
SiriがシームレスにChatGPT(GPT-4o)と連携する仕組みです。具体的には、Siriに質問をして、Siriがその質問に対して適切な回答を持っていない場合、ChatGPTが役立つと判断すると、ユーザーの許可を得てChatGPTに質問を共有し、回答を提示します。これにより、Siriを通じてChatGPTの専門知識を簡単に利用できるようになります。
ChatGPTに直接聞く方がSiriに聞くより早くない?
Siriの代わりに直接ChatGPTを使用することができれば、確かに素早く情報を得ることができるかもしれません。しかし、Appleの現行のアプローチでは、Siriがまずユーザーの質問を受け取り、それを処理した上で、必要に応じてChatGPT(GPT-4o)を呼び出すという手順を採用しています。
このアプローチにはいくつかの利点があります:
セキュリティとプライバシーの確保:Siriがまず質問を処理することで、ユーザーの情報が不要に外部に送信されないように管理できます。ユーザーの許可なしにデータが外部のAIモデルに共有されることはありません。
機能の統合:SiriはApple製品に深く統合されており、デバイスの操作や設定の変更、アプリの起動など、システム全体の操作を直接行うことができます。ChatGPTは主に情報提供や対話を目的としていますが、システム操作には対応していない場合があります。
ユーザー体験の一貫性:Appleは一貫したユーザー体験を提供することを重視しており、Siriを通じて統合されたAIツールを利用することで、ユーザーが慣れ親しんだインターフェースと操作性を維持できます。
ただし、ChatGPT自体を直接使用したい場合は、ChatGPTをサポートするアプリやウェブサイトを利用することができます。将来的には、ユーザーのフィードバックに応じて、Appleがより直接的なAIモデルの統合を検討する可能性もあります。
願わくば、iphoneに向かって「へいSiri、ChatGPT呼んで」じゃめんどくさいんで、「へい、ChatGPT」でご本人がダイレクトに出てくる様にしてほしいですよね。
SiriはGPT-4oのマルチモーダルにつないでくれるのか?
現在のところ、SiriがGPT-4oのマルチモーダル機能に直接接続するかどうかについては具体的な情報は提供されていません。ただし、AppleがSiriにChatGPT(GPT-4o)のサポートを統合していることから、将来的にマルチモーダル機能を利用できるようになる可能性はあります。
以下のようなシナリオが考えられます:
画像解析:Siriが写真や画像をGPT-4oに送信して解析結果を取得し、ユーザーに返す。
音声入力:ユーザーが音声で質問すると、SiriがそれをGPT-4oに送り、音声で回答を取得して返す。
複合的な質問:ユーザーがテキスト、画像、音声を組み合わせた質問をすると、SiriがそれらのデータをGPT-4oに送り、総合的な回答を取得する。
これが実現すれば、Siriの機能が大幅に拡張され、より多様な形式のデータを活用したインタラクションが可能になります。
Appleは新機能の追加に関しては慎重であり、ユーザーのプライバシーとセキュリティを重視しています。したがって、GPT-4oのマルチモーダル機能がSiriを通じて利用可能になる場合も、ユーザーの許可を前提として慎重に実装されるでしょう。Appleからの公式な発表を待つことが最善です。
WWDC会場でサム・アルトマンの姿がみられました
サム・アルトマンも会場に出向いていた様で目撃されています。分科会などで彼自身の発表があったかどうかはまだわかりません。
OpenAI、CEOグレッグ・ブロックマンのコメント
「私たちは Apple と提携して、ChatGPT を iOS、iPadOS、macOS に統合します。今年後半に利用可能になる予定です。とても楽しみです!」とアナウンスしています。
SiriとChatGPTが連携するのは今年後半
サム・アルトマンも「今年後半に Apple と提携して ChatGPT を同社のデバイスに統合できることを大変嬉しく思います。きっと気に入っていただけると思います。」とポストしています。
OpenAI公式は、「OpenAI and Apple announce partnership to integrate ChatGPT into Apple experiences」というサム・アルトマン執筆のブログでAppleとの提携を発表しています。
Google GEMINIのサポートも始める予定
ついにGoogle GEMINIもサポートする予定であることもAppleはWWDCで認めた様です。詳しくは下記の記事をご覧ください。
この記事が気に入ったらサポートをしてみませんか?