![見出し画像](https://assets.st-note.com/production/uploads/images/129997856/rectangle_large_type_2_22f1784d4ba4b9e15155214c78fbf50e.png?width=1200)
VisionProだとできなそうなのでとりあえず雑にAIと視覚をリアルタイム共有してみる
やはり案の定、Apple Vision Proはフロントカメラへのアクセスができないらしい。正直言うと、フロントカメラにアクセスできないと面白さは半減すると思う。まあ明日届くけど。
ちなみに僕はHMDは20年以上の付き合いがある。VRもARも何度もやってる。その上で、AIで人間を進化させるとしたら視覚との融合は避けて通れないテーマだ。
そこで、とりあえずカメラパススルーして画像を二枚表示し、VRゴーグルにとりつけてAIと視覚を一致させたらどうなるかという実験をやってみることにした。
![](https://assets.st-note.com/img/1707197615218-N21TYXSybN.png?width=1200)
![](https://assets.st-note.com/img/1707197674683-I7ghBDhIMP.png?width=1200)
いざAIと視界を共有すると、たとえば「この品物調べといて」とか「この店メモしといて」とか口頭で指示が出したくなる。
GPT-4Vへのプロンプト次第で「目の前の人物の感情を推定しろ」とか、「現在地を詳しく説明しろ」とか色々な使い道が考えられる。
明日VisionProが来ちゃったらこの実験するの忘れちゃいそうなので先にやってみた。
待て明日。
![](https://assets.st-note.com/img/1707198475221-hahXbdLNlK.png?width=1200)