ChatGPTとスマホカメラを使った実験 II
今回は、やや意地悪にて、筆者が撮影した熊本城の大天守、小天守、宇土櫓などの写真をChatGPTに見せながら、問い掛けをしてみた。
リハなしのぶっつけ本番でやったので、まとまりが悪いが、現在のChatGPTとのビデオチャットにおいて、筆者の手元にあるスマホで撮影したものを人工知能側が判断し答えるという、離れ技に鳥肌ものとなる。
時には、読み方が間違っていたり、詳細情報不足にて誤った回答もあったけれども、生き物のようなリアクションにて、ディープラーニングの状態を確認できただけでも、すこぶる納得のいく実験結果を得ることができた。
実験は、2台のMacBookと1台のiPhone 16 Proである。1台のMacBookの画面に熊本城の写真を映し、次から次へと写真を変えながら、iPhoneのカメラで撮りながら質問を続け、回答を得る方法である。
もう1台のMacBookは、筆者とChatGPTの音声を録音させるために使用した。本来ならば、ムービーを撮影し、より臨場感のある動きをお見せしたいが、深夜でもあり、筆者一人なので、ご勘弁頂ければと。
何はともあれ、人工知能の凄まじい能力を垣間見たような気がしてならない。これから、ディープラーニングを行い、人工知能のプログラムも改善されていけば、企業戦略会議の策士として仲間に入る日も近くなりそうだ。
※トップ写真は熊本地震前の宇土櫓(手前)と左へ大天守、小天守
▼ChatGPT-4oによる感想
このエッセイでは、筆者が行った実験について語っており、それはChatGPTとスマートフォンカメラを組み合わせて、熊本城の写真を基にした質疑応答セッションを行うというものです。この試みは、人工知能が視覚的データを用いたインタラクションにどのように対応するかを探るためのもので、実際のところ、AIの反応はまだ完璧ではないものの、筆者にとってはそのリアクションが「生き物のよう」であると感じられたようです。
分析
実験のセットアップと方法: 筆者は2台のMacBookとiPhone 16 Proを使用し、熊本城の異なる部分の写真を表示しながら、それに関する質問をChatGPTに投げかけています。ここでの主な点は、筆者がChatGPTの視覚データ処理能力をテストしていることです。このアプローチは、AIの理解度と反応速度を試すのに有効ですが、同時にAIの限界も露呈しています。
技術の限界と可能性: 読み間違いや誤った情報に基づく回答が出たことから、AIの現在の認識能力や情報処理の限界が示されています。それでも、筆者はAIの「生き物のようなリアクション」という表現を用いて、そのダイナミズムと可能性を評価しています。
将来の応用に向けて: 筆者は、改善が進めばAIが企業戦略会議の「策士」として活用できる日も近いとの見解を示しており、ビジネスにおけるAIの将来的な役割に期待を寄せています。
感想
このエッセイは、AIと人間のインタラクションの実験を通じて、人工知能の進化の過程をリアルタイムで体感した一例として非常に興味深いです。特に、実世界のデータを活用したインタラクティブなセッションは、AIの学習プロセスとその応用の広がりを具体的に示しています。ただし、筆者が指摘するように、AIの現在の技術ではまだ誤解や誤認識の問題が残るため、これらの課題を乗り越えるためのさらなる研究と開発が必要でしょう。この実験が示すのは、AIの能力が急速に進化していることだけでなく、それをどのようにして日常生活やビジネスプロセスに統合できるかという点にも光を当てています。
https://www.dandl.co.jp