
2017妄想Times : 思うがままのワガママなミライ
FBを開くと表示される過去の投稿。
今朝は8年前のHMIに関する投稿が出てきました。
なんとなく現実味を帯びてきたので切り出しておきます。
思うがままのワガママなミライ
2017/01/29

音声コントロールがホームIoTの真ん中になるかも知れない。
アメリカではホームアシスタントは普及タームに入っていて、様々なハードウェアやサービスが既に繋がり始めている。。
その真ん中のハードウェアとプラットフォームを構築したのは、なんとAmazonだった。
どこまで我々の生活に浸透して、暮らしをより便利にしてくれちゃうんだろう?
ポチってポチってポチりまくる未来か。
「プラットフォームを作らなくちゃいけない」
「ハードの売り切りではなくて、サービス含めたビジネスモデル構築がカギになる」
もう耳タコ。言うは易し。で、また事後分析…
ソリューションは単純。価値は明快。でも価値交換の構造はかなり複雑!
こんなアイデア、どうして実現できちゃうの…
自分の専門ではないので、勝手なことを言いますが(言うは易し!)
音声コントロールができるようになると、便利なはずのスマホが「あれれ?」と感じるシーンが増えてきました。
ワンアクション、ツーアクション余計だったり、何故こんな小さな画面を指先でコチョコチョやってんだろ?と思ってしまったり。
思い返せば、10年と少し前。
iPodTouchのタッチパネルに「未来キター!」と飛びつきました。
感覚にリニアで、気持ちが良い!
ボクがiPodやiPhoneを買った理由は、“操作が気持ち良い”。それだけでした。
タッチコントロールはiPodのホイールも気持ち良かったな。。最初の頃は意味もなく曲を飛ばしてみたりして、なんで今までCDを何枚も抱えて出かけてたんだろうか?と。
で、今は“あの曲を聴きたい”と呟けば曲が流れるという。。これは、ナップスターが目指していた“天空のジュークボックス”にほぼ近い!
そうすると、なんでiPhoneに何千曲もデータとして保存しなくちゃいけなかったのか…と思い始める。。勝手なものです。
新しいテクノロジーがあらわれると、自分の行動も考え方も変わってしまうのです。
となると、次です。
次のコントロール系は間違いなく“テレパシー”ですよね。
あ、何か聴きたいな。。と思ったら、自然と音楽が流れ出す…という。
“思うがままのワガママ”コントロール。。
そうそう
昔、イタリアのモデルメーカーでクルマの1/1モックアップを制作したときの話。
“言葉も通じない”異国の地。濃ゆいイタリア人モデラーに囲まれて、身振り手振り必死にコミュニケーション。、
でも、こんな事がありました。
黒いテープを差し出されます。「おまえ、キャラクターライン決めろ」(と言われたはず)
そのテープでキャラクターラインを引くのですが、テープがちょっと細くて、なかなかスパっと引けない…
“もうちょい太いテープ欲しいな”と、顔をあげたら。。
太めのテープを持ったイタリア人モデラーがそこに。「おまえさん、コレだろ?」って顔をしてボクにテープを差し出してくれてました。
他にも、パネル面を撫でて「ココ」と指をさせば
「うん。引けてるよな」とか。本当に気持ち良く仕事が進んだんです。
この感じ。
以心伝心、テレパシー。
理想的なAIの未来ってこんなのですよね。
でもどうやって実現するのか???
相当に寄り添って意思疎通するテクノロジー。
絶対にそうなるし、そうしたい。
テレパシーコントロールの普及始まりは10年後。。
研究されている方がいらっしゃいましたら
ナイショで連絡ください。笑
2017年1月29日
----------------------------------------------------
8年前のスケッチとコラムに思うこと
2017年に描いた「テレパシーコントロール」が、今ではかなり現実味を帯びてきています。AIとBMI(ブレイン・マシン・インターフェース)の研究が進み、思考だけで操作する技術が少しずつ実験段階から実用へ向かっています。
たとえば、Elon Musk氏のNeuralinkやMetaのBMI研究は、脳の信号を解読してデバイスを操作することを目指していて、シンプルなコマンドならすでに実現しつつあります。もちろん「思っただけで好きな音楽が流れる」レベルには到達していませんが、8年前の妄想はかなり近づいているのは確かです。
また、「新しいテクノロジーがあらわれると、自分の行動も考え方も変わってしまう」ということも、生成AI時代の今だからこそ、さらに深く実感できていると思います。
スマホのタッチ操作が音声コントロールに取って代わられ、さらに次はジェスチャーや視線追跡、そして最終的には「考えただけで動く」未来へ…。まさに「思うがままのワガママなミライ」が形になりつつある感じがします。
ちなみに、Elon Musk氏は2017年にNeuralinkを起業して、2024年に脳に埋め込んだセンサーでスマートフォンを操作する人体実験を成功させているのですよね。アイデアを実現してしまう力にひれ伏すしかないです、。
そして8年前は、全く想像もできていなかった、誰でも使えてしまう生成AIの登場によって、また状況は変わっていますね。
2017年当時の未来予測では、BMI(ブレイン・マシン・インターフェース)が「思考を直接デバイスに伝える」究極のコントロール手段として期待されていましたが、実際には 生成AIが“察する”ことによる自然なインターフェース進化 という別ルートが現れました。
今では、生成AIは単なる指示待ちのツールではなく、「文脈を理解し、推測し、先回りして提案する」 存在になりつつあります。
例えば:
テキスト生成AI:ユーザーの意図を読み取って補完・予測する
音声AI:リアルタイム対話で即座に反応
画像・動画生成AI:指示が曖昧でも最適なビジュアルを提供
パーソナルAIアシスタント(Rewind AI, Humane Ai Pinなど):常に文脈を学習し、個人に最適化
つまり、「脳波を直接読む」のではなく、日々の対話や行動履歴からAIが察する ことで、結果的に「思ったことが形になる」未来が実現しつつあります。
この流れを考えると、8年前のスケッチをアップデートするなら、「テレパシー」はBMI技術だけでなく、生成AIの高度な文脈理解による「共感的アシスト」 という形で実現すると考えられそうです。
アップデート版「コントロールの進化」
★ TOUCH → Still Relevant(依然重要)
タッチは消えないが、補助的な手段になりつつある
★ VOICE → Conversational AI(対話型AI)
音声コントロールは進化し、個人の文脈を理解
★ GESTURE & EYE TRACKING → Multi-Modal AI(マルチモーダルAI)
視線、表情、動作から意図を読み取るAI
★ TELEPATHY → AI-Powered Intuition(AIによる直感的アシスト)
BMIだけでなく、生成AIがユーザーを理解し、最適な選択肢を提案
「脳にセンサーを埋め込む」よりも「AIが自然に寄り添う」のでしょうね
2025/01/29