
AIで変わる検索体験のその先
GoogleとMicrosoftがAIを活用した検索エンジンを開発してます。大手企業が競争してくれるのはユーザーからするととてもありがたい。サービスレベルが上がっていく。
AI搭載検索がでてくることでユーザーの検索体験(行動)が大きく変わってくると思っています。
AIが搭載されることでこれまで単語の羅列で検索していたのが、文章で検索するようになってきます。また同時に音声での検索(指示)も増えてくると考えています。
いまはまだ日本では音声アシスタントが普及していません。
声で指示したり検索する人はまだまだ多くない様子。自分も音声で指示する経験は少なかったですが、徐々に増えてきています。
それは精度が上がってきたから。
Siriが搭載され始めたときは話しかけても「すみません、よく聞き取れませんでした」みたいな返答がきて使い物にならないし、きちんと理解しないことが多々あり使えるレベルではなかった。
しかし今はだいぶ精度があがってきている。
いまはGoogle Nest Hubを自宅ではよく使ってる。
カフェで流れてるようなおしゃれな音楽流して っていうと、それっぽいの流してくれる。
リモート中のアラーム設定(たまにミーティングの時間に気づかずに遅れちゃうので……)、プライベートな予定の登録、買い物リストは全部Nest Hubに話しかけて登録してる。
小学生の娘はYoutubeをテレビで見るときは音声検索で探す。タイピングスキルがないというのもあるけども、音声で検索するのが常識という感覚。教えていないのに普通に音声検索したときは驚いた(というか、そこでうちのテレビ音声検索できたのね……と気づいた)。
今後は音声認識機能を利用するシーン(特にIoT家電の普及)や、音声入力をネイティブとする世代が広がっていく。
スマートスピーカーがなかなか浸透してこなかったけども、今回のAI導入による新しい検索体験が増えていくことでスマートスピーカーも浸透していくと思うし、色々な機器に音声で指示する機会が増える。みんながやれば恥ずかしさもなくなるので、日本でも音声入力は浸透していく。
街中で独り言みたいに話す人が多くなりそう。
音声認識精度が上がりAIで適切な回答もできるようになっていく。ちょっとしたコーチングやアドバイスくらいはできるうようになるから、プレゼン前にAIに話しかけたらフィードバックしてきたりするんだろな。
というかオンラインで商談してる相手が実はAIでしたみたいなことも。
ペッパーの会話精度上がりそうだから、ペッパーとずっと会話する人とか増えていきそうでちょっと怖いかも。。。