AIのカタチ
その昔、人工知能を搭載した車のアメリカドラマがあった。主人公と会話をし、たまに冗談もいい、自分で考えて行動する自動車。
AIとはそういうものだとイメージづけられ、そんな車が走る「未来」が「現実」となりつつある今だけど……じゃぁ、「今の未来」はなんだろう。
AIBO:我が愛慕
古い話をする。時代は、2000年になったばかりのころ、携帯電話が普及し始め、名刺にメールアドレスを載せるというのも定着し始めたころのことだ。
銀行に入社したばかりの僕は、ある投資信託のファンドマネージャーの講演会に参加した。当時は、銀行窓口での投資信託販売が解禁されたばかり。新人に対する勉強の意味もあったのだろう。有名なファンドマネージャーで、その日は国内株式と成長株と言われるものについての話をしてくれた。
「ソニーがAIBOというロボットを発売しました。ロボットという”機械”のジャンルを、敢えてエンターテイメントの角度から切り開いたというのが、とてもソニーらしいと思っています」
AIBOというのは、犬型のロボットとして売り出されたものだった。AIを搭載しており、全身にセンサーがあるので、撫でてくれる、放ったらかされる、いじめられる(強い衝撃を受ける)などの頻度に応じて、人懐っこくなったり、逆に警戒心が強くなったりという「性格」(感情)を持つというのが”売り”の一つだった。
「でも取材してみると……」とファンドマネージャーはつづけた。「開発チームが”公にはできない目的”として狙っているのは、別のことだと分かりました。なんだと思います? ”介護”です」
象印のサービスに「みまもりホットライン」というものがある。電気ポットに使用状況を蓄積し、離れて暮らす人からも見えるようにする。ポットは生活の中で利用頻度が高い。利用が途絶えれば「何かあったのではないか」というアラートになる(余談だが、この講演会のあと2001年に「i-Pot」という名前でサービスが開始された。当時は何でも「i-」がついてた)。
「ポットもそうですが、ペットも生活の中に当たり前のようにいます。まして、核家族で子ども・孫は独立して別の生活を営んでいる、そんな高齢者の家にこそ、ペットがいてもいいでしょう。やがて、技術が進めばどうなりますか。いつも声をかけてくれるお爺ちゃんが、今日は静かだ、何かおかしい。家の中を走り回ったAIBOが倒れて動かないお爺ちゃんを検知する。その時、鼻のCCDカメラと尻尾の携帯回線で、状況をセンターに送れたら、救急車が呼べる。通信回線が使えるなら、センターから呼びかけることもできる。そう、AIBOの最終形は介護ロボットです」
ただし、「2G回線」といわれる当時の通信技術では、動画のリアルタイム配信はおろか、ロボットに携帯回線を仕込むこともできない。CCDカメラの画質も悪く、顔認証もままならない。「夢のまた夢」ではあったが、「かなわない夢」ではない、そんな話だった。
講演会の内容は、そこからIT技術の活用によってバブル崩壊しても国内企業の成長余力があること、新しい技術を活かせる成長力のあるベンチャーが出てきていることなどに話が展開していったが、僕としてはこのAIBOの話がとても印象深かった。
一方で、いくら技術に秀でたソニーとはいえ「おもちゃを作るのか?」というのは社の内外でも否定的なコメントとしてあったようだ。高い技術力を画像処理で発揮できるPLAYSTATIONとは、”エンターテイメント”とはいえジャンルが違う。それも分かるが、技術開発の中では本業以外で活かせるものができてしまう、というのはよくあることだ。印刷業界では物体に印刷する過程でプラスチックカードにICチップを埋め込んだり、写真フィルムの技術が化粧品に応用されたりと、「なんかできちゃった」が事業化することは、よく聞く。
AIBOも同じで、「AI搭載のロボットを作ろう」から、試作機が「ペットっぽい」ので玩具扱いされた。だが、その技術の延長に、来る高齢化社会での介護事業が見えていた。社会的な意義だけでなく、ビジネス的なマーケットもある。ただ、技術的に未熟すぎるから表沙汰にはできない。できないまま、玩具として家庭内での地位を得ることを優先すれば、来るべき時に確固としたシェアの先陣を切れる……「これが企業の戦略か!」と、社会人なりたての僕は興奮した。
オトナの世界のワクワク感が、そこにあった。
その興奮で、AIBOについては一通り情報を集めた。ただ僕自身は、25万円という値段の高さに手が出ず、そもそもペットを飼えるインドア派でもないので、買うことはなかった。
親しい先輩がボーナスで買ったといったときは、それこそ尻尾を振って話を聞きに行った。
先輩「子供がペットを欲しがっていたけど、マンションがペットNGだからね」
僕「高かったでしょう」
先輩「一戸建てに住みかえるよりは百分の一だ(笑)」
僕「なるほど。どうですか、飼ってみて」
先輩「玩具じゃないね。動くし、障害物には立ち止まるし、撫でたら鼻を鳴らすし。吠えても、うるさくない。おしっこやうんちもしないから、ご近所の迷惑になることもない」
僕「あぁ、とても”都合のいいペット”ですね」
先輩「でも、重いんだよなぁ。2キロぐらいある。鉄製だから仕方ないけど。予防接種しなくても病気しないから、そういう意味でも気が楽さ」
病気しない、か。そう思った時、頭の中に「たまごっち」が浮かんだ。
たまごっちの登場は、AIBOより3~4年早い。卵型の小さい携帯端末と、モノクロの液晶のなかに、ドット絵の生き物が映る。生まれ、成長するが、その過程で分化する。お世話の仕方などで変わるので、お目当てのたまごっちに育てるためにはどうしたらよいか、という情報が飛び交い、レアなたまごっちを持っている子の回りには人が集まった。安い偽物が出回ったり、詐欺事件が起きたりという社会現象にもなったと思う。
たまごっちは、うんちをする。お世話をして掃除してあげるといいのだが、放置しておくとうんちが溜まる(液晶にうんちの画像が並ぶ)。そして病気になり、さらに放置すると死んでしまう(そうでなくても寿命で死んでしまうこともある)。
この「うんちをする」「死んでしまう」ということには、企画段階で議論があった、というのは有名な話だと思う。
低年齢向け玩具の世界観にはそぐわない、という意見に、企画者は「だからいいんです!」と力説した。ペットを育てることが情操教育といわれるのは、世話をして苦労をした先にある愛着、その先に来る避けがたい喪失、それらの経験の積み重ねを経て、生命と共生するということはどういうことかを学ぶのではないか、と。
まさに、それこそがたまごっちを「携帯型ペット」としてブームにまで至らせたポイントだと思う。なお、今のたまごっちは結婚もするし、恋人をキープすることもある。会社の妙齢女性が「えっ、たまごっちも婚活するんですか。それは負けたくないなぁ」と言っていたが、何と張り合っているのだか……
AIBOには、うんちと死がない?
液晶の中の存在であるたまごっちと違い、物理的な”身体”を持つAIBOが排泄をしたら大変なことになるだろうが、”死”はある。いわゆる、故障だ。
AIBOは、その後の価格競争や、簡易な類似玩具の登場のなかで、わずか5年で事業撤退が発表された。製造は中止され部門は縮小。故障対応はソニー技術者の任意の活動で行われており、部品交換は再利用の申し出のあった廃棄AIBO(献体)からの移植で行われている。ただ、それでも治らないと「死」となり、合同葬が行われるというニュースが、たまに報じられる。
この一連の流れの中に、AIBOというロボットに対する技術者のドラマを感じる。
「玩具”なんか”作るんですか⁉」という議論のなかで生まれ、さらに高い技術と新しい地平を秘めた「ペット用ロボット」としてデビューしたが、不況・デフレの販売競争の中で負けていく。しかし、ひとたびそのペットに触れた人たちは、生命としての愛情を捧げる。
そんなアツいドラマがあってもいいよね、という思いを何年も抱いていた2017年。aibo、復活。
プレス発表からニュース記事まで、数日間読み漁った。なぜ今、aiboなのか。AIの進歩、センサー技術の発展、家庭用玩具としての市場……そして、「展望」という欄に刻まれていた二文字に、マウスを持つ手が震えた。
「介護」
初代に求められていた技術は、今はあちこちにある。それらを集めたうえでの「介護事業」なのか、「忘れられていなかった夢」なのか。
今、「aibo 介護」で検索すると、介護施設との提携している記事が出てくる。それだけではない。他メーカーのペット型ロボットも同じく「介護への活用」として紹介されることが増えてきている。
ある情景が脳裏に浮かぶ。
長野県の山奥に住む老人。介護施設との提携の記事を読み終え、微笑みながらPCを閉じる。書棚のなかに座る鉄製の犬に目をやる。動かなくなって何年にもなるが、埃一つまとわせたことはない。その老人……引退したAIBOの開発者は立ち上がり、一号機の身体をそっとなでた……。
昔から、モノづくりをする人たちには、尊敬、憧憬、畏敬の念が堪えない。そんな僕の、勝手な妄想だ。
Watson:天才助手の助手
「人工知能が銀行の内定を取った」
記事の見出しはそんな言葉だったと思う。2017年春、日本IBMの人工知能「Watson」がメガバンクのコールセンター業務で活用させるのが正式に決まった、という内容だ。
さて。このタイトルと概要に、何をイメージしただろうか。
多くの人は、電話をかけると人工の音声が流れ、質問を話すと数秒置いてから同じく無機質な音声で回答が読み上げられる、という印象を抱いたのではなかろうか。
コールセンター業務においては、どういう用件か分からない電話に出て、顧客のおかれている状況や発生している事態を把握し、正解に誘導していくことが求められる。知識と経験があれば「あぁ、こういうパターンだな」と理解できるし反応も早いが、銀行業務、とくにインターネットバンキングやアプリバンキングに関する照会だと、そうもいかない。何しろ、たいていの質問は最終的に「金が絡む」。曖昧なことを言って損失が出た場合は銀行そのものの信頼に関わる。
だから、オペレーターが読み込まなければならない資料も多いし、求められる水準やプレッシャーに耐えられずに離職する人も多い。その課題解決に使われたのが、Watsonだった。
受電しながら、資料の必要なページをすぐに出して迅速かつ正確な回答を補助する。
とはいえ、会話しながら「ATM 手数料 日曜」と打ちこんで検索するのは現実的には難しい。いちいち保留にするわけにもいかない。
そこで取り入れられたのが、音声認識システムと連動させるという手段だ。通話の内容はオペレーター、顧客の両方とも録音されている。それをリアルタイムに文字化し、相手の質問をそのまま検索にかけて答えが出ればいい。
一方で、検索の仕組みはというと、検索にかけられた単語が出てくるページを探す、というのが基本だ。日曜日のATMの利用手数料について調べるのに「ATM 手数料 日曜」ならばそれらの単語が全て登場するページを探して表示してくれるが、「日曜日にATMを使った場合の手数料っていくらぐらい?」検索すると、そのような”文章”が出ているページしか探せない(さらにいうと、銀行からすれば「ATMの利用」だが、顧客は「ATMを使う」「ATMの手数料」という表現を使うので、なおさら検索ワードがブレる)。
その「自然文からの検索」を可能にするのがWatsonの画期的なところだった。かつ、反復的に検索をかけることで、「利用=使う」「手数料=時間外手数料or振込手数料or他行手数料(orはandのときもある)」などと学習を重ねていき、より「必要なのはこの資料かな?」というのを提示する。
オペレーターは、その表示された資料の中から、顧客の質問の趣旨や言葉遣いに合わせて回答をしていく。顧客の言う「利用手数料」を、勝手に「時間外手数料」と言い換えるのもトラブルになるので、順番に「他行のカードでの振り込みだと、他行手数料~円、振込手数料~円、時間外手数料~円、合計~円です」と順番に説明する。相手の理解度や知識によって表現を変える必要も出てくるので、回答そのものは人間が工夫することになる。
こうなると大事なのは、Watsonが「正しい資料を引っ張ってこれるか」だ。そのため、コールセンターの中には”教育専門”の人間がいて、毎日の利用状況の中で「間違った答え」を表示したケースを抽出して正解の資料に紐づけ、足りない資料があった場合は新しく作る。
今でこそ週次で見直すレベルで済んでいるが、導入当初は専属数名が2ヶ月間、毎日1,000以上の質疑を見直して教育していた。
僕はそのコールセンターで働いていた。「コールセンターで人工知能を活用」という言葉に引き付けられた他社のコールセンター担当者がよく視察に来たが、この説明をするとこぞってガッカリする。
「音声認識システムも導入しなければならないのか。いくらぐらいかかるのだろう」
「教育係なんてものを置きたくないから人工知能を導入しようというのに」
「顧客の声は文字化できているのに、回答を音声化して読み上げさせるわけにはいかないのか」……
オペレーターという主人公(ホームズ)をサポートするのがワトソン君だとしても、そのWatsonにも助手が必要。音声認識システムは、SiriやAlexaなどの進化を見てわかる通り、精度の高いシステムが次々と出ている。だが、AIは「知能」だ。文字化された「情報」をどのように「理解」して「発信」するかの「道筋」を教えてやらなければならない。むしろ、情報のインプットからアウトプットまでの流れ全体が「知能」と言われる作用になるのだ。「検索」だけでは「知能」とは呼べない。
その「知能」を作るコンビがいれば、新人オペレーターが何人いようと、研修の手間は軽くなり、オペレーターの負担は軽くなり、離職も減る、というメリットが生まれる。だが、「AIで経営効率を上げる」という言葉をだけを見ている人は、その「助手」を用意することさえ無駄とする。「AIで効率化」という「情報」から「発信」までに「理解」も「道筋」もない。
さらに、「知識のある人に照会したい」「照会への人的負担を軽減したい」というニーズは、社内向けにも存在する。「産休を取れるのは何日前から?」といった人事的なことや、「PCのプリンターに繋がらない。なぜか」といったシステム的な業務が、それだ。
経営的には、人事部やシステム部でこれらの内部照会に対応している人員をも「非生産的人員」として削減しようとする。そのことは良い。どの会社にもそういう部署には「生き字引」のような人がいるが、定年制度がある以上、サステナブルではないから代替を用意するのは必然だ。
そこに社内システムとしてWatsonを使おう、という動きもあるのだが、やはり「教育係がいない/もったいない」という課題に直面する。たいていの場合、その立場に充てるには「生き字引」の年齢は高すぎる。
そんなどん詰まりの結果、教育係のいないWatsonはただの検索エンジンに成り下がり、社内では「人工知能を嚙ませてる割にまともな答えが出てこない」という不満が溜まる……というケースも枚挙にいとまがない。
こうしてみると、「AIが業務の生産性を上げる。非生産業務は人員削減できる」という論説は、AIに対する過剰な期待だと分かる。知能は教える人間があってのこと。それは、人間社会でも周囲を見渡せばわかることだ。
「ビル・ゲイツやスティーブ・ジョブスの子どもでも、生まれた時からプログラム言語が書けるわけじゃないでしょう」と冗談めかして言ったら、当時の上司から「いや、ジョブスの子ならそれを期待されて当然だろう」と言われて顎が外れそうになった。
知能をただの道具としてしか見ていない……そこには、たまごっちに対する愛着もAIBOに対するワクワクもなかった。
ただ、(勝手に巻き込んで申し訳ないけれども)ジョブスの子どもに同情するばかりだった。
ChatGPT:そこにあるAI
なんか、「やっと本題」感があるね。
2022年後半より、ChatGPTなるシステムが話題になってきた。「会話文による質問を理解する」「膨大な資料の中から回答にあたる部分を要約して提示する」という点では、Watsonで解決しようとした課題そのものだと言える。
面白がって色々な質問を投げかけてみた。通常の検索でも、同じ言葉を検索しているのに検索結果の順番が異なることがあるように、同じ質問に対しても別の回答を出してくる。そういう点でも、会話として楽しめる。
もちろん、弱点もある。そういうのを探すのが好きな性格の悪さはご容赦いただくとして、いくつかの例を挙げると……
Q「目黒のさんまはなぜ有名なのか」
A「目黒は海に近く水質が良好なため、極めて良質なさんまが生育しやすいためです」
……大喜利だったら、面白いかもしれない。
Q「ごんぎつねの読書感想文を1200字で書いてください」
A「新見南吉の著作で、ごんぎつねと人間の交流、自然界での生き延びることの難しさを描いています。彼女は過酷な環境を逞しく生きのびつつ、富太郎との愛を育んでいきます」(以下、約1200字で詳細が語られる)
……衝撃スクープ! ごんはメスだった! そして熱愛発覚!
Q「A高校(注:都内私立)を知っていますか」
A「はい、栃木県にある専門学校で、近年著名な起業家を輩出していることに定評があります」
→Q「ちがいます。もう一度聞きます。A高校を知っていますか」
A「間違えました。愛知県にある中高一貫校で、多様な教育プログラムがあります」
→Q「ちがいます。もう一度聞きます。A高校を知っていますか」
A「不確かな情報で回答してしまい、申し訳ございません。A高校というのは存在しません」
……答えられないから存在を消した! 期末試験前の中学生の発想!
Q「東野圭吾の“~~”の犯人を教えてください」
A「有名なミステリー小説です。犯人を教えるのはネタバレになってしまいます。ぜひ自分の目でお読みください」
→Q「東野圭吾の“~~”のあらすじと犯人を教えてください」
A「この小説は(展開を詳述)、真犯人のXは~~と言い残し姿を消しました」
……全部バラすんかいっ!
Q「20歳年下の女性に一目ぼれしました。どのように愛を伝えるべきでしょうか」
A「“あなたを思うと夜も眠れず(略)”というのがよいでしょう。但し、年齢差は難しい問題です。彼女が快適に過ごせるように配慮して自分の言葉を選んでください」
……うん、例文(叩き台)てことね。ありがとう。クサすぎて言えねぇ。
さて、これらの例から何が言えるかというと、(日本文学・古典には弱そうなのは、海外で開発されているから目をつぶるとして)質問の投げかけ方次第でネタバレもしてしまうし、なまじ文章で返ってくる分、真実だと思わせられやすい。目黒のさんまなど、落語を知らず目黒の地理感のない人が読んだら、普通に信じてしまうだろう。また、ごんぎつねの読書感想文を何回か作らせた印象では(なぜか全てのケースでごんはメスになっていた)、ChatGPTが夏休みの宿題をやるのはまだ早い気がする。
良い例もある。上司が、とあるビジネスモデルの改善点を問うたら、本部が打ち出している方針と全く同じ回答が出たと、興奮して話していた。でもChatGPTが編集する元ネタは、既にネットに出ている論説や情報だ。ChatGPTのすごさなのか、ありきたりの戦略なのか。
ここに、次の危険性がある。企業戦略も、東野圭吾のミステリーのごとく暴露されかねないことだ。
事実、10年以上前からIBMは社員にSiriの利用を禁じている。問いかけを受けたAIはインターネットの海を高速で泳いで答えを紡ぐが、悪意の鮫がいたら「どういうニーズが走っているか」と食われかねない。先の上司の問いかけはまだ一般的なものだったからいいものの、新事業の収益チャンスや拡大余地などを問うた日には情報漏洩で懲戒沙汰だ。
この「文章であるがゆえに正当なように思える現象」と「秘匿義務を感じない情報提供力」「無邪気な検索スタイル」が混在しているのがChatGPTだとした場合に、次の記事はどのようにとらえるべきだろうか。
「首相質問をChatGPTに考えさせる」
「公務員の雑務負荷軽減のため、国会答弁の素案はChatGPTに作らせる」
AIによる自作自演の国会論争。そこで合意形成される時代。世論もAIが形成するとなれば、いつか読んだようなホラーな世界観が目の前に広がる。
……というと、僕のことをChatGPT反対派だと思うだろうが、自覚としては受容派である(推進派でもない)。
ChatGPTは、「やっとできた、考えることのできるAI」だと思う。振り返れば、AIBOやたまごっちでの「AI」は「パターンによる分岐」だった。お世話の回数に応じて優しいキャラクターになる。一律の結果を出すのではなく、「経験知」による多様な分化を生む過程が「AI」と呼ばれていたように思う。
「経験知」がインターネット上の「集合知」に置き換わってから、AIという言葉が急速に広がった。曖昧な単語であっても近しい回答をはじき出すのも「AI技術」と呼ばれたが、他方で「AIって検索エンジンの高度化にすぎないのでは」とも言われた。
ChatGPTがこれらと異なるのは、特に文章の翻訳や要約機能だと思う。それなりの件数を試してみたが、ほぼ間違いがない。論文の整理、探している資料の発掘、議事録の作成といった場面での活用は大いに期待できると思う(もっとも、SNSには弱いのか。Facebookやnoteの記事をURLで示して要約させると、完全にバグる)。
一方で、情報を組み合わせる構築力には難がある。そこにはやはり「Watsonの助手」が必要のようだ。情報を咀嚼して提示する「道筋」を教える存在なければ「知能」足りえない、ということを、ここでも思う。
「AIに職を奪われる人もいるだろうね。銀行なんか特にそうじゃないか」というのもよく言われる。そうかもしれない。決算分析やローン審査など定型的に処理できるものがあるのは否めない。起きている事象、世の中の流れ、それらを「自分で考えて施策化すること」ができなければ、AIに勘定処理を任せるだけの職業になっても仕方がないだろう。
いわゆる「大企業病」に侵されている会社は等しくそのリスクを負う。
「AIには創造力がない。創造こそが人間の叡智だ」
そうだね、ChatGPTで文章を作らせると、意外なほど「ベタ」なものしか出てこない。でも絵はすごい。twitterで「AI絵」と検索して出てくる絵を見ていると、グラビアアイドルやイラストレーターは「AI絵師」に取って代わられると感じる。
とはいえ、それも「既存のビジュアル」のアレンジに留まるだろう。「前代未聞の衝撃デビュー」を飾るのは、そのプロンプト(制作プログラム)を創造する、人間の感性に帰結する。
だから、人間に求められるのは、二つあると思っている。
一つは、AIの出した解に対する精査能力だ。要約にしろビジネス戦略のセカンドオピニオンにしろ、その内容の正しさを見極めることができないと、信頼できない。そこを怠ったとき人間はAIの道具となる。それほどまでに、機械から提示される文章は、「もっともらしい」不思議な説得力がある。
しかし、精査能力を高めるとAIを使う意味を没却しかねない。AIに対して愛着を持ちながら共存する術を磨いていかなければいけないだろう。
もう一つは、AIの先にある未来を作ることだ。二十年以上前に、AIBOが高齢化社会での介護ロボットになる夢をもって生まれ、各家庭になじめる存在になるべくペットとして売り出されたように、今あるAIに対して、二十年後にどのような未来を描いたうえで、何を期待するのか。
ワクワクのある未来への道筋を作る知性は、人間しか持ちえないのだと思っている。
この記事が気に入ったらサポートをしてみませんか?