【セミナーレポート】Generative AIの最新トレンド徹底解説ウェビナーvol.7
2023年5月9日、株式会社デジタルレシピが毎月開催している大好評オンラインセミナー『Generative AIの最新トレンド徹底解説ウェビナーvol.7』にて、AI生成コンテンツの最新情報を交えた活用事例などが紹介されました。
今回は、当日に参加できなかった方向けに、セミナーの内容を抜粋してご紹介します。
登壇者プロフィール
直近1ヶ月で起こっている、3つのトピックについて解説
今月(2023年5月)、直近1ヶ月で起こった中で世界的に話題になっていた3つのトピックについて解説したいと思います。
先月も少し解説しましたが、AI倫理がかなりセンシティブになってきたというところと、急成長中の市場について。現状はほぼ医療系のみがひたすら伸びてきたところだと思いますが、そこについてとAIクローンに関する実験がかなり増えてきているので、その3つを詳しくお話します。
1. AI倫理の加熱
■宗教からの警告
先月は宗教関連のところから、特にカトリック系のローマ教会や、ユダヤ教、イスラム教という三大一神教が共同でMicrosoftやIBMに対して、今月の1月にAI開発に関する警告文、人間中心のAIを作るよう要望を提出しました。
そういった意味で、宗教的な面からの警戒心が強まっているところが、まずは大きなトピックです。
以前、イタリアがGPTのプライバシーを理由にChatGPTの停止をしたという流れがありましたが、もしかしたらイタリアとローマ教会が近いからではないかということは、よく海外のニュースでは言われています。
■EUがAIプライバシー法案の追加検討
元々、イタリアがChatGPTを禁止した背景には、EUで設けられているGDPR(General Data Protection Regulation)というプライバシー保護規則があります。
Google広告などでヨーロッパで訴訟が起きていたり、cookie周りの制限が強くなってきたというのが、3、4年前からかなり盛り上がっていたと思いますが、それ関連のプライバシールールのところです。
そのGDPRの範疇で、ChatGPTは要件を満たしていないという理由が、イタリアが禁止した背景で、同時にドイツ、フランス、スペイン辺りも同様にChatGPTの規制に関して議論され始めているというのが、ヨーロッパの状況です。
ヨーロッパのプライバシー周り法案が、いよいよ5月11日に具体的な法案が提出され、5月24日に施行されるのではないかと言われているように、EUはプライバシーに関してはかなりディフェンシブ、保守的な態度を取っている流れがあります。
一方、EUから離脱したイギリスは反面、首相が明確に「AIに積極的に投資していく、かつ、ヨーロッパで言われているようなAIによる失業率が上がるということはありえない」と断言しているくらい、イギリスはヨーロッパの中では異質なほど、AIに対して積極的になり始めています。国際的にみると、”AIを積極的に活用していく”と宣言している主要国は3ヶ国で、イギリス、インド、日本が比較的積極的と言われています。また、スペインやポルトガルは同様にEUですが、あまり動きがないというのが現状です。
■アメリカもAI法案が検討される
一方で、アメリカではゴールデンウィークに入る前からテック業界では騒がれ始めており、様々なAIに関する法案を出そうとする流れがあります。
例えば、現状有力と言われているのが「AIタスクフォース」というAIの使用範囲を明確に定義し、それ以外を制限するルールを作る動きがかなり強いです。
テック業界だと、MLMルールというものがあり、機械学習のルールの法案を出そうとなっていて、それが通ってしまうとアメリカのAI開発やイノベーションが遅れてしまうという話がアメリカでは盛り上がっている現状です。OpenAIなどで盛り上がっている一方で、過熱しすぎて様々なところから突かれ始めているというところです。
■サム・アルトマンが「AIは大金を生むか世界を終わらすかのどちらか」と発言
Googleに所属していた、有名なAI研究家の方がGoogleを退職し、その退職理由が話題になっていましたが、その内容が「Googleを退職して10年間AIの研究をしない、なぜならこのまま研究が進めば人類にとってかなり脅威になる。」という発言です。
また、Googleが中国と一緒にAIの研究をしていることに対して、かなり強めの口調で批判している状況で、アメリカではAI推進派と保守派が分断してしまっているというところが、直近のAI倫理の流れです。
分断に拍車を掛けているのが、サム・アルトマンがメディアでの発言で「AIは世界を終わらせるか、大金を生むかどちらか」という発言が切り取られ、バズってしまっている状況があり、AIは長期的に見れば人類にとってかなり大きな恩恵をもたらすものの、短期的に見るとコントロール不能な部分が多い、そのような成長をしていくだろうという言い方をしているのもあり、アメリカではAIの急速な成長に対して脅威を持っている論調がかなり増えてきたというところです。一方、日本ではアメリカほどではなく、OpenAIのサム・アルトマンが来日し盛り上げていこうという流れになっているのが日本の現状かなと思います。
■現状はネガティブな話題が中心
3月から4月半ばにかけてGPT-4がリリースされたことによる、ポジティブな話題がかなり多かったですが、それ以降から現在はこういったAI倫理のことがAI関連ニュースの大半を占めてきています。前半はポジティブで後半はネガティブな話題で埋め尽くされている空気感があるのが直近の動きになります。
2. 急成長中の市場
■GPT-4以降、成長していないスタートアップ
ユニコーン企業と言われる、1,000億円以上の時価総額で調達しているAIスタートアップも、1月に入ってからまだ4社しかでていない状態です。
ChatGPTやOpenAIの動きが広範囲すぎるので、スタートアップもどこに張るべきかというのを迷っているような状況が続いているのか、あまりOpenAI以外で目立ったプロダクトの話題がここ1ヶ月はなかったというのが、時代の新しい流れを感じます。
■成長する医療AI
一方、伸びているところはどこかというと、医療AIに関しては積極的に伸びている印象があります。
まず、Githubのプロジェクトで言えば医療診断系のbotがめちゃくちゃ増えてきています。例えば、「こういう症状なんですがどうしたらいいですか?」みたいな、本当にお医者さんの代わりとして診断するというbotがあったりします。
■教育業界の流れ
AIが大きくディスラプトすると言われているのが教育業界なんですが、教育業界の中でもかなり医学系に寄っている教育分野が、今急速にAIが入り、実績を出し始めているというのが、ここ1ヶ月くらいの流れです。
教育業界についてはAIの打撃を既に受けている状態で、アメリカで教育系事業で上場している会社が株価急落しました。原因に関して、「AIのせい」ということを言っていたり、AIが原因で教育産業はポジティブな面もありつつ、これまでのスタイルでしっかり伸ばしてきた企業に対してはネガティブな反応が世間的に出てきている状況です。
■医療系botの効果
医療botの効果ってそんなにあるの?というところだと、実はある、という研究結果も出ています。オンライン診療の患者と、医師の質疑応答のQ&Aと、GPT-4によるその患者との質疑応答というのを、集めた医療の専門家パネリストへランダムに、「どの回答の方が適切ですか?」という”患者にとっても医学的にもどちらが適切か”という実験を行ったところ、79%の確率でパネリストは、「医師よりもGPT-4を選んだ」という結果がでています。
専門家の視点から見ても、GPT-4が医師よりも良いアドバイスをするということを、実質証明したということになります。これが結構衝撃で、GPT-4は元々精度は高いんですが、弁護士や医師などの専門領域、対象者に合わせた柔軟な回答というところはまだ出来ないという評価を得ていたんですが、この実験によってほぼ覆されたというのがかなり大きいと思います。
■今後の流れについて
広範囲な知識が必要な質疑応答の成果が出たということは、もう弁護士などのアドバイザーやコンサルティングみたいなものです。これを踏まえて、同じような結果がたくさん出てくるんだろうなというのは容易に想像できます。例えば人材やIPなどの様々なセグメントにコンサルティングはありますが、そういった部分に対して今回の結果のようなことが多く使えてくると思います。
もう一つ話題になっていましたが、fMRIと言われる脳波から画像として表示するものがあり、そのMRIのデータからGPT-4にその人間の思考を解読させたところ、82%の精度で正しかった。という実験結果も出ています。これは実質ブレインインターフェースのようなものに近づいてきているんじゃないかという風にも言われています。
このような、思考をGPTやAIを通して具現化するという流れは、意外とChatGPTのように急に来るのではと思わせるくらいに、急速に発展していく分野のように思います。
3. AIクローンに関する実験
■現状のAIクローンについて
ウォール・ストリートジャーナルの記者が「Synthesia」という人間のクローンを作れるツールを使って自分のクローンを作る実験が話題になっていました。
VTuberにも通じると思いますが、例えば自分が話している時に3Dのキャラクターが動くというような、音声合成、AI、GPT-4との組み合わせで自分のクローンを作り、電話対応やTikTokの作成、メールの返信、記事の作成など、記者が行っているような仕事を全てAIクローンに任せてみたらどうなるのか、という内容です。
結果から言うと、まだまだ「私の分身にはなれない」ということでした。限界があるという風に表現をしており、電話対応でもスピードが遅かったり、ちぐはぐなことを言ってしまうということがあったと。処理速度で言うと、アメリカでもAI電話がかなり進んでいて、まだビジネスとしては発展できていないものの、応答速度さえ解決できれば案外普及するのではとも思っています。
■AIクローンはChatGPTでも作れる
AIクローンの作成に関しては弊社も取り組みを始めており、AIひろゆきもそうですし、今発売中の「AIが答えの出ない問題に答えてみた」にもありますが、聖徳太子やナポレオン、アリストテレスをGPT-3でファインチューニングとエンベッディングしたもので、結構人間っぽく質疑応答できるようになっています。
他の例で言うと、弊社CTOのクローンを丁度作っていて、どういったプロセスだと「人格が一番精度高く作れるか」という実験をしています。案外、その人の過去のSlackのやり取りや、Google meetやZoomなどの音声情報をWhisperなどで書き起こした上で、そのテキスト情報を学習データとして与えるやり方がよかったです。
これまでの質疑応答の情報を入れた方が精度上がるかと思ったんですが、いろいろ試したら結果、発話情報よりも、パーソナリティの情報を大量に与える方がその人っぽくなりました。例えば、基本情報というのが年齢、性別、出身地や趣味嗜好、どのような性格で声のトーンはどのくらいといったその人の人となりを2,000~3,000文字程度のテキストにまとめて、ChatGPTに整理しろ、という風にまとめ上げました。
そうすると綺麗にテーブル化してくれるんですが、それに対して「あなたは心理学者です」とか「あなたは精神科医です」など、GPT側にキャラクターを与えます。(ACTベース)
その状態で、いろいろな視点から分類するということをさせました。それぞれのキャラクターの観点で、「こういう性格です」と出されたものを一度統合して、その情報をベースに、「あなたはデジタルレシピCTOの〇〇です、あなたはこういう性格です」という情報を渡して、その上で「最後にあなたの人となりを知るために最適な質問を30個して、かつその回答を3パターン作ってください」みたいに、大量の質問とそれに対する3パターンの回答を、その人になりきってChatGPT側にやってもらうんですね。
それぞれの3パターンの中から、一番その人っぽかった回答を自分で選び、最終的にあなたはこういった質疑応答をしました、という情報からいざそのクローンに対して質問をすると、かなりその人っぽく回答できます。その人の必要な性格を、第三者が大量に用意して、それをいろんな視点で解釈させてそこから人格を作るというのは結構質の高いAIクローンが出来上がったということがあり、共有しました。
まとめ
AI倫理の過熱によって、EU各国でChatGPTの規制に関して議論されており、アメリカもルール作りが進んでいるが現状脅威論も出てきているなど、ネガティブなニュースが多い状況。
最近は特に医療系AIが積極的に成長しており、GPT-4の進化により、専門領域や対象者に合わせた柔軟な回答が出来るようになったことで、この成果が他の業界にも使われてくる流れがある。
AIクローンはまだ発展途上ではあるが、ChatGPTでも既に精度の高いクローンは作ることが可能。細かな課題が解決すれば急速に発展する分野である。
参加者から寄せられた感想のご紹介
株式会社デジタルレシピのウェビナーの参加はこちらから!
Podcastも配信しています!
デジタルレシピの最新情報はこちらから。