見出し画像

リモ研 池田さんとディスカッションを開催しました!

こんにちは。言語理解研究所(以下、ILU)の広報部です。

2025年1月15日、ILU社内で株式会社Workstyle Evolution 代表取締役CEO 池田朋弘さんをお招きしたディスカッションを、オンラインで開催しました。
池田さんは、弊社CMO(事業開発責任者)芳賀が登壇した「生成AIサミット」の主催である株式会社Workstyle Evolution 代表取締役CEOをなさっていらっしゃいます。
今回は、そのご縁でディスカッションの開催が実現しました。

池田朋弘(Ikeda Tomohiro)                *敬称略
株式会社Workstyle Evolution 代表取締役CEO。
ChatGPTや最新AI・リモートワーク系ツールなど、リモート時代に必要なツール・ノウハウをわかりやすく学べるYouTubeチャンネル「リモートワーク研究所【リモ研】」を運営されています。
● YouTubeチャンネル:https://www.youtube.com/@remote-work
● note:https://note.com/popinsight_ikeda
● X(旧Twitter):https://x.com/pop_ikeda?mx=2

1時間という限られた時間でしたが、池田さんの注目する生成AIトレンドや活用方法に関して、ILUの質問を交えながらやり取りが進みます。
ILUからは特に「データ構造化ソリューション」に関係するRAGやSLMについての質問が多くあがりました。

ILU:ILUは企業内データを業務に活用するRAGの精度向上を目指していますが、今後のRAG活用の見通しはいかがでしょうか。

池田さん:今後もトレンドになると思います。
RAGを使った自社データの活用が進み、これまでデータ化されていなかった社内の知見がデータ化される。
AIChatやRAGを使ったAIの入り口を作ることによって、データを共有する。

そうですね、AIエージェントと一緒に連動して動くエージェンティックRAGとか。エージェントが処理するところがRAG的になっている。
単体のデータベースや処理機能ではなく、AIと連動して、判断しながらインテリジェントに動く。
これがこの先、進化するのではと。

ILU:小規模言語モデル(SLM)も案件が増えていますよね。

池田さん:小規模言語モデルはオンプレとかローカル環境で使えるので、セキュリティ基準を満たしやすい。あとはファインチューニングとかカスタマイズをすることによって、特定のタスクに特化したものも作れます。
個別タスクに特化した専用AIモデルを動かす。
この部分は進むのではと予想しています。
ただBtoBニッチでハードルが高めなので、新人が入りにくい領域ではあります。

ILU:ILUも力を入れて取り組みたい分野です。では企業がAIを導入する際、最も重要な課題はなんだと思いますか?

池田さん:まず成果が出る事例に向けて導入するのがいいと思います。
PwC Japanグループの出した日本とアメリカの生成AI活用実態調査によれば、導入に際して期待を上回る効果を感じているかについて、アメリカは効果を実感しているが、日本は実感していない。

【参考データ】
PwC Japanグループ「生成AIに関する実態調査2024 春 米国との比較」

これは、日本では全社導入が多いからだと思います。
アメリカは全社導入よりも、部署導入の方が多いんです。
部署導入だと、使うべきシーンが明確で結果が分かりやすいですよね。業務特化した方が成果が出やすいです。
リソースのバランスに対する優先度が課題でしょうか。

ILU:部署導入ですか。なるほど。
ILUがいただく案件でも特定業務に関するデータを前処理したいなど、部署に特化したものが多いです。たとえば、PDFの画像で保存された契約書ファイルから正確に文章を読み取るとか。

現状、生成AIを使った表やグラフの解析精度はどうでしょうか。
ILUではAI-OCRを利用した文書解析結果に対して、欠落や誤りを正すデータ処理を加えていますが…

池田さん:Claudeは、PDFをアップロードすると画像認識する形でPDFを見るビジュアルPDFの機能が付き、その精度は高いです。
ただ1行目が見出しで、あとはずっとデータが続くような綺麗な表やグラフに限定されますね。そうじゃないデータも多いので、精度が出るまで時間がかかるのではと思います。

ChatGPT o1のデモでは、手書きで書かれている文字を画像認識して間違いを指摘していました。AI-OCRだけを使うときよりも、解釈して判断できるようになっています。
ただやはり多くの場合、RAGの前処理はここで躓いているので課題はあります。

ILU:やはり生成AIの出した結果を補正する処理はまだまだ不可欠である、と。
さきほどo1の話がでましたが、o1を利用するには月額$200(年間36万:Proプラン)かかりますよね。使用すればお客さまに提供するAIソリューションの価格もあがりそうですが、価格が上がった場合でもお客さまは生成AIを使用したいと思うでしょうか。
生成AIを使うより、人間が作業する方が費用が抑えられると感じるお客さまもいらっしゃるかもしれません。

池田さん:成果対コストで考えればいいと思います。
必要なところで適切に高いモデルを使って、使わなくていいところは別のモデルを使う。プロセスの中のタスクを考えて、適切に生成AIのモデルを組み合わせることが重要だと思います。

ILU:お客さまに合わせた生成AIの使い分けが必要になりますね。

さらにこの後、生成AIをどう使い分けるかという話に進み、ChatGPTは日英、英日翻訳に強く、Claudeは日本語の出力に強い。Geminiは表や図の認識に強いよね、といったそれぞれの使用感もでてきました。
また、機械翻訳ソリューションの関係者からは以下のような質問も。

ILU:ハルシネーションを抑えるための工夫や裏技があれば教えてください。

池田さん:生成AIも、種類によってはハルシネーションが起こりにくいので、使い分けが大事だと思います。
たとえば検索エンジン連動のPerplexity(パープレキシティ)などを使うとハルシネーションは起こりにくいですね。
ただ、元になったサイトの情報自体が間違っていることもあるので、ファクトチェックは重要です。
Perplexityにはスペースという機能があるので、そこで入力した文や画像に対してファクトチェックするというプロンプトを作っておき、二重チェックをすることが可能です。


実は先日、弊社代表の樫地が書いた記事「「SLMとRAGの違い」 について「ChatGPT Search」に書かせてみました」内で使用したファクトチェックのプロンプトも池田さんに教えていただきました。

こちらがPerplexity(パープレキシティ)日本初の入門書!
「Perplexity 最強のAI検索術」池田朋弘・著


他にも日本語特化LLMを使うメリットに関する質疑応答や、AI-OCRに関する質疑応答などを行い、あっという間に予定時間が終了。
データ構造化ソリューションを用いてRAG精度向上を行うILUのみならず、社内文書の生成AI活用を進める企業にとって、ヒントになる話をたくさん伺えました。
参加者一同、新しい視点と知識を得ることができた時間でした。
池田さん、このたびは貴重な機会をいただき、ありがとうございました!