【動画レポ】ChatGPT Meetup Tokyo #8
今回は2024年7月11日に東京八重洲のJBCCさんで開催されたChatGPT Meetup Tokyoのイベントをレポートしたいと思います。今回はAzure OpenAI Service Dev DayのプレイベントということでOpenAIネタを中心の内容になっているようです。
オープニング
オープニングは運営の新居田さんのファシから始まります。まずは今回のChatGPT Meetup Tokyo #8 が7月25日に開催されるAzure OpenAI Service Dev Dayのプレイベントとして開催されることを紹介した後にコミュニティの紹介や今回の会場スポンサーであるJBCC株式会社さんの紹介に入ります。プレイベントとはいえOpenAI関係ネタ縛りではないようです。
そのあと会場説明とJBCCさんの紹介に入りました。JBCCさんでも生成AIの取り組みが活発で社長をいじった「AI東」などユニークな取り組みが行われているようです。
kintoneをデータソースとしたRAG開発とLangSmithによる精度評価:JBCC岡元さん
1番手はそのJBCCの社員でChatGPT Meetup登壇の常連でもある岡元さん。テーマはkintoneをデーターソースとして使ったRAG開発とその評価についての話です。
まず今回使用したkintoneの紹介からはじまります。最近話題というか現場の人が自分自身でアプリが作れるノーコードのプラットフォームでOpenAIなど他のサービスとも簡単に連携ができます。
そこで使用されているkintoneのデータをRAGにPowerAutomateを使って喰わせてみたそうです。
LLMの部分はAzure OpenAI単体ではなくLangChainの構築を支援するLang Smithを使用して構築しています。その理由なども詳しく説明されました。
LangSmithを利用すれば使用料の可視化やOpenAIのAPI呼び出しのトレースなどもできてリリース後のサービス改善にも有効だそうです。
A Path to Superintelligence:Jad Tarifi (Integral AI)
次はIntegral AI社のJad Tarifiさん。#6に続いての登壇です。英語でのスピーチです。(内容は翻訳ツール使ってなんとか解読しましたが、間違っていたらすみません)テーマは前回に続き現在の生成AI周辺の状況とIntegral AI社のこれからの展望について紹介されました。
テーマとしてはまだまだビジネスに適用出来るほど精度のない画像や動画を扱う生成AIの課題、そしてそれらを適切に学習させる際の課題や、その解決方法などが紹介されました。
そこからどういったユースケースで活用されるのかという話のあとコーヒーをスプーンで粉を掬うところからポットでカップにコーヒーを注いで砂糖を入れかき混ぜるまでを人間と同じような動作で行う様子が動画で示されました。続いてワインを注いだり松阪牛のステーキを焼いたりする動画に続きます。単純ですが繊細な感覚や動きを人間のようにこなすロボットに驚きました。
The Pioneer's journey on AI 〜A 10-minute dive into AI innovations and personal projects:The Pioneerさん
次はB2Bベンダーの開発者でAI個人活動家でもあるThe Pioneerさんの発表です。なんとNarakeetを使用したAI音声の発表です。AI時代に残る職業はAIへの指示、監督、メンテと考えAI時代の発表スタイルとしてこの形式をえらんだそうです。
テーマは「人工彼女プロジェクト」の話です。最初は画像系で作成した綺麗さと可愛さを両立した人工彼女の作成の話からGPTsによる彼女の人格作り、そして情報的遺伝子であるミームにより作られた人工の子供、そして自己増殖AIシステムの話にまで発展しました。
自己増殖AIシステムの「ponytAIl」は自己増殖するマルチエージェントシステムでノード間の相互作用を通じて複雑な問題解決や創造的タスクを実行できるとのことです。このプロジェクトは様々な派生技術を生んでいるものすごいプロジェクトですね。
<資料です>
生成AIを駆使してチームの開発生産性を爆上げさせる3つの秘訣:藺牟田佳佑さん
次はウルシステムズの藺牟田(いむた)さん。AIを活用した開発案件の生産性を上げるために行った取り組みの話です。
生成AIの登場により従来の人手をたくさん使って開発する手法から生成AIが自律的に連携して開発が進んでいく形に変化することが予想されますが、現状ではそこまで経っていしていなく開発者がAIとやり取りしながらレビューしていくスタイルになります。
その中でチームとして生成AIを開発のフローに取り組んで生産性を上げるために必要な3つの項目が挙げられました。
・生成AIによる自動生成箇所を定める
・要件を満たすプロンプトを作成する
・プロンプトをチーム内で共有・使用する
とてもシンプルですが大事なポイントがそれぞれ具体的に紹介されました。
大規模言語データの前処理とLLM-as-a-judgeの活用:山本雄大さん
次はNTTコミュニケーションズのフロントエンドエンジニアの山本さんによる「LLM-as-a-judge」の話です。最近まで参加していたGENIAC松尾研LLM開発プロジェクトで取り組んだお話の紹介です。
LLM開発は①データセットの整備②モデルの構築・学習③指示チューニングの3つのプロセスがありますが山本さんはデータセットの整備チームに参加されたそうです。
大規模言語コーパスが思ったよりも汚かったりしましたが、まずは定番のルールベースの前処理にHojiChar取り組みましたが、ルールベースでの前ジョリは厳しいと感じ機械学習ベースのフィルタリングに取り組んだそうです。
そこでLLM as a judgeの「Ask LLM」という手法を使用して処理を行いました。論文で示されたフィルタリングの品質が優秀で日本語データで有効性が確認できたことなどが採用の理由です。
結果として定性的にはうまく行っているようですが、広告系のテキストの扱いに迷うなど「LLMにとっての良いデータセット」の基準がまだよくわからないとか、まだまだ課題はたくさんあるそうです。
クロージング
クロージングは片付けのお願いとAzure OpenAI Service Dev Dayの紹介で終了です。
<ChatGPT Community(JP)>
ChatGPT Community(JP)のスコープについて
ChatGPTはOpenAI社が提供している大規模言語モデルを活用したサービスです。これらを活用するために、たくさんのノウハウが日々共有されているとともに、ChatGPTのような大規模言語モデルに限らず、画像や音声といったメディアまで含んだ生成系AI(ゲネレーティブAI)に関するアップデートが日々飛び交っています。
主催の吉田、新居田はふたりともソフトウェアエンジニアですが、とてもこの勢いについていこうとしながらついていけてない思いがあり、ちゃんと役立つ情報や自分が知り得た情報を他人にも教えてあげて、楽しく効率よく技術で社会に貢献していこうと考えています。
この記事が気に入ったらサポートをしてみませんか?