
「生成 AI 論文をわいわい読む会」 を開催しました!
皆様、こんにちは。 GDG Tokyo Organizerの Naoya です。この度、「生成 AI 論文をわいわい読む会」を 2025年1月28日に開催しましたので、ご報告いたします。
本イベントは、LLM(大規模言語モデル)や生成AIに関する最新の論文を読んで、参加者同士でわいわい議論することを目的としたイベントでした。普段から論文をよく読む方だけではなく、技術やAIに興味があるが普段論文を読まない方もターゲットとして開催しました。
過去に TensorFlow User Group Tokyo (TFUG) において、機械学習に関する論文を読むイベントが行われていました。当時の運営メンバーである おおたまん さんから、 GDG Tokyo でも同様のイベントをできないかと提案いただき、今回のイベントが実現しました。今回は「LLM (大規模言語モデル) 」をテーマに5本の論文の紹介があり、参加者にとって基礎から推論まで幅広い分野の知識を深める一晩となりました。
開催概要
日時: 2025年1月28日(火)19:00-21:30
会場: Google 渋谷オフィス
参加者数: 約30名 (運営関係者含む)
テーマ: LLM (大規模言語モデル)
発表: 一般枠 (20分) 3件、ゆるふわ枠 (10分) 2件
今回紹介された論文と登壇資料
A Van Den Oord, et. al., “Neural discrete representation learning”, NeurIPS, 2017
発表者: なかい さん (@enakai00)
R. Zheng, Z. Wu, H. Lin, “Post-training LLMs: From Algorithm to Training Infrastructure,” NeurIPS, 2024
発表者: Junichiro Takahashi さん (@Takanas0517)
B. Jin, et. al., “Long-Context LLMs Meet RAG: Overcoming Challenges for Long Inputs in RAG,” CoRR, 2024
S. Hassani, et al., "Rethinking Legal Compliance Automation: Opportunities with Large Language Models," IEEE RE, 2024
発表者: Ken5scal さん (@ken5scal)
C. Snell, et al., "Scaling LLM Test-Time Compute Optimally can be More Effective than Scaling Model Parameters," CoRR, 2024
イベントのハイライト
トップバッターとして、ゆるふわ枠の Ken5scal さんが “Rethinking Legal Compliance Automation: Opportunities with Large Language Models” という、LLMを活用したコンプライアンスの分析手法に関する論文を紹介してくださいました。データ処理契約 (DPA) のGDPRへの準拠を自動的に評価するタスクを例に、LLMを活用することでより広範な文脈を考慮した分析を行い、分類や情報抽出だけではなく、説明や根拠を提示することができるエンドツーエンドな分析戦略を提案した研究です。セキュリティをバックグラウンドとして持つKen5scalさんが、背景や法的文書というドメインの難しさ、そして手法の特徴をわかりやすく解説してくださいました。
Ken5scal さん @ken5scal による「Rethinking Legal Compliance Automation:
— GDG Tokyo (@gdgtokyo) January 28, 2025
Opportunities with Large Language Models」の紹介です。#gdgtokyo #genaiwaiwai pic.twitter.com/yWqmq3dRhC
次に、一般枠でなかいさんが “Neural discrete representation learning” という、2017年に VQ-VAE のアイデアを最初に提案した有名な論文を紹介してくださいました。 機械学習分野の急速な進歩に伴い、大量の論文が日々発表される中で、ランドマークとなるような有名な論文を改めて読み、論文を読む面白さを伝えてくださいました。
なかい さん @enakai00 による「Neural discrete representation learning」の紹介です。#gdgtokyo #genaiwaiwai pic.twitter.com/px0F50NxK9
— GDG Tokyo (@gdgtokyo) January 28, 2025
3番目は、一般枠で Junichiro Takahashi さんが “Post-training LLMs: From Algorithm to Training Infrastructure” という、 NeurIPS 2024の LLMの事後学習 (Post-training) に関するワークショップの内容を紹介してくださいました。NeurIPS は機械学習分野において非常に権威のある学会の一つです。この全体120分の講演の内容を凝縮して、LLMの強化学習の方法 などは前提知識なども含めて初心者に配慮しながら、非常にわかりやすく説明してくださいました。
Junichiro Takahashi さん @Takanas0517 による「Post-training LLMs From Algorithm to Training Infrastructure」の紹介です。#gdgtokyo #genaiwaiwai pic.twitter.com/xv8SLBS78I
— GDG Tokyo (@gdgtokyo) January 28, 2025
4番目は、 一般枠でこぶシューさんが “Long-Context LLMs Meet RAG: Overcoming Challenges for Long Inputs in RAG” という、Google Cloud チームからの RAGのパフォーマンスを向上させる手法に関する論文の紹介してくださいました。長いコンテキストを使うRAGの課題と、性能低下の主要因である「ハードネガティブ」、そしてその解決策を、論文の構成に沿った形でわかりやすいスライドで解説して頂きました。また、素敵な Gemini の Tシャツを着て登壇してくださいました。
こぶシュー さん @shu_kob による「Long-Context LLMs Meet RAG: Overcoming Challenges for Long Inputs in RAG」の紹介です。#gdgtokyo #genaiwaiwai pic.twitter.com/LWLKmx7m9k
— GDG Tokyo (@gdgtokyo) January 28, 2025
最後は、ゆるふわ枠でおおたまんさんが “LLM Test-Time Compute Optimally can be More Effective than Scaling Model Parameters” という、LLMモデルの評価において、推論時のスケーリングの最適化に関する研究を紹介してくださいました。こちらは Google DeepMind から発表された論文でした。グラフの解釈を丁寧に説明してくださり、どのようなユースケースでどのようなアプローチが効果的なのか、数字を一緒に理解しながら学ぶことができました。
おおたまん さん @ohtaman による「 LLM Test-Time Compute Optimally can be More Effective than Scaling Model Parameters」の紹介です。#gdgtokyo #genaiwaiwai pic.twitter.com/gmZgC5FyLt
— GDG Tokyo (@gdgtokyo) January 28, 2025
おわりに
生成 AI 論文をわいわい読む会 は、生成 AI の基礎から最新の応用研究までわいわい学ぶことができる場として、参加者にとって貴重な時間を提供しました。また、ドリンクを片手に議論をすることで、参加者間での会話がはずみました。GDG Tokyo が 生成 AI の 開発者を繋ぐコミュニティになっていけばと思います。
次回のイベントにもご期待ください。多くの方々のご参加をお待ちしております!
「生成AI論文をわいわい読む会」 にご参加いただきありがとうございました!
— GDG Tokyo (@gdgtokyo) January 28, 2025
また次回の開催をお楽しみにお待ちください。#gdgtokyo #genaiwaiwai pic.twitter.com/G2kLSizov1
スタッフの紹介
本イベントは多くのコミュニティメンバーの協力により開催することができました。重ねて感謝申し上げます。
Mitsuhisa Ota (GDE)
Naoya Yoshimura (GDG Tokyo)
Yuka Usui (GDG Tokyo)
Junichiro Takahashi (GDGoC UTokyo)
Hirohane Takagi (GDGoC UTokyo)
Ibuki Inoue (GDGoC TUAT)
Shion Honda (GDGoC YNU)