見出し画像

LLMニュースまとめ[2024年10月6日~10月12日]

2024年10月6日~10月12日のLLM関連のニュースとして有名なもの、個人的に刺さったもの11点を以下にまとめる。


1. GSM-Symbolic

LLMの論理的推論能力に疑問を投げかけている論文。
数値を変更したり、非属性の節を追加したりするだけで、LLMの数学的推論性能が著しく低下した。これによりモデルが論理的推論を行っているのではなく、むしろ学習データからパターンを模倣していることを示唆しており、数学的推論の進歩に関するこれまでの指標に疑問を投げかけている。


2. Only-IF:Revealing the Decisive Effect of Instruction Diversity on Generalization

LLMの新しい指示に対する一般化する能力についての論文
指示の多様性が十分でない場合、モデルは新しい指示に対して一般化できないことが判明。さらにデータの多様性を増やすことで、モデルの性能が向上することが示された。

3. Addition is All You Need for Energy-efficient Language Models

浮動小数点数の乗算を整数の加算で近似する新しいアルゴリズム「L-Mul」を提案。エネルギー効率の向上に期待。

4. MART: MLLM as Retriever

MLLM(Multimodal Large Language Model)を用いた新しいマルチモーダルリトリーバル手法「MART」を提案。
従来のテキストや画像の類似性に基づいた過去の行動データを検索ではなく、MARTはこれまでに行った行動や観察の「軌跡(trajectory)」に基づいて判断する。またMARTでは長い行動の流れを短くまとめ、重要な情報のみを保持している。(軌跡の要約(Trajectory Abstraction))

https://arxiv.org/pdf/2410.03450


5. Everything Everywhere All at Once

LLMが「タスクの重ね合わせ」と呼ばれる現象を示し、複数の異なるタスクを同時に実行できる能力を持つことを実証。

6. Astute RAG

元から持っている知識(内部知識)と、外部知識を上手く組み合わせるAstuteRAGを提案。

7. Inheritune: Training Smaller Yet More Attentive Language Models

言語モデルの効率的なトレーニング手法「Inheritune」を提案。
Inherituneでは、大きな事前学習済みモデルから初期の数層を引き継ぎ、それを基に小さなモデルをトレーニングする。


8. TLDR: Token-Level Detective Reward Model for Large Vision Language Models

大規模な視覚言語モデル(VLM)の出力を評価に役立つToken-Level Detective Reward Model(TLDR)を提案。TLDRは、各トークン(単語や記号)に対して個別に評価を行い、どのトークンが適切でどのトークンが不適切かを示す。

https://arxiv.org/pdf/2410.04734


9. Inference Scaling for Long-Context Retrieval Augmented Generation

ロングコンテキストが必要なRAGにおいて、ICL&デモンストレーションベースのRAG(DRAG)を組み合わせた反復デモンストレーションベースRAG(IterDRAG)を行うことで、推論リソースがRAGのパフォーマンスをほぼ線形に向上させることを示した。

https://arxiv.org/pdf/2410.04343


10. Self-Boosting Large Language Models with Synthetic Preference Data

LLMの自己強化(Self-Boosting)の新しい手法「SynPO」を提案。
人間の選好データを自動で生成して自己強化するのが特徴。


11. Agent S

Agent Sは、複雑なデスクトップタスクを自律的に実行するためのオープンなエージェントフレームワーク。

ドメイン知識の獲得、長期的なタスクの計画計画、動的で非一様なインターフェース(エージェント-コンピュータインターフェース(ACI))を扱うことで複雑な問題に対処。

https://arxiv.org/pdf/2410.08164


いいなと思ったら応援しよう!