人気の記事一覧

【デジタルMATSUMOTOの考察(2024/9/2)】これってAIの正しい理解?03「とにかくパラメータ数を膨大にすれば良い?」

LLMの学習で調整するパラメータは、マルチヘッドアテンション層よりもフィードフォワード層の方が多い

2か月前

LLM In-Context Recall is Prompt Dependent

7か月前

No "Zero-Shot" Without Exponential Data: Pretraining Concept Frequency Determines Multimodal Model Performance

6か月前

You Only Cache Once: Decoder-Decoder Architectures for Language Models

6か月前

7月登場の大規模言語モデルパラメータ数ランキング

1年前

人間のニューロン数が所詮1000億だとすると、パラメータ数が2000億近いChatGPT(GPT-3.5)はすでに人間の能力を上回っているだろうか。

1か月前

SoundStream: An End-to-End Neural Audio Codec

7か月前

Training Compute-Optimal Large Language Models

7か月前