人気の記事一覧

【論文瞬読】大規模言語モデルを賢く小さくする:TAIDによる新しい知識蒸留手法

2週間前

Sakana AI [日本版DeepSeek] が新モデル公開! 簡単にわかりやすく!

新手法「TAID」によって学習された小規模日本語言語モデル「TinySwallow-1.5B」by Sakana AI

3週間前

TAID: Temporally Adaptive Interpolated Distillation for Efficient Knowledge Transfer in Language Models

1か月前