GPT-2を読む③導入
前回は、OpenAIが2019年に発表した論文「Language Models are Unsupervised Multitask Learners」(GPTのバージョン2)の構造をざっくり見渡して読むための方針を決めました。
この方針に従って、今回は「導入」から読み進めて、論文の中で言及されている「2つの研究」をめぐる背景をより良く理解することを目指します。
前回のおさらい
前回すでに、導入の始めと終わりを読んでいますが、ここでは記憶を呼び覚ますために、導入の初めの部分を簡単におさらいします。
導入は次のように始まります。
ここでは単に、その当時の機械学習は「大規模なデータセット」と「高容量のモデル」と「教師あり学習」を組み合わせることで「期待通りの成果」を挙げていると述べています。
そして、「しかし、」と続きます。
この記事が気に入ったらサポートをしてみませんか?