![見出し画像](https://assets.st-note.com/production/uploads/images/143767331/rectangle_large_type_2_c1bd10058e8c88d728c9042a769c4a55.png?width=1200)
大規模言語モデルとよく聞きますが?
上のGPT -3のざっくりとした図だけですが、従来モデルより、シンプルに
なっていることが、私には、思えます。GPT -3は、古いと思いますが、
最初に私が生成AIを知って使ったのは、GPT -3.5なので、おそらく基本的な
部分は類似していると思います。
現在は、GPT -4から、発展もしくは派生したGPT -4oになっていますが、
このGPT-3が、翻訳タスクを分離して、後に翻訳用AIなどで行なうのが、
特徴だと思います。
おそらく英語ベースのディープラーニングのトレーニングの高速化が、
容易になったのだと思います。
その辺で、ChatGPT-4の登場で、OpenAIが他より先行出来たのだと、
思います。
生成AIのソフトウェア面を憶測してみました。
全然、AIのこと知らないので、何も分かってないと思われる人が
いると思いますが、落書きなので、許してください😁