![見出し画像](https://assets.st-note.com/production/uploads/images/121078273/rectangle_large_type_2_7f9505737a88c288b480873d134f4c5c.png?width=1200)
JDLA生成AIテスト>生成AIの技術>特徴(2/6)
2023年は生成AIが大注目を浴びる1年でした。
G検定でおなじみのJDLA(日本ディープラーニング協会)も生成AIに関する新しい検定試験を作ったので、受験することにしました。
試験日は12月2日(土)です。
こちらの記事に書きました通り、生成AIの試験は生成AIを使って準備を進めていこうと思います。順不同で書いていきますので、後日マガジンにまとめようと思います。
さて、今回は生成AIの技術についてです。
大規模言語モデルの基本構造を理解している。
基盤モデル、言語モデル、大規模言語モデル (LLM)、トランスフォーマー (Transformer)、アテンション (Attention)、GPT-3
生成AIでまとめた内容は以下の通りです。
まずはBingから。
大規模言語モデルは、自然言語処理の分野で使用される技術の一つで、大量のテキストデータを学習して、新しいテキストを生成することができます。基盤モデルは、大規模言語モデルの基礎となるモデルで、言語モデルは、テキストデータから次に来る単語を予測するモデルです。Transformerは、言語モデルの一種で、アテンションという機構を用いて、文脈を考慮したテキスト生成を行います。アテンションは、入力されたテキストの中で、重要な部分に注目する仕組みです。GPT-3は、OpenAIが開発した大規模言語モデルの一つで、多様なタスクに対応できるよう設計されています。12345
次にChatGPT4
大規模言語モデル(LLM)は、自然言語処理(NLP)における一連のタスクを実行するために訓練されたニューラルネットワークベースのモデルです。これらのモデルは、テキストの生成、質問応答、概要の作成、翻訳、およびその他多くの言語関連タスクを処理する能力を持っています。以下は、大規模言語モデルの基本構造に関連する重要な用語です。
### 基盤モデル(Base Model)
基盤モデルは、一般的に広範なデータセットで前もってトレーニングされたニューラルネットワークのことを指します。この基盤モデルは、特定のアプリケーションやタスクに対してカスタマイズやファインチューニングを行う前の基礎的なモデルです。言語モデルもこの基盤モデルを用いて、さらに言語的な知識を深めるためのトレーニングが行われます。
### 言語モデル(Language Model)
言語モデルは、単語や文章がどのように組み合わさるかの確率をモデル化したものです。これにより、与えられた文脈に続く最もありそうな次の単語やフレーズを予測することができます。言語モデルは、特定の言語の文法、語彙、様式などを学習するために、大量のテキストデータを使用してトレーニングされます。
### 大規模言語モデル(Large Language Model, LLM)
大規模言語モデルは、非常に多くのデータと計算リソースを使用してトレーニングされた大規模な言語モデルです。これらは通常、膨大な量のテキストデータでトレーニングされ、広範な言語能力と知識を持っています。GPT-3はこのカテゴリに属します。
### トランスフォーマー(Transformer)
トランスフォーマーは、大規模言語モデルにおいて広く採用されているニューラルネットワークアーキテクチャです。自己注意メカニズム(Self-Attention)を活用して、入力されたシーケンスの中の各要素が他の要素とどのように関連しているかを学習し、それに応じて情報を重み付けします。
### アテンション(Attention)
アテンションは、ニューラルネットワークが入力の中で特に重要な部分に「注意」を集中させるためのメカニズムです。これにより、モデルは重要な情報に焦点を当てて処理を行い、無関係な情報を無視することができます。トランスフォーマーでは、特に自己注意メカニズムが重要で、シーケンス内の各位置が他の位置との関連を捉えることができます。
### GPT-3
GPT-3(Generative Pre-trained Transformer 3)は、OpenAIによって開発された大規模言語生成モデルの一つです。1750億のパラメ
ータを持つこのモデルは、多数の言語タスクにおいて、優れたパフォーマンスを示しています。トランスフォーマーをベースに構築され、大規模なデータセットでの事前トレーニングを経て、少ない例でさまざまなタスクにファインチューニングすることができる「few-shot learning」能力が特徴です。
これらの要素は、現代の大規模言語モデルが複雑な言語タスクを処理するための基盤となっており、言語に関する深い理解と幅広い応用能力を実現しています。
ChatGPT4の方が読みごたえがありますね 笑
しっかり勉強して受かろうと思います。
いいなと思ったら応援しよう!
![山岡さとる](https://assets.st-note.com/production/uploads/images/86582318/profile_134d6cfef02fb66c68b96362aa657f81.jpg?width=600&crop=1:1,smart)