見出し画像

Generative AI test超簡易用語集(まずはここから編)

以下は、シラバスに基づいた簡易用語解説集です。生成AIに関連する技術、動向、リスクなどを一言で言うと?というレベルで簡潔に説明しています。


【生成AIの技術】

大規模言語モデル (LLM)

膨大なテキストデータを学習し、人間が自然に感じるテキストを生成するモデル。代表例にGPT-3、Claudeなどがある。

トランスフォーマー (Transformer)

LLMの基本アーキテクチャであり、「アテンション機構」を利用して長文の依存関係を効率的に処理するモデル。

アテンション (Attention)

トランスフォーマーの中核技術。入力データの中で重要な部分に「注意」を向けて処理を最適化する。

基盤モデル (Foundation Model)

大規模なデータを学習し、さまざまなタスクに適応可能な汎用的モデル。LLMや拡散モデルが該当する。

ハルシネーション (Hallucination)

生成AIが存在しない情報を出力する現象。生成物の正確性に関する課題。

コンテキスト内学習 (In-Context Learning)

モデルが学習済みデータに依存せず、入力テキスト内の文脈から動的に学習を行う仕組み。

Zero-Shot / Few-Shot

• Zero-Shot: 事前例なしで新しいタスクを解く方法。
• Few-Shot: 少数の例を与えることで新しいタスクに適応させる方法。

拡散モデル (Diffusion Model)

ノイズを段階的に除去してデータを生成するモデル。画像生成に広く使用される(例: DALL·E 2, Stable Diffusion)。

教師あり学習 / 自己教師あり学習

• 教師あり学習: 入力と正解ペアを使用してモデルを学習する手法。
• 自己教師あり学習: ラベルなしデータを活用する方法。LLMの事前学習で利用される。

リーダーボード / ベンチマーク

生成AIモデルの性能を測定し比較するための基準。公開されたテストセットが利用される。

【生成AIの動向】

スケーリング則 (Scaling Laws)

モデルの性能がパラメータ数、データ量、計算資源に比例して向上するという法則。

オープン大規模言語モデル

研究者や開発者が自由に利用可能な大規模言語モデル(例: LLaMA, BLOOM)。

マルチモーダル

複数のデータ形式(例: テキスト+画像)を統合して処理する技術。例としてChatGPT Visionがある。

LoRA (Low-Rank Adaptation)

モデルを効率的にファインチューニングする技術。パラメータ更新が最小限に抑えられる。

RAG (Retrieval-Augmented Generation)

検索システムと生成モデルを組み合わせ、外部知識を活用して回答を生成する手法。

【生成AIの利活用】

ケイパビリティ (Capability)

生成AIが持つタスク実行能力。例: 自然言語生成、画像生成、コード生成。

プロンプトエンジニアリング

生成AIに効果的な指示(プロンプト)を与える技術。アウトプットの質を向上させる手法。

ユースケース開発

生成AIを利用して新しい用途や活用法を探ること。具体例としてカスタマーサポートやクリエイティブ制作がある。

【生成AIのリスク】

公平性 (Fairness)

生成AIが特定の属性や意見に偏った結果を出力しないようにする課題。

プロンプトインジェクション

悪意のある指示文をAIに入力し、不正な出力や動作を誘導する攻撃手法。

プライバシー

AIに入力した情報がモデルに記憶され、漏洩のリスクが発生する問題。

規制化 (Regulation)

生成AIの技術や使用が法的に制限される可能性。例: 著作権やプライバシー規制。

環境問題

モデルのトレーニングや推論で大量のエネルギーが消費されることによる問題。

以上

いいなと思ったら応援しよう!