Generative AI test超簡易用語集(まずはここから編)
以下は、シラバスに基づいた簡易用語解説集です。生成AIに関連する技術、動向、リスクなどを一言で言うと?というレベルで簡潔に説明しています。
【生成AIの技術】
大規模言語モデル (LLM)
膨大なテキストデータを学習し、人間が自然に感じるテキストを生成するモデル。代表例にGPT-3、Claudeなどがある。
トランスフォーマー (Transformer)
LLMの基本アーキテクチャであり、「アテンション機構」を利用して長文の依存関係を効率的に処理するモデル。
アテンション (Attention)
トランスフォーマーの中核技術。入力データの中で重要な部分に「注意」を向けて処理を最適化する。
基盤モデル (Foundation Model)
大規模なデータを学習し、さまざまなタスクに適応可能な汎用的モデル。LLMや拡散モデルが該当する。
ハルシネーション (Hallucination)
生成AIが存在しない情報を出力する現象。生成物の正確性に関する課題。
コンテキスト内学習 (In-Context Learning)
モデルが学習済みデータに依存せず、入力テキスト内の文脈から動的に学習を行う仕組み。
Zero-Shot / Few-Shot
• Zero-Shot: 事前例なしで新しいタスクを解く方法。
• Few-Shot: 少数の例を与えることで新しいタスクに適応させる方法。
拡散モデル (Diffusion Model)
ノイズを段階的に除去してデータを生成するモデル。画像生成に広く使用される(例: DALL·E 2, Stable Diffusion)。
教師あり学習 / 自己教師あり学習
• 教師あり学習: 入力と正解ペアを使用してモデルを学習する手法。
• 自己教師あり学習: ラベルなしデータを活用する方法。LLMの事前学習で利用される。
リーダーボード / ベンチマーク
生成AIモデルの性能を測定し比較するための基準。公開されたテストセットが利用される。
【生成AIの動向】
スケーリング則 (Scaling Laws)
モデルの性能がパラメータ数、データ量、計算資源に比例して向上するという法則。
オープン大規模言語モデル
研究者や開発者が自由に利用可能な大規模言語モデル(例: LLaMA, BLOOM)。
マルチモーダル
複数のデータ形式(例: テキスト+画像)を統合して処理する技術。例としてChatGPT Visionがある。
LoRA (Low-Rank Adaptation)
モデルを効率的にファインチューニングする技術。パラメータ更新が最小限に抑えられる。
RAG (Retrieval-Augmented Generation)
検索システムと生成モデルを組み合わせ、外部知識を活用して回答を生成する手法。
【生成AIの利活用】
ケイパビリティ (Capability)
生成AIが持つタスク実行能力。例: 自然言語生成、画像生成、コード生成。
プロンプトエンジニアリング
生成AIに効果的な指示(プロンプト)を与える技術。アウトプットの質を向上させる手法。
ユースケース開発
生成AIを利用して新しい用途や活用法を探ること。具体例としてカスタマーサポートやクリエイティブ制作がある。
【生成AIのリスク】
公平性 (Fairness)
生成AIが特定の属性や意見に偏った結果を出力しないようにする課題。
プロンプトインジェクション
悪意のある指示文をAIに入力し、不正な出力や動作を誘導する攻撃手法。
プライバシー
AIに入力した情報がモデルに記憶され、漏洩のリスクが発生する問題。
規制化 (Regulation)
生成AIの技術や使用が法的に制限される可能性。例: 著作権やプライバシー規制。
環境問題
モデルのトレーニングや推論で大量のエネルギーが消費されることによる問題。
以上