見出し画像

2025年2月版AI用語30選

DeepSeek問題で、ニュースを追いかけきれない人を見かけます。2025年2月以降、AI関連ニュースを読み解くために最低限知っておくべきキーワードを重要度順に30個選びました。

入門レベル5語

必ず意味を押さえておくべきキーワードです。これがわからないと知ったかぶりをみんなに見抜かれています。

Transformer(トランスフォーマー)

トランスフォーマー

2017年に提案された自己注意機構(Self-Attention)を基盤とするニューラルネットワークアーキテクチャ。自然言語処理や画像処理など多様な分野で成果を上げ、大規模言語モデルの基盤技術になった。

Training Data(学習データ)

モデルが学習に用いる入力と正解ラベル(もしくは教師信号)の集合。データの品質や多様性がモデル性能を大きく左右し、近年は「データ中心AI(Data-Centric AI)」の観点から見直しが進んでいる。

Parameters(パラメータ)

ニューラルネットワークが学習によって獲得する重みやバイアスの総数。モデルの規模や表現能力を示す指標であり、大規模モデルでは数千億規模のパラメータ数になることも珍しくない。

Prompt Engineering(プロンプトエンジニアリング)

大規模言語モデルに対し、最適な入力(質問や指示)を設計する技術。求める出力を得るためにどのような文言でプロンプトを与えるかで、出力品質が大きく左右される。

Reasoning(推論)

入力情報から論理的に考え、結論を導くプロセスや能力。単純なパターン認識ではなく、因果関係や文脈理解にもとづいて答えを導く機能が、高度なAIシステムには求められる。

業界人レベル(4語)

研究職、開発職でなくても、業界にいると、ここまでは「門前の小僧習わぬ経を読む」で使う人がいます。

Alignment Problem(アライメント問題)

AIが人間の意図や価値観に合致するように動作するよう設計することの難しさを指す。強力な生成AIの普及によって、その重要性がますます増している。

Scaling Laws(スケーリング則)

モデル規模(パラメータ数)や学習データ量を増やすことで、性能がどのように向上していくかを定量的に示す法則。大規模モデルの性能向上を予測する指標として、近年のAI研究で重視されている。

Retrieval-Augmented Generation(RAG)

事前学習モデルだけでなく、外部のデータベースから情報を検索・参照して文章生成を行う手法。情報の正確性や最新性を担保するために用いられる。

Chain-of-Thought(思考連鎖)

Chain-of-Thought

モデルに中間的な推論ステップを明示的に生成させることで、複雑な理由付けを可能にするアプローチ。解答の根拠を可視化できるという利点もある。

エキスパートレベル(7語)

ここから先は研究職、開発職でないと知らないはずです。

Reinforcement Learning from Human Feedback(RLHF)

RLHF

人間からのフィードバックを報酬信号として取り入れ、モデルを強化学習的に最適化する手法。たとえば、人間の評価をもとに文章生成モデルの出力を改善するといった応用がある。

Model Interpretability(モデル解釈性)

ブラックボックス化しがちなモデル内部の推論プロセスや特徴量の重要度を可視化し、説明可能なAIを実現するための技術や手法。社会受容の観点からも重要視される。

AI Governance(AIガバナンス)

AIの社会実装における規制や倫理・信頼性の確保、リスク管理を包括的に扱う概念。各国政府や国際機関の動向によって実務面への影響が大きい。

Data-Centric AI(データ中心AI)

モデルのアーキテクチャやハイパーパラメータを追求するのではなく、データの質と設計を徹底的に高めるアプローチ。アノテーションや前処理の工夫が重要となる。

Parameter-Efficient Fine-Tuning(パラメータ効率の高いファインチューニング)

LoRA(Low-Rank Adaptation)などの手法を含む、モデル全体を再学習するのではなくごく一部のパラメータのみを学習することで、計算コストやメモリを抑えながら性能を向上させる技術。

Mixture of Experts(MoE)

複数の専門化されたサブモデル(エキスパート)を組み合わせ、入力ごとに最適なエキスパートの出力を選択・重み付けして最終予測を行うアーキテクチャ。モデル全体のパラメータ数を増やしながらも、各推論ステップで用いるパラメータを限定するため、効率面や性能面で注目されている。

In-Context Learning(コンテキスト学習)

追加のパラメータチューニングを行わず、提示されたコンテキスト(例示・指示)からタスクを推論する能力。大規模モデルならではの特徴として注目されている。

プロフェッショナルレベル(12語)

フロントラインの研究職、開発職の人が取り組んでいるような話題です。知ったかぶりの人をフィルターする目的でも使えます。

Continual Learning(継続学習)

時系列的に与えられる複数のタスクを連続して学習し、それぞれの知識を維持・統合する方法論。破滅的忘却への対策がポイントとなる。

Catastrophic Forgetting(破滅的忘却)

ニューラルネットワークが新しいタスクを学習するとき、以前に学習した内容が大きく損なわれる現象。複数のタスクを継続的に学習する際の大きな課題である。

Federated Learning(連合学習)

個々のデバイス上でモデルを学習し、プライバシーを保ちながら分散的にパラメータを集約する方法。個人情報を中央サーバーに送信せずにモデルを改善できる。

Multi-Agent Reinforcement Learning(マルチエージェント強化学習)

複数のエージェントが協調または競合しながら学習を行う枠組み。自動運転の交通制御や協調ロボットなど、多様な応用が期待される。

Data Drift(データドリフト)

本番環境で運用するうちに入力データの分布が変化してしまい、モデルの性能が低下する現象。継続的なモニタリングと再学習が必要になる。

Distillation(知識蒸留)

大規模モデルが学習した知識を、より小さなモデルに転移する手法。蒸留元モデル(教師モデル)の出力や中間表現を利用することで、小型モデル(生徒モデル)の精度を高めながらパラメータ数や計算量を削減できる。

Curriculum Learning(カリキュラム学習)

簡単なタスクやサンプルから学習を始め、徐々に難易度を上げることで学習を効率化する方法。人間の学習過程にヒントを得たアプローチ。

Active Learning(アクティブラーニング)

ラベル付けが特に有益なサンプルをモデルが自ら選択し、効率的に学習データを増やす手法。高コストなラベリング作業を最適化するのに役立つ。

Synthetic Data Generation(合成データ生成)

合成データ生成

実データ不足を補うために、シミュレーションや生成モデルを使って人工的にデータを作り出す手法。プライバシー保護や多様性確保にも役立つ。

Sparse Modeling(スパースモデリング)

モデルパラメータやアクティベーションをスパース(ほとんどがゼロ)に保つことで、推論の高速化やメモリ使用量低減を目指す技術。Mixture of Expertsの手法でも利用される。

Hypernetworks(ハイパーネットワーク)

あるネットワーク(ターゲットネットワーク)の重みを生成または変換するネットワーク。メタ学習やパラメータ効率化などの応用が期待される。

Test-time Compute(推論時の計算リソース)

学習済みモデルを実際に運用するとき(推論時)に必要となる計算資源のこと。モデルサイズやアーキテクチャによって大きく変わり、エッジデバイス上での推論では特に最適化が重要となる。

神レベル(2語)

会話にちりばめることでマウンティングできる神キーワード。ご利用は計画的に。

Open Weights(オープンウェイト)

学習済みモデルの重みパラメータを公開・共有すること。オープンソースの研究開発を推進し、再現性や透明性を高める一方で、不正利用や倫理面の懸念も議論の対象となる。

Jevons Paradox(ジェヴォンズのパラドックス)

ジェヴォンズのパラドックス

あるリソースの利用効率が向上すると、そのリソースの総消費量が逆に増加してしまう現象。AIの文脈では、計算効率の向上がより大規模なモデルの開発を促進し、結果として計算資源の総使用量を増やすことを指摘する際に参照される。

いいなと思ったら応援しよう!