![見出し画像](https://assets.st-note.com/production/uploads/images/171524403/rectangle_large_type_2_4b241867f5b9bffcb38d1805fcec7d75.jpeg?width=1200)
【C.機械学習の概要】AIを一言で伝える技術〜G検定完全対応〜
次の用語について、説明してください。
[STEP1] 一言で説明する。
[STEP2] 具体例を説明する。(可能なら3つ)
[STEP3] 用語を英語で言い換える。
[STEP4] 英語で一言で説明する。
[STEP5] 英語で具体例を説明する。(可能なら3つ)
C7-1 AdaBoost
キーワード
AdaBoost
定義(1行)
AdaBoostは、弱学習器を段階的に追加し誤分類を修正しながら高性能な分類器を構築するブースティング手法。 AdaBoost is a boosting method that incrementally adds weak learners, correcting misclassifications to build a strong classifier.
具体例(3つ)
深さ1の決定木(決定スタンプ)を繰り返し学習して強いモデルに統合
画像分類で誤判定サンプルに重みを再配分
スパムフィルタで誤判定されたメールを重点的に再学習
詳細な説明
AdaBoostでは誤分類されたデータに大きな重みを与え、次の弱学習器がその誤りを補正するよう学習を促す。こうして多数の弱学習器を結合し、単独では精度が低い学習器を組み合わせて強い分類器を得る。 This algorithm reallocates higher weights to misclassified samples, so subsequent learners can focus on correcting those errors. Combining many weak learners creates a robust final model.
C7-2 アンサンブル学習
キーワード
アンサンブル学習
定義(1行)
アンサンブル学習は、複数のモデルを組み合わせることで単一モデルを上回る性能や汎化能力を得る手法。 Ensemble learning combines multiple models to achieve better performance and generalization than a single model.
具体例(3つ)
バギングで複数の決定木を学習し平均や多数決をとる
ブースティングで誤分類サンプルの重みを変更し続ける
スタッキングで異なる種類のモデルをメタ学習で統合
詳細な説明
アンサンブル学習は、バラエティを持たせた複数のモデルを投票や平均などでまとめ、バイアスとバリアンスを抑制する。バギング、ブースティング、スタッキングなど多彩なアプローチがある。 Ensemble methods reduce bias and variance by aggregating diverse models through voting or averaging. Bagging, boosting, and stacking are common ensemble strategies.
C7-3 カーネル
キーワード
カーネル
定義(1行)
カーネルは、高次元空間の内積を明示的に変換せずに計算する関数で、非線形分類や回帰を可能にする。 A kernel is a function that computes inner products in a high-dimensional space implicitly, enabling nonlinear classification or regression.
具体例(3つ)
ガウスRBFカーネルで局所的類似度を測るSVM
多項式カーネルで非線形な決定境界を表現
カーネルPCAでデータの非線形次元削減
詳細な説明
カーネル法では、元の特徴を高次元に写像せずにカーネル関数だけを使って内積を計算する。これにより、線形アルゴリズムを非線形問題に拡張可能になる。 Kernel methods replace explicit feature mappings with a kernel function that calculates inner products in a transformed space, enabling linear algorithms to handle nonlinear tasks.
C7-4 カーネルトリック
キーワード
カーネルトリック
定義(1行)
カーネルトリックは、高次元への写像を明示しなくても、カーネル関数を用いて非線形な学習を可能にする手法。 The kernel trick allows nonlinear learning by computing high-dimensional inner products implicitly via a kernel function.
具体例(3つ)
SVMで非線形決定境界をカーネル関数で実現
カーネル主成分分析で複雑な構造を可視化
カーネル回帰で多峰性のある回帰曲線を表現
詳細な説明
カーネルトリックを使うと、元の空間での特徴変換を行わずとも、カーネル関数で「見えない」高次元空間での内積を計算できる。これにより、線形ベースのアルゴリズムを非線形に適用する。 Without explicitly mapping data to a high-dimensional space, the kernel trick computes inner products there using a kernel function, extending linear algorithms to nonlinear scenarios.
C7-5 回帰問題
キーワード
回帰問題
定義(1行)
回帰問題は、入力から連続値の出力を予測する教師あり学習タスク。 A regression problem is a supervised learning task that predicts a continuous value output from given inputs.
具体例(3つ)
住宅価格を予測する不動産評価
将来の株価を予測する時系列分析
天気データから気温を数値で推定する
詳細な説明
回帰問題では目標変数が連続的値で、線形回帰や決定木回帰など多様なモデルが用いられる。誤差指標としてMSEやMAEなどが一般的に使われる。 Regression models predict continuous targets and can use various algorithms like linear regression or tree-based regression. Common error metrics include MSE or MAE.
C7-6 決定木
キーワード
決定木
定義(1行)
決定木は、特徴の分割規則に基づきデータを振り分け、葉ノードで予測を出すツリー構造のモデル。 A decision tree splits data based on feature rules, assigning predictions at leaf nodes in a tree structure.
具体例(3つ)
分類木でジニ不純度を用いた特徴分割
回帰木で平均二乗誤差を使った連続値予測
ランダムフォレストの基本構成要素
詳細な説明
決定木は、ルールが可視化しやすく解釈性が高い一方、単体で使うと過学習しやすい。情報利得やジニ係数などを用いて最適な分割を見つける。 They provide an interpretable structure but can easily overfit if used alone. Splits are determined by metrics like information gain or the Gini index.
C7-7 勾配ブースティング
キーワード
勾配ブースティング
定義(1行)
勾配ブースティングは、誤差の勾配に合わせて弱学習器を逐次追加し、誤差を段階的に削減するアンサンブル手法。 Gradient boosting is an ensemble method that iteratively adds weak learners aligned with the gradient of the loss to reduce errors.
具体例(3つ)
XGBoostやLightGBMなど高速実装
回帰木を繰り返し追加して残差を小さくする
カスタム損失関数(ロジスティック損失など)で柔軟に最適化
詳細な説明
勾配ブースティングでは、現在の予測残差に着目し、その勾配をもっとも減らせる弱学習器を追加する。多くの場合決定木が用いられ、高い精度を出しやすい反面、パラメータ調整が多い。 By focusing on residual errors, each subsequent weak learner attempts to reduce them according to the gradient. Decision trees are commonly used, offering strong performance with careful tuning.
C7-8 サポートベクターマシン (SVM)
キーワード
サポートベクターマシン (SVM)
定義(1行)
SVMは、マージン最大化を通じて最適な境界を学習し、高次元カーネルでも非線形分類や回帰が可能。 An SVM learns the optimal boundary by maximizing the margin and can handle nonlinear classification or regression via kernel functions.
具体例(3つ)
線形SVMで2次元データを直線で分類
RBFカーネルSVMで画像認識
SVM回帰(SVR)で連続値予測
詳細な説明
SVMは、決定境界とサポートベクターとの間のマージンを最大化する理論に基づく。非線形問題ではカーネルを利用し高次元にマッピングして線形分離を実現する。 It maximizes the margin between the decision boundary and support vectors, using kernels to handle nonlinear problems by mapping data to higher dimensions.
C7-9 線形回帰
キーワード
線形回帰
定義(1行)
線形回帰は、入力と出力の関係を一次式でモデル化し、誤差を最小化してパラメータを推定する回帰手法。 Linear regression models the relationship between inputs and outputs with a linear function, estimating parameters by minimizing errors.
具体例(3つ)
単回帰で1つの特徴量から家賃を予測
重回帰で複数の特徴を使い売上高を推定
最小二乗法で回帰係数を求める基本手法
詳細な説明
線形回帰はシンプルかつ解釈しやすいモデルで、多重共線性や外れ値に弱い側面もある。通常は最小二乗法で回帰係数を求める。 It's simple and interpretable, though susceptible to multicollinearity and outliers. Parameters are typically fitted via least squares.
C7-10 自己回帰モデル (AR)
キーワード
自己回帰モデル (AR)
定義(1行)
自己回帰モデルは、時系列データにおいて現在の値を過去の値の線形結合で予測する統計モデル。 An autoregressive model predicts the current value of a time series as a linear combination of its past values.
具体例(3つ)
AR(1)で前時点の値のみを考慮
AR(p)でpステップ前までを使用し経済指標を予測
気温などの時系列を単純線形回帰で近似
詳細な説明
ARモデルは、過去の状態から将来を推定する際に用いられ、時系列分析で基本的な手法。係数を推定し、周期性やトレンドを捉える。 It's a fundamental tool in time series analysis, capturing trends or seasonal patterns by regressing the current state on past values.
C7-11 重回帰分析
キーワード
重回帰分析
定義(1行)
重回帰分析は、複数の独立変数を用いて目的変数を線形的に予測する回帰手法。 Multiple regression predicts a target variable linearly using multiple independent variables.
具体例(3つ)
家賃を部屋の広さ・駅からの距離・築年数など複数特徴で予測
テストの点数を勉強時間や睡眠時間、授業出席率で推定
経済指標を複数のマクロ要因から回帰
詳細な説明
重回帰分析では、特定の応答変数を複数特徴量の線形和として表し、回帰係数を推定する。特徴量間の共線性に注意が必要で、解釈性を高めるためにステップワイズ法や正則化が用いられる。 You model the response as a linear combination of multiple predictors. Watch out for multicollinearity, often mitigated with techniques like stepwise selection or regularization.
C7-12 多クラス分類
キーワード
多クラス分類
定義(1行)
多クラス分類は、三つ以上のクラスに入力を振り分ける分類タスク。 Multi-class classification assigns inputs to one of three or more possible classes.
具体例(3つ)
画像を犬・猫・鳥など複数カテゴリーに分ける
テキストを感情極性を含む複数ラベルに分類
手書き数字を0~9に識別
詳細な説明
二クラスを超える分類では、One-vs-RestやOne-vs-One、ソフトマックスなどで実装する。クラス数が増えるほど計算とデータ量の確保が課題となる。 Beyond binary classification, methods like One-vs-Rest or softmax handle multiple categories. Increasing the number of classes typically requires more data and computational resources.
C7-13 バギング
キーワード
バギング
定義(1行)
バギングは、ブートストラップサンプリングした複数のデータセットで学習したモデルを平均や多数決で結合する手法。 Bagging trains multiple models on bootstrap-sampled datasets and combines them via averaging or voting.
具体例(3つ)
ランダムフォレストで複数の決定木を並行学習
重回帰モデルをそれぞれ別のサンプルで学習して平均
画像分類でミニCNNを複数立てて投票
詳細な説明
バギングでは、元データから重複あり抽出(ブートストラップ)を行い、それぞれのモデルを独立に学習させる。結果を集約すると、単体モデルより安定性が増し、過学習を抑えやすい。 With bootstrap samples for each model, bagging aggregates their predictions, improving stability and reducing overfitting.
C7-14 ブースティング
キーワード
ブースティング
定義(1行)
ブースティングは、誤分類したサンプルを重点的に再学習し、弱学習器を段階的に強化するアンサンブル手法。 Boosting is an ensemble method that iteratively strengthens weak learners by focusing on misclassified samples in subsequent training.
具体例(3つ)
AdaBoostが典型で、誤分類データの重みを増加
勾配ブースティングで残差を補正する木を追加
各弱学習器が前の誤差を修正し強いモデルを形成
詳細な説明
ブースティングでは、前段のモデルが苦手としたサンプルに注意を向け、次段の弱学習器がそこを改善するよう学習する。累積的に誤差を減らすことで高精度のモデルを得る。 Subsequent weak learners correct the errors of previous ones, iteratively reducing overall error.
C7-15 ブートストラップサンプリング
キーワード
ブートストラップサンプリング
定義(1行)
ブートストラップサンプリングは、元データから重複を許して同サイズでサンプリングする手法で、バギングなどで使われる。 Bootstrap sampling draws samples of the same size from the original dataset with replacement, often used in bagging.
具体例(3つ)
データセットの約63.2%程度がユニークに含まれる典型
バギングで各木に異なるデータサブセットを割り当て
信頼区間推定に用いられる統計的手法
詳細な説明
元データN件からN回重複ありで無作為抽出すると、およそ63%ほどのユニークサンプルで構成される。バギングや推定量の分散評価などで活用される。 Sampling with replacement leads to about 63% unique coverage in each bootstrap sample. It's crucial for bagging and for measuring estimator variance.
C7-16 分類問題
キーワード
分類問題
定義(1行)
分類問題は、離散的なクラスラベルを予測する教師あり学習タスク。 A classification problem is a supervised task predicting discrete class labels.
具体例(3つ)
スパムor非スパムの二値分類
顔認証で個人IDを割り当て
医療検査で陽性・陰性を判定
詳細な説明
分類問題では、データを有限個のクラスに振り分ける。二クラスの場合と多クラスの場合があり、ロジスティック回帰やSVM、決定木など多彩なアルゴリズムが利用される。 Classification can be binary or multi-class, tackled with logistic regression, SVM, decision trees, or other algorithms.
C7-17 ベクトル自己回帰モデル (VARモデル)
キーワード
ベクトル自己回帰モデル (VARモデル)
定義(1行)
VARモデルは、複数の時系列変数がお互いに影響を与える関係を、各変数の過去値で回帰する形でモデル化する。 A VAR model captures interdependencies among multiple time series by regressing each variable on its own and others’ past values.
具体例(3つ)
GDPや失業率、物価などマクロ経済指標の相互予測
多センサーデータの相関構造を捉える
金融時系列で株価や金利、為替が連動
詳細な説明
VARモデルでは、各時系列が自らの過去値だけでなく、ほかの系列の過去値も説明変数に含める。経済や金融、複数センサーデータなど多変量時系列分析に広く用いられる。 Each series is modeled by its own and other series’ lagged values, widely used in multivariate time series like economics or finance.
C7-18 マージン最大化
キーワード
マージン最大化
定義(1行)
マージン最大化は、分類境界と最も近いサンプル間の距離を最大にして汎化性能を高める戦略。 Margin maximization enlarges the distance between the decision boundary and the nearest samples, improving generalization.
具体例(3つ)
SVMのハードマージンで完全分離可能な場合
ソフトマージンSVMで違反点にペナルティを付与
ラージマージンによって過学習を防ぐ効果
詳細な説明
マージンが大きいほど小さな摂動による分類の変化が少なく、汎化性能が向上する。SVMはこの原理を理論的に最適化して設計されている。 Having a larger margin reduces sensitivity to small perturbations, thus boosting generalization. SVMs formalize this principle in their optimization.
C7-19 ランダムフォレスト
キーワード
ランダムフォレスト
定義(1行)
ランダムフォレストは、多数の決定木をバギングと特徴のランダム選択で学習し、投票や平均で結合するアンサンブル手法。 A random forest is an ensemble of decision trees trained via bagging and random feature selection, aggregated by voting or averaging.
具体例(3つ)
カスタムサブセットの特徴を使って決定木を生成
分類タスクで多数決による安定化
回帰タスクで平均化して予測精度向上
詳細な説明
ランダムフォレストは、バギングに加えて各分割で特徴をランダム抽出する仕組みで、決定木同士の相関を低減する。高精度で汎化性能が高く、機械学習で人気がある。 By randomly selecting subsets of features at each split, it lowers correlation among trees, boosting accuracy and generalization.
C7-20 ロジスティック回帰
キーワード
ロジスティック回帰
定義(1行)
ロジスティック回帰は、シグモイド関数で確率を出力し、二値または多クラス分類に応用できる線形モデル。 Logistic regression is a linear model that uses a sigmoid function to output probabilities for binary or multi-class classification.
具体例(3つ)
メールがスパムか否かの2値分類
医療データから病気リスクを推定
多クラス拡張(ソフトマックス回帰)で3種類以上のクラス判別
詳細な説明
ロジスティック回帰は、線形結合をシグモイド関数に通して0~1の確率を出す。二値分類で広く利用され、拡張して多クラス問題も扱える。 A linear combination is passed through a sigmoid function, yielding probabilities in [0,1]. It’s widely used for binary classification, and can be extended to multi-class via softmax.
C8-1 k-means 法
キーワード
k-means 法
定義(1行)
k-means 法は、データをk個のクラスターに分割し、各クラスターの重心との距離を最小化するクラスタリング手法。 K-means clustering partitions data into k clusters by minimizing distances to each cluster’s centroid.
具体例(3つ)
顧客データを購買傾向ごとにクラスタリング
画像のピクセル分割で代表色を抽出
IoTセンサーデータを類似動作ごとに分類
詳細な説明
k-meansでは、初期にk個の重心を設定し、データを最も近い重心に割り当て、重心を再計算する手順を繰り返す。クラスター数kの事前指定が必要で、初期値に依存する。 Centroids are iteratively updated after assigning data points to their nearest centroid. The number of clusters k must be chosen, and results can depend on initial centroids.
C8-2 t-SNE
キーワード
t-SNE
定義(1行)
t-SNEは、高次元データを低次元に可視化する際に、局所的構造を保ちつつ類似度を反映する手法。 T-SNE projects high-dimensional data into a low-dimensional space, preserving local similarity structures for visualization.
具体例(3つ)
MNISTの手書き数字を2Dに可視化しクラスターを観察
単語埋め込みの類似単語を近接表示
遺伝子発現データで細胞群の潜在クラスターを見つける
詳細な説明
t-SNEは近い点同士は高い確率で近く、遠い点同士は低い確率で近くなるようにマッピングを行う確率分布ベースの可視化。非線形構造を鮮明に示すが、大規模データに対して計算コストが高い。 It emphasizes local neighborhoods in a probabilistic manner, producing clear clusters for complex data but at a relatively high computational cost.
C8-3 ウォード法
キーワード
ウォード法
定義(1行)
ウォード法は、階層型クラスタリングで、クラスタ内分散の増加が最小となるようにクラスターを段階的に統合する手法。 Ward’s method is a hierarchical clustering technique that merges clusters to minimize the increase in within-cluster variance.
具体例(3つ)
細かいクラスターをまとめていき、樹形図(デンドログラム)を生成
顧客データを階層的にセグメント化
社会調査で類似度行列から階層分類を構築
詳細な説明
ウォード法は、クラスタ間の距離を分散基準で測定し、最もクラスタ内平方和が増えない組み合わせを結合する。球状クラスターが得やすく、大きく外れた点があるときは注意が必要。 It merges clusters step by step to minimally increase within-cluster sum of squares, often yielding spherical clusters.
C8-4 協調フィルタリング
キーワード
協調フィルタリング
定義(1行)
協調フィルタリングは、ユーザーの評価行列をもとに似たユーザー同士の嗜好を推定し、未評価アイテムを推薦する手法。 Collaborative filtering uses user-item rating matrices to infer preferences from similar users, recommending unrated items.
具体例(3つ)
映画評価サイトで似た視聴傾向のユーザーから推薦
音楽アプリが再生リストを分析して関連曲を提案
オンラインショッピングで「この商品を買った人はこれも買っています」
詳細な説明
協調フィルタリングは、アイテム内容ではなくユーザーの嗜好パターンをベースに推薦する。スパースな行列やコールドスタート問題が課題となる。 It focuses on user preference patterns instead of item content. Challenges include sparse data and cold start issues.
C8-5 クラスタリング
キーワード
クラスタリング
定義(1行)
クラスタリングは、ラベルのないデータを類似度に基づいて自然にグループ化する教師なし学習手法。 Clustering is an unsupervised learning method that groups unlabeled data by similarity.
具体例(3つ)
k-meansで顧客セグメンテーション
階層型クラスタリングで系統ツリーを作成
DBSCANで高密度領域をクラスタとみなす
詳細な説明
クラスタリングには中心を意識する手法(k-means)や階層的手法(ウォード法)、密度ベース(DBSCAN)などがある。ラベルなしのデータを分類して構造を把握するのに使われる。 Various methods exist, including centroid-based (k-means), hierarchical (Ward’s), or density-based (DBSCAN), for discovering hidden structures in unlabeled data.
C8-6 コールドスタート問題
キーワード
コールドスタート問題
定義(1行)
コールドスタート問題は、新規ユーザーや新規アイテムに関する情報が不足しており、推薦や予測の精度が落ちる課題。 The cold start problem arises when insufficient data about new users or items lowers recommendation or prediction accuracy.
具体例(3つ)
新規登録直後のユーザーに適切なアイテムを推薦できない
追加されたばかりの商品が評価データを持たず表示されにくい
ゲーム内の新武器をどのレベル向けか判断できない
詳細な説明
協調フィルタリング等では既存データがない対象に対応しにくい。解決策として初期アンケートやコンテンツベース情報、他のユーザーデータとの紐付けが挙げられる。 Collaborative filtering struggles with items or users lacking historical data. Solutions include initial questionnaires, content-based features, or linking to other user information.
C8-7 コンテンツベースフィルタリング
キーワード
コンテンツベースフィルタリング
定義(1行)
コンテンツベースフィルタリングは、アイテム自体の特徴を分析し、ユーザーが好んだアイテムとの類似度で新規アイテムを推薦する手法。 Content-based filtering analyzes an item’s features and recommends new items based on similarity to what the user already likes.
具体例(3つ)
映画の監督、ジャンル、出演俳優のタグを使って類似映画を提案
音楽のメタ情報(BPM、アーティスト)から近い曲を紹介
ニュース記事のトピックを比較して関連ニュースを表示
詳細な説明
コンテンツベースフィルタリングは、アイテムの属性情報(メタデータなど)とユーザー履歴の属性をマッチングする。コールドスタートが起きにくいが、既存嗜好と似たアイテムしか推薦されない傾向がある。 It matches item attributes to those of a user’s previously liked items. While it avoids some cold start issues, recommendations often lack diversity.
C8-8 次元削減
キーワード
次元削減
定義(1行)
次元削減は、高次元データを情報をなるべく保持したまま低次元へ圧縮し、学習や可視化を容易にする手法。 Dimensionality reduction compresses high-dimensional data into fewer dimensions, retaining most information for easier learning or visualization.
具体例(3つ)
PCAで主成分を抽出
t-SNEで非線形構造を2次元に投影
オートエンコーダで潜在表現を学習
詳細な説明
次元削減は、次元の呪いを緩和し、可視化や学習速度向上、過学習防止に役立つ。線形手法(PCA)と非線形手法(t-SNE、UMAP)などがある。 It alleviates the curse of dimensionality, speeding up learning and preventing overfitting. Techniques range from linear (PCA) to nonlinear (t-SNE, UMAP).
C8-9 主成分分析 (PCA)
キーワード
主成分分析 (PCA)
定義(1行)
PCAは、分散が最大となる方向を順に見つけてデータを射影することで、低次元へ次元削減する手法。 PCA finds directions of maximum variance in data, projecting onto these principal components for dimensionality reduction.
具体例(3つ)
画像のピクセルデータを圧縮し可視化
遺伝子発現データで主要な変動要因を抽出
顧客属性を少数の主成分にまとめてマーケ分析
詳細な説明
PCAは共分散行列を対角化し、固有値の大きい順に主成分を選ぶ。データの分散を保ちつつ次元を落とすため、可視化や前処理に多用される。 By diagonalizing the covariance matrix, PCA selects principal components in descending order of their eigenvalues, preserving maximum variance with fewer dimensions.
C8-10 潜在的ディリクレ配分法 (LDA)
キーワード
潜在的ディリクレ配分法 (LDA)
定義(1行)
LDAは、文書中の単語を潜在トピックの混合としてモデル化し、トピックごとの単語分布を学習するトピックモデル。 LDA models words in documents as mixtures of latent topics, learning word distributions per topic in a topic model.
具体例(3つ)
ニュース記事のカテゴリーを自動的に抽出
レビュー文からよく言及される製品特性をトピックとして検出
膨大な文書セットを少数トピックで俯瞰
詳細な説明
LDAは、各文書を複数のトピックの混合で表し、各トピックは単語の確率分布とみなすベイズ推論モデル。文章の主題解析や情報検索に使われる。 It treats documents as mixtures of topics, each topic as a distribution over words, applying Bayesian inference to discover latent thematic structures.
C8-11 多次元尺度構成法
キーワード
多次元尺度構成法 (MDS)
定義(1行)
MDSは、対象間の類似度や距離をもとに、低次元空間に配置して可視化する手法。 MDS places objects in a low-dimensional space based on pairwise similarities or distances for visualization.
具体例(3つ)
国間の文化的距離を2次元マップ化
商品の消費者評価を可視化しマーケ戦略に活用
遺伝子発現パターン間の距離をプロット
詳細な説明
MDSは、観測された距離行列を低次元空間で再現するよう座標を求める手法。視覚的にクラスターや関連性を捉えるのに用いられる。 It reconstructs a distance matrix in fewer dimensions, helping visualize clusters or correlations in data.
C8-12 デンドログラム (樹形図)
キーワード
デンドログラム (樹形図)
定義(1行)
デンドログラムは、階層型クラスタリングの結合過程を木構造として可視化する図で、切り口を決めてクラスターを得る。 A dendrogram is a tree diagram visualizing the merging process in hierarchical clustering, with clusters formed at chosen cut levels.
具体例(3つ)
ウォード法で生成された結合履歴を木として描画
顧客データのクラスター数を樹形図の切り口で調整
生物系統樹の構造として応用
詳細な説明
デンドログラムでは、縦軸や横軸に距離などの指標をとり、どのクラスタ同士がいつ統合されたかがわかる。適切な高さで切ることでクラスター数を決定できる。 By observing the linkage distance at each merge, one chooses a threshold to partition data into clusters.
C8-13 特異値分解 (SVD)
キーワード
特異値分解 (SVD)
定義(1行)
SVDは、行列を特異値と左右の直交行列に分解し、次元削減やノイズ除去などに応用できる線形代数手法。 SVD decomposes a matrix into singular values and orthogonal matrices, used for dimensionality reduction or noise filtering.
具体例(3つ)
レコメンデーションシステムでユーザー×アイテム行列を低ランク近似
画像を特異値上位だけで圧縮
LSA(潜在的意味解析)で単語×文書行列を要約
詳細な説明
SVDは行列をUΣV^Tの形に分解し、大きな特異値成分のみ残すと低ランク近似になる。推薦や文書解析でスパースデータの圧縮に有用。 It factorizes a matrix into UΣV^T, enabling low-rank approximations by keeping only dominant singular values, aiding in recommender systems and text analysis.
C8-14 トピックモデル
キーワード
トピックモデル
定義(1行)
トピックモデルは、文書群の単語分布を潜在トピックで説明し、文書を確率的にトピック混合とみなす枠組み。 A topic model explains document word distributions with latent topics, treating each document as a probabilistic mixture of topics.
具体例(3つ)
LDAでニュース記事の主要トピックを抽出
PLSAで商品の口コミをクラスタ化
テキストコーパスから潜在的テーマを可視化
詳細な説明
トピックモデルは、文書内の単語の共起パターンを学習し、潜在トピックを抽出する。LDAが代表例で、テキストの要約や情報検索に応用される。 By learning co-occurrence patterns of words, it uncovers hidden themes. LDA is a prime example, used for text summarization and information retrieval.
C9-1 Actor-Critic
キーワード
Actor-Critic
定義(1行)
Actor-Criticは、方策を決定するアクターと、状態や行動の価値を評価するクリティックを同時に学習する強化学習手法。 Actor-Critic is a reinforcement learning method that jointly trains an actor (policy) and a critic (value function).
具体例(3つ)
A2C (Advantage Actor-Critic)で効率的に学習
PPOがアクターとクリティック構造を発展
連続値行動問題にDDPGを適用
詳細な説明
Actorは行動方策を直接パラメータ化し、Criticがその価値を推定してActorを更新する。勾配を安定させるメリットがあり、大規模強化学習でよく用いられる。 The actor parameterizes the policy, while the critic estimates its value, guiding actor updates. This approach stabilizes gradient estimates and is commonly employed in large-scale reinforcement learning.
C9-2 ε-greedy 方策
キーワード
ε-greedy 方策
定義(1行)
ε-greedy方策は、確率εでランダム行動を選び、残り1-εで最良行動を取る探索手法。 An ε-greedy policy chooses a random action with probability ε, otherwise selecting the best-known action.
具体例(3つ)
迷路探索で少しランダムに動いて未知経路を試す
Q学習で最も高いQ値行動を取るが時々冒険
収束速度と探索バランスを調整
詳細な説明
ε-greedyは単純ながら強化学習で基本的な探索方策である。εを大きくすると探索重視、小さくすると利用重視。 Exploitation vs. exploration can be tuned by ε, a fundamental trade-off in reinforcement learning.
C9-3 REINFORCE
キーワード
REINFORCE
定義(1行)
REINFORCEは、確率的方策に従い行動をサンプリングし、エピソード終了後の報酬に基づいて方策を更新する手法。 REINFORCE is a policy gradient method that samples actions from a stochastic policy and updates it based on total episode rewards.
具体例(3つ)
短いエピソードごとに累積報酬を計算して方策を改良
単純な方策勾配として迷路などで検証
Actor-Criticの前身的アルゴリズム
詳細な説明
REINFORCEはエピソード単位で報酬に応じて方策パラメータを更新し、長期報酬を最大化する。方策勾配法の基礎であり、バリューネットワークを持たない単純な構造。 It updates policy parameters after each full episode to maximize long-term reward, forming the basis for more advanced policy gradient methods.
C9-4 Q 学習
キーワード
Q 学習
定義(1行)
Q学習は、状態と行動の価値Qをオフポリシーで学習し、最適方策に収束可能な強化学習手法。 Q-learning is an off-policy reinforcement learning method that learns the state-action value Q, converging to the optimal policy.
具体例(3つ)
迷路で各マスと行動のQ値を更新
ε-greedyと組み合わせて探索
ゲームAI(GridWorldなど)で段階的に最適手を学習
詳細な説明
Q学習は、状態行動ペア(s,a)の将来報酬を表すQ値をベルマン方程式に従って更新する。探索方策と学習方策が異なっても最適解に収束する理論を持つ。 It updates the Q-value for (s,a) pairs based on the Bellman equation and can converge even if the exploration and target policies differ.
C9-5 UCB 方策
キーワード
UCB 方策
定義(1行)
UCB方策は、バンディット問題で行動の平均報酬推定と不確実性上限を考慮し、未知の腕も適度に探索する手法。 The UCB policy addresses the multi-armed bandit problem by considering both estimated average reward and an upper confidence bound for each arm, ensuring balanced exploration.
具体例(3つ)
ウェブ広告のクリック率最適化でアームをランク付け
新商品を十分に試しつつ既存商品の収益も確保
アプリのA/Bテストで高い期待値がありそうな案を優先表示
詳細な説明
UCBは、行動の平均報酬に加え、標準偏差や試行回数などから計算される上限項を足し合わせた指標を最大化する方針。探索と利用を理論的に両立させる。 It balances exploration and exploitation by adding a confidence term to the estimated reward, ensuring potentially high-yield arms are sufficiently explored.
C9-6 行動価値関数
キーワード
行動価値関数
定義(1行)
行動価値関数は、ある状態で特定の行動を取った際に得られる累積報酬の期待値を示す。 An action-value function represents the expected cumulative reward for taking a certain action in a given state.
具体例(3つ)
Q(s,a)としてQ学習で管理
決定ポリシーを導くために最大Q値を選択
グリッドワールドで各マス×行動の報酬期待値を保存
詳細な説明
行動価値関数はQ値とも呼ばれ、状態と行動のペアに対する将来報酬の期待値を表す。Q学習やSARSAなどで更新され、最適行動選択に用いられる。 Called Q-values, they guide action selection by picking the highest Q(s,a).
C9-7 状態価値関数
キーワード
状態価値関数
定義(1行)
状態価値関数は、特定の状態において、そこから方策に従った場合に得られる累積報酬の期待値。 A state-value function indicates the expected return following a policy from a particular state.
具体例(3つ)
V(s)でその状態の良し悪しを数値化
ベルマン方程式を使い動的計画法で計算
迷路の各マスに将来報酬の期待値を付与
詳細な説明
状態価値関数は、状態だけに依存し、そこから最適に行動した際の長期報酬を評価する。行動価値関数との対比でポリシー評価に使われる。 It depends solely on states, representing the expected return if actions follow a certain policy. Contrasts with the action-value function.
C9-8 パンディットアルゴリズム
キーワード
パンディットアルゴリズム
定義(1行)
パンディットアルゴリズムは、多腕バンディット問題で報酬を最大化するため、探索と利用をバランスする戦略。 Bandit algorithms solve multi-armed bandit problems, balancing exploration and exploitation to maximize cumulative reward.
具体例(3つ)
ε-greedyやUCB、Thompson Samplingなど
広告クリック率最適化でのアーム選択
新レシピを提案しつつ人気メニューも提供
詳細な説明
パンディット問題では、各行動(腕)の報酬分布が未知であり、最適行動を探りつつ短期的報酬も得たい。パンディットアルゴリズムはこのトレードオフを管理する。 Each arm’s reward distribution is unknown, requiring strategies to discover high-reward actions without losing short-term gains.
C9-9 方策勾配法
キーワード
方策勾配法
定義(1行)
方策勾配法は、パラメータ化された方策に対する勾配を直接計算し、報酬を最大化するよう更新する強化学習手法。 Policy gradient methods compute gradients of a parameterized policy directly, updating it to maximize expected rewards.
具体例(3つ)
REINFORCEが基本形
Actor-Criticで価値関数と併用
連続行動空間でDPG (Deterministic Policy Gradient)
詳細な説明
方策勾配法は、行動選択の確率分布自体をパラメータ化し、サンプルした報酬を用いて勾配上昇で更新する。連続アクションなどを扱いやすく、ロボット制御で使われる。 It parameterizes the action distribution, using sampled rewards to ascend the gradient. Suited for continuous actions, popular in robotics.
C9-10 マルコフ決定過程 (MDP)
キーワード
マルコフ決定過程 (MDP)
定義(1行)
MDPは、状態・行動・報酬と遷移確率で定義され、将来状態が現在の状態と行動にのみ依存するマルコフ性をもつ強化学習の基礎モデル。 An MDP is the foundational reinforcement learning model with states, actions, rewards, and transition probabilities, assuming future states depend only on the current state and action.
具体例(3つ)
迷路やチェスなどで状態と行動の遷移を確率的に定義
ロボットが移動する際の衝突確率や報酬を設定
在庫管理で在庫レベルと補充行動の報酬を設計
詳細な説明
MDPでは、状態sで行動aを選択すると報酬rを得て次状態s'へ遷移する確率が定義される。強化学習で方策を最適化する際の標準的枠組み。 The agent moves from state s to s' with probability and reward r upon taking action a, forming the standard RL framework.
C9-11 割引率
キーワード
割引率
定義(1行)
割引率は、将来報酬を現在価値として評価する際の重み付け係数で、0から1の範囲で設定される。 The discount factor is a coefficient in [0,1] weighting future rewards to their present value.
具体例(3つ)
割引率1に近いと長期報酬を重視
0に近いと即時報酬を優先
過度に高いと収束が遅く、低いと短期的行動に偏り
詳細な説明
割引率γが1に近いと未来の報酬をほぼ同等に扱い、0に近いと目先の報酬を重視する。強化学習でエージェントの行動方針に大きく影響するパラメータ。 If γ is near 1, long-term rewards matter strongly; near 0, the agent focuses on immediate gains.
C10-1 k-分割交差検証
キーワード
k-分割交差検証
定義(1行)
k-分割交差検証は、データをk分割し、そのうち1つをテスト、残りを学習に使うことを繰り返して性能を平均化する検証手法。 K-fold cross-validation splits data into k parts, using one part for testing and the others for training, then averaging the results.
具体例(3つ)
k=5にして5回学習・テストし精度を平均
ハイパーパラメータ選択時にオーバーフィットを回避
データが少ないときでも汎化性能を推定しやすい
詳細な説明
k-分割交差検証は、過学習を防ぎつつモデルの汎化性能をより正確に評価できる。回数を増やすほど計算コストは上がるが評価のバイアスは減る。 It improves generalization estimates by cycling each fold as a test set, at the expense of higher computational cost.
C10-2 MSE・RMSE・MAE
キーワード
MSE・RMSE・MAE
定義(1行)
MSEは平均二乗誤差、RMSEはその平方根、MAEは平均絶対誤差で、回帰タスクの代表的な誤差指標。 MSE is mean squared error, RMSE its square root, and MAE mean absolute error, all standard metrics for regression tasks.
具体例(3つ)
住宅価格予測でMSEを最小化
RMSEは元の単位系で評価できる
MAEは外れ値の影響が比較的小さい
詳細な説明
MSEは大きな誤差を二乗でより強くペナルティし、RMSEは同じ単位で解釈可能。MAEは絶対値のため外れ値に対して頑健だが、勾配が一定なので最適化特性が異なる。 MSE heavily penalizes large errors, RMSE is more interpretable in the original scale, and MAE is more robust to outliers.
C10-3 ROC 曲線・AUC
キーワード
ROC 曲線・AUC
定義(1行)
ROC曲線は、偽陽性率と真陽性率の関係を示し、AUCはその曲線下の面積としてモデル性能をまとめた指標。 An ROC curve plots the trade-off between false positive rate and true positive rate, with AUC summarizing model performance as the area under that curve.
具体例(3つ)
スパム判定で閾値を変化させたTPRとFPRを可視化
AUCが1に近いほど分類性能が高い
医療診断で適切な閾値を設定するために使用
詳細な説明
ROC曲線はさまざまな閾値における真陽性率と偽陽性率をプロットし、AUCはモデル全体の分離能力を示す。クラス不均衡データでも有用な指標。 It visualizes TPR vs. FPR across thresholds, and AUC captures the overall discriminative capability.
C10-4 赤池情報量規準 (AIC)
キーワード
赤池情報量規準 (AIC)
定義(1行)
AICは、モデルの適合度とパラメータ数のペナルティを両立させ、過剰適合を避ける情報量規準。 AIC balances goodness of fit with a penalty for model complexity, preventing overfitting.
具体例(3つ)
回帰モデルで不要な特徴を増やさないよう選択
ARIMAモデルの次数を決める
混合ガウスモデルのクラスタ数最適化
詳細な説明
AICは対数尤度にパラメータ数を組み込んだ指標。値が小さいほど良いモデルを示唆するが、BICなど他の規準と併用することも多い。 It incorporates log-likelihood and parameter count, favoring simpler models that still fit well. Often compared with BIC.
C10-5 オッカムの剃刀
キーワード
オッカムの剃刀
定義(1行)
オッカムの剃刀は、同等の説明力ならより単純な仮説を採用すべきという原則。 Occam’s razor states that among competing hypotheses of equal explanatory power, the simplest one should be chosen.
具体例(3つ)
過度にパラメータを増やすモデルは避ける
線形モデルと高次多項式モデルで予測精度が同程度なら線形を選ぶ
木の深さが浅い決定木を優先
詳細な説明
オッカムの剃刀は科学やモデル選択の基本方針で、複雑モデルは過学習リスクが高いとされる。AICや正則化などもこの考え方と関連する。 It underlies the preference for simpler models to reduce overfitting, related to criteria like AIC or regularization.
C10-6 過学習
キーワード
過学習
定義(1行)
過学習は、訓練データに過剰適合し、未知データでの性能が低下する現象。 Overfitting occurs when a model fits the training data too closely, hurting performance on unseen data.
具体例(3つ)
決定木が分割を重ねすぎてノイズまで学習
ニューラルネットが訓練誤差0だがテスト誤差が大きい
カーブフィッティングで高次多項式が振動
詳細な説明
過学習では、モデルがトレーニングデータの特異性やノイズまで吸収し、一般化がうまくいかなくなる。正則化、交差検証、早期終了などで対策する。 The model memorizes training idiosyncrasies, failing to generalize. Techniques like regularization, cross-validation, or early stopping mitigate it.
C10-7 交差検証
キーワード
交差検証
定義(1行)
交差検証は、データを複数回分割して学習・検証を行い、汎化性能を安定的に推定する手法。 Cross-validation splits data multiple times into training and validation sets, providing a stable estimate of generalization performance.
具体例(3つ)
k-分割交差検証でスコアを平均
Leave-One-Outでデータが少ない場合でも有効
ハイパーパラメータ調整に欠かせない
詳細な説明
交差検証は学習データのうち一部を検証用に回してモデルを評価し、その手順を何度も繰り返す。偶然の分割による偏りを減らし、過学習をチェックできる。 By rotating each fold as validation, it reduces bias from a single train-test split and helps detect overfitting.
C10-8 偽陽性・偽陰性
キーワード
偽陽性・偽陰性
定義(1行)
偽陽性は本当は陰性なのに陽性と判定、偽陰性は本当は陽性なのに陰性と判定する誤り。 A false positive incorrectly classifies a negative instance as positive, while a false negative misclassifies a positive as negative.
具体例(3つ)
スパムメール検知で通常メールをスパム扱い(偽陽性)
感染症検査で病気を見逃す(偽陰性)
詐欺検出システムで正常ユーザーがブロックされる(偽陽性)
詳細な説明
偽陽性と偽陰性の重要度はアプリケーションにより異なる。医療では偽陰性を減らすことが最優先、スパムメールでは偽陽性を抑えたいなどのトレードオフがある。 The relative cost differs by domain: in healthcare, false negatives can be dangerous, while in spam detection, false positives are often more disruptive.
C10-9 混同行列
キーワード
混同行列
定義(1行)
混同行列は、予測と実際のクラスの対応を表形式にまとめ、分類モデルの性能を可視化する。 A confusion matrix tabulates the relationship between predicted classes and actual classes, visualizing classification performance.
具体例(3つ)
行が実際のクラス、列が予測クラスでTP, FP, TN, FNが得られる
多クラスでも行列サイズが増えるだけで原理は同じ
PrecisionやRecallなどを算出する基礎
詳細な説明
混同行列で真陽性(TP)、偽陽性(FP)、真陰性(TN)、偽陰性(FN)の数を把握できる。分類モデルの誤りの傾向を分析するのに必須。 It captures counts of TP, FP, TN, and FN, essential for analyzing classification errors and deriving metrics like precision and recall.
C10-10 正解率・適合率・再現率・F 値
キーワード
正解率・適合率・再現率・F 値
定義(1行)
正解率は全体の正解率、適合率は陽性判定の正確さ、再現率は真陽性の見逃しの少なさ、F値は両者の調和平均。 Accuracy is the overall correctness, precision is correctness among predicted positives, recall is coverage of actual positives, and F-score is their harmonic mean.
具体例(3つ)
スパム判定で適合率が高いと誤検出が少ない
医療検査で再現率が低いと病気を見逃すリスク大
F1スコアでバランスを一括評価
詳細な説明
正解率はクラス不均衡に弱く、適合率と再現率はどちらも重要だがトレードオフ関係。F値はそのバランスを1つの値で測る指標。 Accuracy can be misleading with imbalanced classes. Precision and recall trade off, and the F-score combines them into one metric.
C10-11 汎化性能
キーワード
汎化性能
定義(1行)
汎化性能は、モデルが未学習データに対してどの程度正確に予測できるかを示す指標。 Generalization performance measures how well a model predicts on unseen data.
具体例(3つ)
テストセットや検証セットでの評価スコア
交差検証での平均誤差
本番稼働データでの実運用精度
詳細な説明
汎化性能は機械学習の最終目標ともいえ、過学習せずに未知の状況で適切に予測できるかを重視する。交差検証やテストデータで推定される。 It’s the ultimate goal in ML, focusing on how the model handles new, unseen data. Cross-validation or test sets estimate it.
C10-12 ベイズ情報量規準 (BIC)
キーワード
ベイズ情報量規準 (BIC)
定義(1行)
BICは、AICに似るがサンプル数の対数を用いてモデルの複雑さに強いペナルティを与える情報量規準。 BIC, similar to AIC, penalizes model complexity more strongly by incorporating the log of the sample size.
具体例(3つ)
モデル選択でパラメータ数が多いモデルを厳しく罰する
ARIMAモデル次数をBIC最小に合わせる
クラスタ数の決定に利用
詳細な説明
BICは-2対数尤度にパラメータ数×log(N)を加えた形式。データ数Nが多いほど複雑モデルに不利となるため、AICより単純モデルを好む傾向がある。 The log(N) term imposes a heavier penalty for additional parameters when the dataset is large, preferring simpler models compared to AIC.
C10-13 ホールドアウト検証
キーワード
ホールドアウト検証
定義(1行)
ホールドアウト検証は、データを学習用とテスト用に分割し、一度の学習・評価で性能を推定するシンプルな方法。 A hold-out validation splits data into training and test sets once, providing a single-shot performance estimate.
具体例(3つ)
80%を学習に、20%をテストに割り当て
大規模データで計算負荷を抑えつつ評価
クロスバリデーションを行う余裕がないときの手軽な手法
詳細な説明
ホールドアウトは単純で実装しやすいが、分割の仕方に依存してスコアが変動するため、データ数が少ない場合にはバイアスが大きい。クロス検証との併用が望ましい。 Though easy to implement, it depends heavily on the chosen split. Cross-validation is typically more reliable but also more computationally intensive.