![見出し画像](https://assets.st-note.com/production/uploads/images/171527432/rectangle_large_type_2_87d7a01d29ad38537f4862aa5ddfdc55.jpeg?width=1200)
【J.AI 倫理・AIガバナンス】AIを一言で伝える技術〜G検定完全対応〜
次の用語について、説明してください。
[STEP1] 一言で説明する。
[STEP2] 具体例を説明する。(可能なら3つ)
[STEP3] 用語を英語で言い換える。
[STEP4] 英語で一言で説明する。
[STEP5] 英語で具体例を説明する。(可能なら3つ)
J8-1 AI 倫理
キーワード
AI 倫理
定義(1行)
AIの設計・運用に関して、人間の尊厳や社会の価値を尊重し、リスクや影響を考慮するための道徳的・原則的考え方。
AI ethics concerns the moral and principled approach to designing and operating AI, ensuring respect for human dignity and societal values while evaluating risks and impacts.
具体例(3つ)
アルゴリズムによる差別を防ぐための公平性の確保
AIが雇用やプライバシーに及ぼす影響を事前評価
ユーザーの意図しない用途に利用されないよう開発段階で指針策定
詳細な説明
AI倫理は、AIが急速に普及する中で、人権・プライバシー・公平性・安全性などの観点から、何を許容し、どこに規制やガイドラインを設けるべきかを検討する分野。企業や研究機関でも倫理委員会を設け、開発・利用の是非や方法を審議する動きが活発化している。
As AI becomes pervasive, ethical guidelines address issues of human rights, privacy, fairness, and safety. Many organizations form ethics committees to deliberate on appropriate use and potential societal impacts.
J8-2 AI ガバナンス
キーワード
AI ガバナンス
定義(1行)
AIガバナンスは、AI技術の開発・運用において、組織や社会が適切に管理・監督する仕組みや制度を指す。
AI governance refers to the frameworks and institutions overseeing the proper development and deployment of AI within organizations and society.
具体例(3つ)
企業内部でAI開発プロセスを監査しリスクを管理する仕組み
国や地域がAI利用に関する法律や規制を整備
国際機関によるAI技術標準化の推進
詳細な説明
AIガバナンスは、倫理やプライバシー等の観点を含め、AIのライフサイクル全般を管理するルールや仕組みを構築すること。経営トップの指揮や専門家委員会の助言を得ながら、透明性ある意思決定やリスク管理を実行する。
AI governance addresses the entire AI lifecycle—incorporating ethics, privacy, and more—through robust policies and oversight. With guidance from executives and expert panels, organizations aim for transparent, risk-aware decision-making.
J8-3 価値原則
キーワード
価値原則
定義(1行)
価値原則は、AIが従うべき基本的な価値観や倫理指針で、開発・利用の方向性を示す。
Value principles lay down fundamental ethical or moral guidelines that AI development and usage should adhere to.
具体例(3つ)
人間中心性(人間の尊厳・権利を最優先)
公平性やインクルージョンを重視
社会的利益の最大化とリスク最小化
詳細な説明
多くのAI関連の国際・国内ガイドラインで「人間の尊厳」「公正」「説明責任」「安全・安心」などが基本価値として謳われる。これら価値原則を具体的な業務やプロダクトに落とし込むことで、トラブル防止や社会受容性の向上を図る。
Value principles commonly highlighted in AI guidelines include human dignity, fairness, accountability, and safety. Translating these into actionable policies and product designs helps prevent issues and fosters public trust.
J8-4 ハードロー
キーワード
ハードロー
定義(1行)
ハードローは、法律として強制力を持つルールで、違反すると制裁や処罰が伴う。
Hard law comprises legally binding rules with enforceable penalties for noncompliance.
具体例(3つ)
個人情報保護法や独占禁止法などの国内法
GDPRのようなEU域内におけるデータ保護規則
AIの安全基準を定める法的拘束力のある規制案
詳細な説明
ハードローは国や地域によって議会で制定され、執行機関が違反監視や罰則を課す。AI分野では、すでに個人情報保護や差別禁止などの法律が適用されるが、AI技術自体に特化した新たな法整備も議論されている。
Enacted by legislative bodies and enforced by regulatory agencies, hard law holds direct legal force. In AI, data protection or anti-discrimination laws already apply, with specialized AI legislation also in discussion.
J8-5 ソフトロー
キーワード
ソフトロー
定義(1行)
ソフトローは、法的強制力は弱いが、業界指針やガイドラインとして実質的に行動規範となるルール。
Soft law consists of guidelines or codes of conduct that lack strict legal enforceability but often shape behavior in practice.
具体例(3つ)
AI倫理ガイドラインや業界団体の行動原則
ISOなどの標準規格への自主的準拠
国際宣言(オECDやG20がまとめたAI原則)
詳細な説明
ソフトローは企業や団体が自主的に遵守することで社会的信頼を得る役割を持つ。AI領域では、急速な技術進歩に対し法整備が追いつかないため、まずソフトローが策定されて業界標準や合意形成を図る例が多い。
Soft law fosters credibility through voluntary industry adherence. Given AI’s rapid advancement outpacing legislation, many sectors first implement soft law frameworks for consensus and best practices.
J8-6 リスクベースアプローチ
キーワード
リスクベースアプローチ
定義(1行)
リスクベースアプローチは、AIのリスクレベルに応じて規制・管理の強度を変え、過度な負担や不足を避けようとする考え方。
A risk-based approach tailors regulatory and oversight intensity to AI’s risk level, avoiding both excessive constraints and insufficient governance.
具体例(3つ)
生命や安全に直結する医療AIは厳格な審査や承認プロセス
推薦システムなど低リスクAIには軽度のガイドライン
自動運転のAIについては厳しい安全試験を設ける
詳細な説明
リスクベースアプローチでは、AIシステムの用途や影響度(人命への関与、社会インフラへの影響など)を評価し、そこから必要な規制や監督体制を設定する。汎用AIや高リスク分野ほど規制が強化される傾向にある。
Under this approach, AI’s use case and impact (e.g., on public safety or essential services) determine the degree of oversight. General or lower-risk applications are regulated lightly, while high-risk domains have stricter requirements.
J9-1 カメラ画像利活用ガイドブック
キーワード
カメラ画像利活用ガイドブック
定義(1行)
監視カメラや画像分析を行う際のプライバシー保護や適正利用の指針をまとめたドキュメント。
A guidebook outlining privacy safeguards and proper practices for using surveillance or analytical camera images.
具体例(3つ)
防犯カメラの映像をAIで顔認識する際の取得範囲や保管期間
店舗での顧客動線分析における匿名化手法
車載カメラ映像を収集する際のプライバシー配慮
詳細な説明
カメラ画像利活用ガイドブックは、公共空間や店舗などでの映像解析が増える中、個人の写り込みやバイオメトリクス情報を扱う際の留意点を示す。撮影目的の明示や不要データの早期廃棄、認識技術の精度管理などを推奨する。
As camera-based analysis proliferates in public areas or stores, the guidebook addresses privacy issues when handling personal identifiers. Recommended steps include clearly stating the purpose, timely data deletion, and ensuring recognition technology accuracy.
J9-2 プライバシー・バイ・デザイン
キーワード
プライバシー・バイ・デザイン
定義(1行)
システム設計段階からプライバシー保護を組み込み、事後対策ではなく事前にリスク低減を図る思想。
Privacy by design integrates privacy considerations into system architecture from the outset, preventing risks proactively rather than reactively.
具体例(3つ)
フォームで最小限の個人情報だけを取得するUI設計
データをなるべく匿名化や仮名化して保存する構造
権限管理や暗号化を標準機能として実装
詳細な説明
プライバシー・バイ・デザインは、サービス企画やプロダクト開発の初期からプライバシー保護策を組み込み、不要な個人情報の収集を避ける原則を徹底することで、利用者の信頼と法律遵守を実現する手法。
By embedding privacy features—like minimal data collection or encryption—during initial design, organizations ensure compliance and build user trust. This principle reduces privacy risks before they surface.
J10-1 アルゴリズムバイアス
キーワード
アルゴリズムバイアス
定義(1行)
アルゴリズムバイアスは、AIモデルやルールが特定の集団に対して不公正・差別的結果をもたらす現象。
Algorithmic bias occurs when an AI model or rule yields unfair or discriminatory outcomes for certain groups.
具体例(3つ)
採用AIが男性応募者を優先選抜してしまう
顔認証システムである人種の認識精度が著しく低い
融資審査モデルが特定地域の住民を高リスクと判定
詳細な説明
アルゴリズムバイアスは、学習データの偏りやモデル設計時の無意識な前提によって生じる。公正性の欠如が社会的批判を招くため、データの多様性や公平性の検証、モデル監査が必須とされるようになっている。
Such bias often stems from skewed training data or unconscious assumptions. Addressing it demands diverse datasets, fairness checks, and robust model auditing to prevent discriminatory outcomes and protect social equity.
J10-2 公平性の定義
キーワード
公平性の定義
定義(1行)
AIにおける公平性は、属性による差別や不当な不均衡がなく、同等の機会や扱いを保障する考え方を指す。
Fairness in AI refers to guaranteeing equal opportunity or treatment without discrimination or unjust disparity based on certain attributes.
具体例(3つ)
年齢や性別などに左右されない採用判断
クレジットスコア算出時に人種情報を影響させない
医療診断モデルで特定人種や地域が不利益を被らない設計
詳細な説明
AIの公平性は一義的ではなく、多様な定義がある(例えば「統計的パリティ」「均等不当率」「均等機会」など)。適用場面によって何を「公正」とするかが変わり、政策や技術の両面で議論される。
Fairness in AI has multiple definitions (e.g., statistical parity, equalized odds, equal opportunity), and selecting the appropriate definition depends on context. Policy and technical solutions alike address these nuances.
J10-3 サンプリングバイアス
キーワード
サンプリングバイアス
定義(1行)
サンプリングバイアスは、学習や調査に用いるデータが偏った抽出方法により、結果が歪む現象。
Sampling bias happens when the data selected for training or analysis is unrepresentative, distorting outcomes.
具体例(3つ)
ネット調査のみで高齢者層が排除される
ある地域や時間帯のデータだけをAIに学習させる
ショップ来客データが平日昼間ばかりで休日客を反映しない
詳細な説明
サンプリングバイアスによりモデルは特定集団のみを過大・過小評価してしまい、実際の人口全体を反映しない予測や推論を行うリスクがある。データ収集段階での多様性確保や統計的補正が重要。
Because sampling bias skews the data away from representing the entire population, the model can over- or under-represent certain groups. Ensuring data diversity and applying statistical corrections mitigate this risk.
J10-4 センシティブ属性
キーワード
センシティブ属性
定義(1行)
センシティブ属性は、人種・性別・宗教・健康状況など、差別や不利益に直結するリスクがある個人情報のカテゴリ。
Sensitive attributes are personal data categories—like race, gender, religion, or health—posing higher discrimination risk.
具体例(3つ)
人種・民族情報
性的指向や宗教的信条
病歴や障がい情報
詳細な説明
センシティブ属性をAIモデルの入力に含むと、公平性やプライバシー面で大きな問題が生じ得る。多くの規制や倫理ガイドラインでは、これら属性を利用する場合の慎重な配慮や原則禁止を提唱する。
Including sensitive attributes in AI can lead to discriminatory or privacy concerns. Many regulations or ethical codes recommend caution or prohibition when employing these attributes in decision-making.
J10-5 代理変数
キーワード
代理変数
定義(1行)
代理変数は、本来利用してはならないセンシティブ情報を推測可能な別の特徴量で、意図せぬ差別に繋がる可能性がある。
Proxy variables are features that indirectly infer sensitive information, risking unintended discrimination if used in models.
具体例(3つ)
郵便番号で人種や所得階層を推定
趣味の購買データから性別や健康状態を類推
居住地区が学校区分に反映され人種構成が推測可能
詳細な説明
代理変数は、一見無害に思えるデータでも、統計的相関により敏感な属性を推測できる場合を指す。AIで気づかずに使われると、公平性やプライバシー面での問題を引き起こすため、慎重に分析・監査する必要がある。
Though seemingly benign, such data can reveal sensitive traits via correlation, sparking fairness and privacy concerns in AI systems. Rigorous auditing is vital to detect and mitigate these hidden biases.
J10-6 データの偏り
キーワード
データの偏り
定義(1行)
データの偏りは、収集方法や環境要因により統計的に歪んだサンプルが得られ、モデル結果が不適正になる状況。
Data bias arises when sampling or environmental factors create statistically skewed datasets, leading to unfit model outputs.
具体例(3つ)
白人男性の顔写真が圧倒的多数の画像データセット
高所得者層の行動データばかり集まるマーケティング調査
AI診断で軽症例や女性患者のサンプル不足
詳細な説明
偏ったデータセットで学習したAIは、特定集団に対して性能が低かったり、誤判断を起こしがち。これを回避するには、代表性の高いサンプル設計と評価指標でのバイアス検出が必要。
Models trained on skewed data can yield poor performance or discrimination for underrepresented groups. Ensuring representative samples and bias detection in evaluation metrics helps mitigate these issues.
J11-1 Adversarial Attack (Adversarial Examples)
キーワード
Adversarial Attack (Adversarial Examples)
定義(1行)
AIモデルに対して人間がほぼ気づかない小さな改変を入力に施し、大きく誤った推論をさせる攻撃。
An adversarial attack adds imperceptibly small modifications to inputs that cause the AI model to produce significantly wrong outputs.
具体例(3つ)
画像分類器が数ピクセルのノイズで「犬」を「猫」と誤認
音声認識に微妙なバックグラウンドノイズを入れ誤ったテキスト生成
自動運転カメラにステッカーを貼って標識を誤解読させる
詳細な説明
アドバーサリアル攻撃は、ディープラーニングの脆弱性として注目されており、セキュリティ対策やモデルの堅牢化(Adversarial Trainingなど)が研究されている。悪用されると深刻な安全リスクをもたらす。
Such attacks exploit deep learning weaknesses, prompting research into defenses like adversarial training. When misused, these attacks pose severe safety and security threats.
J11-2 セキュリティ・バイ・デザイン
キーワード
セキュリティ・バイ・デザイン
定義(1行)
開発初期からセキュリティ要件を組み込み、事後対応ではなくシステム構想段階で堅牢性を確保する設計指針。
Security by design integrates security requirements from the earliest development phases, ensuring robust systems from the ground up.
具体例(3つ)
モデル推論APIに強固な認証・アクセス制御を設定
データの暗号化やバックアップ設計を最初から組み込む
ログ監視や不正アクセス検知を標準実装
詳細な説明
AIシステムも含むソフトウェア全般で、後付けのセキュリティ強化は高コストになりがち。セキュリティ・バイ・デザインでは脆弱性診断や権限管理を基本設計に含め、リリース後の問題発生を抑える。
Retrofitting security is often expensive. By incorporating vulnerability assessments and access control at design time, security by design prevents many post-deployment issues.
J11-3 データ汚染
キーワード
データ汚染
定義(1行)
データ汚染は、悪意や不正確なラベルなどにより学習データや推論データが歪められ、モデル品質を低下させること。
Data poisoning is when malicious or incorrect labeling skews training or inference data, degrading model performance.
具体例(3つ)
フェイクデータを学習コーパスに混入
クラウドソーシングのラベル付けで多数の誤ラベル投入
Recommendationシステムの評価データを意図的に操作
詳細な説明
データ汚染が行われると、モデルは誤ったルールを学習したり、特定の誤誘導を起こす可能性がある。セキュリティだけでなく品質管理上も大きな問題で、信頼できるプロセスでのデータ取得・監査が求められる。
Poisoned data can teach a model incorrect patterns or lead it astray. Ensuring trusted data sources and rigorous auditing is vital to maintain model reliability and security.
J11-4 データ窃取
キーワード
データ窃取
定義(1行)
データ窃取は、不正アクセスや漏洩により、機密情報や個人情報を盗み出す行為を指す。
Data theft is the unauthorized access or leak of sensitive or personal information.
具体例(3つ)
サイバー攻撃で顧客データベースが流出
従業員が営業秘密を持ち出し他社へ転職
クラウドストレージの設定ミスで公開されてしまう
詳細な説明
AI開発で使われる学習データが窃取されると、企業競争力の低下や個人プライバシー侵害が発生する。データ暗号化やアクセス制御、SOCの監視体制など複合的セキュリティ対策が必須。
Stolen AI training data can undermine corporate competitiveness or breach privacy. Encryption, strict access controls, and continuous SOC monitoring are essential for protection.
J11-5 モデル窃取
キーワード
モデル窃取
定義(1行)
モデル窃取は、公開APIや推論結果からAIモデルのパラメータや構造を推測・再構築し、不正取得する攻撃。
具体例(3つ)
推論APIを大量に呼び出し、応答パターンからモデルを模倣
機械翻訳システムをクエリ連打して内部パラメータを推定
特許技術のモデルを外部からリバースエンジニアリング
詳細な説明
モデル窃取攻撃は、企業の独自モデルを無断でコピーし、競合が同等サービスを低コストで提供するなどの被害を生む。防御策としてはアクセス頻度制限や応答ノイズ導入、モデルウォーターマーキングなどが提案されている。
Such attacks replicate proprietary models by analyzing inference patterns. Consequences include unauthorized duplication and unfair competition. Countermeasures include query-rate throttling, output obfuscation, and watermarking.
J11-6 モデル汚染
キーワード
モデル汚染
定義(1行)
モデル汚染は、学習済みモデル自体にバックドアや悪意あるパラメータを仕込むことで、特定入力時に意図的な出力を誘発する攻撃。
具体例(3つ)
特定のトリガー画像を入力すると誤分類させるように仕込む
音声モデルで秘密の合言葉を言うと無条件承認
チャットボットに特定フレーズで不適切回答をさせる
詳細な説明
モデル汚染は学習フェーズでの改変や攻撃者がコントロールする環境で発生しうる。ユーザーには通常のテストでは気づきにくいが、トリガー条件を満たすと指定の不正応答をする。検証データセットやモデル監査でバックドア検出が課題となる。
This backdoor infiltration often occurs during training under attacker control. Undetectable in routine tests, the model triggers malicious outputs only when specific cues appear. Thorough audits and specialized detection methods are needed to unveil hidden backdoors.
J12-1 ディープフェイク
キーワード
ディープフェイク
定義(1行)
ディープフェイクは、ディープラーニング技術を用いて人物の顔や声を高度に合成・置き換えする技術。
具体例(3つ)
有名人の映像に別人の表情をリアルに合成
話者の声色を模倣し、偽音声メッセージを生成
ビデオ会議で他人の顔としてリアルタイム参加
詳細な説明
ディープフェイクはエンタメや広告にも使われる一方、フェイクニュースや詐欺、リベンジポルノなどの悪用リスクが深刻。識別技術や法規制の確立が国際的課題となり、各国で対策が進む。
While applicable to entertainment or advertising, it also poses severe threats through misinformation or fraud. Identification and legal frameworks to combat misuse are internationally sought.
J12-2 フェイクニュース
キーワード
フェイクニュース
定義(1行)
フェイクニュースは、虚偽情報や誇張した内容を意図的に拡散して世論操作や混乱を招く報道・記事。
Fake news involves deliberately disseminating false or exaggerated stories to manipulate public opinion or sow discord.
具体例(3つ)
選挙期間中に対立候補を中傷する虚偽記事
災害時に誤情報を拡散し社会を混乱
感染症について根拠のないワクチン危険論を流布
詳細な説明
AIが自動生成するテキストや画像の技術が進むと、事実と見分けにくいフェイクニュースが急増する懸念がある。SNS拡散の高速化も相まって信頼できる情報源を見極めるリテラシー教育やプラットフォームでの対策が重要。
AI-driven content generation fuels the proliferation of plausible yet false news. Coupled with the rapid spread on social media, verifying trusted sources and implementing platform-level countermeasures are paramount.
J13-1 データの来歴
キーワード
データの来歴
定義(1行)
データの来歴は、どのような経路・プロセスを経て収集・加工されたかを追跡できる情報。
Data lineage tracks the origins and transformations of data from collection to final use.
具体例(3つ)
学習データがどの日時・場所で取得され誰が編集したか
前処理やフィルタリングの手順を記録し再現性を確保
外部提供データのソースや契約条件を明示
詳細な説明
データの来歴管理は、信頼性や法的責任の裏付けとなり、AIモデルの説明可能性やコンプライアンスにも寄与する。トレーサビリティを確保することで誤用や不正加工を防ぎ、監査時の証拠としても重要。
Maintaining lineage reinforces data reliability and legal accountability, aiding model explainability and compliance. Traceability also deters misuse and provides essential audit trails.
J13-2 説明可能性
キーワード
説明可能性
定義(1行)
説明可能性は、AIの意思決定や推論過程を人間が理解し納得できる形で示す特性。
Explainability denotes the ability to clarify an AI’s reasoning or decision-making process in a manner comprehensible to humans.
具体例(3つ)
スコアの根拠や主要要因を可視化するLIMEやSHAP
ルールベースで「なぜこの判断に至ったのか」をステップ表示
アテンションマップで画像の注目領域を強調
詳細な説明
深層学習モデルは「ブラックボックス」と言われがちだが、近年はGrad-CAMなどの可視化手法やルール抽出によって、どの特徴が影響したかを示す研究が進む。説明可能性は規制対応やユーザー信頼獲得にも不可欠。
Though often labeled “black boxes,” modern methods—like Grad-CAM or rule extraction—illustrate features influencing deep nets. Explainability fosters legal compliance and user trust.
J13-3 ブラックボックス
キーワード
ブラックボックス
定義(1行)
ブラックボックスは、AIの内部構造や推論プロセスが外部から理解しにくい状況を指す。
A black box refers to an AI system whose internal structure or reasoning process is opaque or difficult to interpret externally.
具体例(3つ)
多層ニューラルネットが数百万の重みで構成され可視性が低い
エンクリプトされたモデルや専用ハードウェアで手法非公開
学習過程を追っても、なぜその特徴が重視されるかが不明
詳細な説明
ブラックボックス化は深層モデルで顕著であり、高精度でも根拠が不透明なため、医療や金融など高リスク分野で懸念される。説明可能AI(XAI)の開発や適切なモデル選択で透明性を高める取り組みが重要。
Deep neural networks often exhibit black-box traits, posing concerns in high-stakes fields like medicine and finance, where accuracy alone doesn’t suffice. XAI approaches and thoughtful model selection enhance transparency.
J14-1 エコーチェンバー
キーワード
エコーチェンバー
定義(1行)
エコーチェンバーは、類似の意見や好みを持つ人々・情報だけが繰り返し強化され、偏りを生む現象。
An echo chamber is a phenomenon where like-minded perspectives and content repeatedly reinforce each other, amplifying bias.
具体例(3つ)
SNSの友人やフォローが同じ意見ばかりで異なる主張が表示されない
特定政党支持者同士のオンラインコミュニティだけで情報共有
レコメンドにより嗜好がさらに極端化
詳細な説明
エコーチェンバーでは、異なる意見や多様な情報が排除され、自己の信念がいっそう強固になる。AIによるパーソナライズが行き過ぎると、情報多様性が失われ、社会的対立や認知的バイアスを助長する。
This effect eliminates exposure to alternative viewpoints, further entrenching existing beliefs. Excessive AI-driven personalization can diminish informational diversity, fueling societal polarization and cognitive biases.
J14-2 フィルターバブル
キーワード
フィルターバブル
定義(1行)
フィルターバブルは、アルゴリズムが個人最適化した情報だけを見せ、ユーザーが狭い情報領域に閉じ込められる状態。
A filter bubble forms when algorithmic personalization confines users to a narrow range of content, limiting exposure to broader information.
具体例(3つ)
動画サイトが既視聴ジャンルに偏るおすすめを表示
SNSが「いいね」や興味ベースで投稿を厳選
ニュース配信アプリが特定の政治立場ばかりを推奨
詳細な説明
フィルターバブルは利便性を高める反面、利用者は自覚なく他の視点を排除される危険がある。ニュースや学術情報のバリエーションが制限され、エコーチェンバー化へ繋がる要因の一つ。
While offering convenience, filter bubbles can unintentionally shield users from alternative viewpoints. They limit news and research diversity, fostering echo chambers.
J14-3 フェイクニュース
キーワード
フェイクニュース
定義(1行)
誤情報や偽情報を意図的に流布する報道や記事で、社会混乱や誤解を誘発するメディア現象。
Fake news refers to intentionally disseminated misinformation or disinformation, creating social confusion or misleading the public.
具体例(3つ)
政治家に関する捏造スキャンダルの記事をSNSで拡散
偽の医療情報でワクチン不信を煽る
自然災害時のデマが口コミで拡大
詳細な説明
フェイクニュースは迅速に拡散されやすく、特にSNSのアルゴリズムで目立ちやすい。ディープフェイク技術も加速しており、信頼できる情報源の確保やファクトチェックの仕組みが必須となる。
It often spreads swiftly via social networks’ ranking algorithms. The rise of deepfakes intensifies this issue, highlighting the need for reliable information sources and robust fact-checking.
J15-1 気候変動
キーワード
気候変動
定義(1行)
気候変動は、地球規模での気候パターンの長期的変化で、人為的な温室効果ガス排出が原因とされる。
Climate change refers to long-term shifts in global weather patterns, largely attributed to anthropogenic greenhouse gas emissions.
具体例(3つ)
異常高温や豪雨頻度の増加
海面上昇や氷河融解による自然環境への影響
農作物の収量減少や生態系の変化
詳細な説明
AI開発には大規模な計算資源が必要であり、エネルギー消費とCO2排出の増加が懸念される。一方、AI技術は気候モデルや環境モニタリングの精度向上にも役立ち、気候変動対策への貢献も期待される。
AI’s vast computational demands raise energy consumption and CO2 emissions concerns. However, AI can also improve climate modeling and environmental monitoring, potentially aiding climate change mitigation.
J15-2 モデル学習の電力消費
キーワード
モデル学習の電力消費
定義(1行)
大規模AIモデルの学習や推論に大量の電力を要し、環境負荷やエネルギーコストが懸念される現象。
Training and running large AI models consume significant power, raising concerns about environmental impact and energy costs.
具体例(3つ)
GPUクラスターを使った数週間のディープラーニング学習
大規模言語モデルの更新や再学習
自動運転AIで常時稼働するハイパフォーマンスコンピューティング
詳細な説明
モデルサイズの肥大化や反復学習が進むほど電力消費が増大し、CO2排出量も拡大する。研究機関や企業はエコフレンドリーなデータセンターや効率的アルゴリズムを模索し、持続可能なAI開発への転換が課題となる。
As model size grows and retraining intensifies, energy use surges, increasing carbon footprints. Institutions seek eco-friendly data centers or more efficient algorithms, pursuing sustainable AI development.
J16-1 AI との協働
キーワード
AI との協働
定義(1行)
AIとの協働は、人間がAIの能力を活かしながら協力して業務やタスクを行う形態。
具体例(3つ)
医師がAI診断ツールを使いつつ最終判断は人間が下す
自動翻訳を人間がチェック・修正して仕上げを行う
カスタマーサポートでチャットボットが一次対応、人間が複雑ケースを担当
詳細な説明
人間とAIが相互補完的に役割を分担することで、作業効率や正確性を高めつつ、人間の価値判断や創造性を活かす働き方が注目される。単純作業はAIが担い、意思決定や革新的アイデア創出を人間が行う設計が理想とされる。
By combining AI’s efficiency with human judgment or creativity, tasks become more effective. AI can handle routine work, leaving higher-level decisions and ideation to people—a model widely advocated.
J16-2 スキルの喪失
キーワード
スキルの喪失
定義(1行)
AIへの過度な依存で、人間が従来培ってきた専門知識や技能を使わなくなり、衰退するリスク。
Skill erosion denotes the risk of humans losing traditional expertise or skills by excessively relying on AI.
具体例(3つ)
自動運転に慣れすぎてドライバーの運転技術が低下
オート翻訳で語学力が維持されない
医師が診断支援AIに頼りすぎて診断力が落ちる
詳細な説明
AIは便利だが、人間が判断や操作を行う機会が減ると熟練度が下がり、緊急時に対処できなくなる恐れがある。教育や実践の場で意図的にスキルを維持・向上する仕組みを整えなければならない。
Though AI improves efficiency, human operators may lose proficiency if they rarely make critical decisions. Training programs that preserve and hone core skills are vital to handle emergencies or system failures.
J16-3 労働力不足
キーワード
労働力不足
定義(1行)
少子高齢化などで労働人口が減少する中、AIが不足する人材の役割を補う現象や期待。
A declining labor force due to aging populations may rely on AI to fill gaps and maintain productivity.
具体例(3つ)
事務作業や顧客対応を自動化し、人手不足を補う
ロボットが工場ラインの単純作業を代替
農業の自動収穫機やドローン管理で担い手減少を緩和
詳細な説明
労働力不足の深刻化に対し、AIを導入することで、単純作業や繰り返しタスクを自動化し、人間はより高度な業務へシフトできる利点がある。一方でAI導入コストや既存雇用との調整も課題となる。
AI can automate repetitive tasks, easing labor shortages and allowing humans to focus on complex roles. However, implementing AI requires upfront investment and job market adjustments.
J17-1 インクルージョン
キーワード
インクルージョン
定義(1行)
インクルージョンは、多様な背景や能力を持つ人々を排除せず、AIが誰もがアクセスしやすい形になることを目指す概念。
Inclusion ensures people of diverse backgrounds and abilities can access and benefit from AI, avoiding exclusion.
具体例(3つ)
身体障害者でも利用できるUI設計
言語マイノリティに対応した多言語音声アシスタント
高齢者向けにフォントや操作を簡易化したスマホアプリ
詳細な説明
AIが特定の集団だけでなく幅広いユーザー層に使われるには、設計段階からユニバーサルデザインや公平性を考慮する必要がある。過度に先進的機能に偏ると、高齢者・障害者・低所得層などの利用障壁が大きくなる可能性がある。
Ensuring universal design and fairness from the outset helps AI serve a broad population. Excessive complexity or exclusive features risk alienating seniors, individuals with disabilities, or lower-income users.
J17-2 軍事利用
キーワード
軍事利用
定義(1行)
軍事利用は、AI技術を兵器や戦闘支援システムとして使用する行為を指し、倫理的・国際的議論がある。
Military use refers to employing AI in weapons or combat support systems, raising ethical and international concerns.
具体例(3つ)
自律型ドローンが目標を自動攻撃
サイバー戦におけるAI主導のハッキング・防御システム
画像解析で敵兵や車両をリアルタイム検知
詳細な説明
軍事分野でのAI活用は技術的アドバンテージをもたらすが、誤爆や責任所在の不明確さ、人道的影響など深刻な懸念がある。国際条約の整備や倫理指針の策定が急がれており、完全自律兵器の禁止を求める声もある。
While offering strategic advantages, AI-driven military applications risk collateral damage, accountability gaps, and humanitarian issues. Many advocate for international treaties or ethical guidelines, including calls to ban fully autonomous weapons.
J17-3 死者への敬意
キーワード
死者への敬意
定義(1行)
死者への敬意は、故人のデータやAI再現などを扱う際に倫理的配慮が求められる概念。
Respect for the deceased involves ethically handling deceased individuals’ data or AI reconstructions with moral sensitivity.
具体例(3つ)
故人のソーシャルメディア履歴をAIボットで模倣
ディープフェイクで故人を広告映像に出演させる
データセットとして死者の履歴を無断活用
詳細な説明
死後の肖像や発言をAIによって再現する際、家族や関係者の感情、名誉、プライバシーなどに配慮が必要。法的保護が十分でない場合もあり、モラルやガイドラインの整備が課題となる。
Reanimating or synthesizing the deceased using AI demands sensitivity to relatives’ emotional well-being, dignity, and privacy. Legal frameworks are incomplete, so moral guidelines are paramount.
J17-4 人間の自律性
キーワード
人間の自律性
定義(1行)
人間の自律性は、AIが意思決定を肩代わりしすぎず、人間自身が選択や判断を行う自由を保障すること。
Human autonomy ensures that people retain freedom to choose or decide, without AI overly supplanting human decision-making.
具体例(3つ)
自動車の自動運転で最終操作をドライバーが行える仕組み
医療AIの診断を参考にしつつ、医師が最終判断
家電の自動制御でユーザーがオフにできる手動モードを用意
詳細な説明
AIが高度化すると、人間が依存しすぎて主体的判断が損なわれる懸念が生まれる。自律性を確保するには、オプトアウト機能や緊急停止スイッチなどを組み込み、常に人間がコントロール可能であるよう設計する必要がある。
As AI advances, excessive reliance risks diminishing human agency. Ensuring autonomy may involve opt-outs or an emergency stop, so humans can maintain control.
J18-1 AI ポリシー
キーワード
AI ポリシー
定義(1行)
AIポリシーは、国や組織がAI技術の開発・利用に関し、法制度や施策を策定・実行するための指針。
AI policy comprises guidelines for law and strategy set by governments or organizations to govern AI development and application.
具体例(3つ)
政府レベルでのAI戦略計画や研究予算配分
企業におけるAI導入リスク評価基準の策定
国際機関のAI規範作成プロジェクト
詳細な説明
AIポリシーは、経済振興・社会安全・倫理観点を総合的に調整する枠組みである。イノベーション促進と同時にデータ保護や公平性を保障するため、立法・行政・産業界が連携して方針を練り上げる。
AI policies form a comprehensive framework balancing economic growth, public safety, and ethical considerations. Collaboration among legislators, agencies, and industries shapes an environment that fosters innovation while ensuring data security and fairness.
J18-2 ダイバーシティ
キーワード
ダイバーシティ
定義(1行)
AI分野でのダイバーシティは、開発・運用の場に多様な人種・性別・背景を取り入れ、偏りや差別を抑える考え方。
Diversity in AI involves including varied ethnicities, genders, and backgrounds in development and operation to reduce biases or discrimination.
具体例(3つ)
チームが異なる文化圏や性別のメンバーで構成
ユーザーテストを多様なサンプル層で実施
トレーニングデータに各集団が均等に含まれるよう配慮
詳細な説明
AI開発チームが多様であるほど、多角的視点でアルゴリズムやデータを検証でき、無意識のバイアスを発見しやすくなる。逆に単一集団のみで作ると偏見に気づかず差別的アウトプットが生まれやすい。
A diverse AI team can spot unconscious biases more effectively by examining algorithms from multiple perspectives. Homogeneous groups risk overlooking biases and producing discriminatory outputs.
J18-3 AI に対する監査
キーワード
AI に対する監査
定義(1行)
AI監査は、第三者や独立部門がAIシステムの開発プロセス・データ・アルゴリズムを評価し、公正性や安全性を検証する仕組み。
AI auditing is a process where third parties or independent bodies assess development, data, and algorithms to verify fairness and safety.
具体例(3つ)
モデルのバイアス検出ツールで精査しレポート
外部コンサルが開発フローやデータ管理を点検
公的機関がAIシステム認証制度を運用
詳細な説明
AI監査は金融や医療など高リスク領域で注目され、技術的評価だけでなく、倫理面・法令遵守面も含む。監査結果は透明性確保や信頼醸成に繋がり、消費者や規制当局に対する説明責任を果たす重要手段となる。
Auditing AI is increasingly important in high-stakes fields like finance or healthcare, covering technical, ethical, and regulatory compliance. Transparent auditing outcomes build trust, fulfilling accountability to users and authorities.
J18-4 倫理アセスメント
キーワード
倫理アセスメント
定義(1行)
倫理アセスメントは、AI開発や運用における倫理的リスクや影響を事前・定期的に評価する手法。
An ethics assessment evaluates potential ethical risks and impacts in AI’s development or deployment, performed beforehand or regularly.
具体例(3つ)
新サービス企画時に差別やプライバシー問題をチェックリストで検証
公共事業でAI導入の社会的影響を有識者会議がレビュー
教育機関で学生データ分析の懸念点をピアレビュー
詳細な説明
倫理アセスメントにより、開発初期からリスクやステークホルダーへの影響を洗い出し、対策を講じやすくする。モデル完成後に問題発覚すると修正が難しいため、計画段階での評価が有効。
By identifying potential harms and stakeholder issues early, ethics assessments help mitigate complications. Fixing post-deployment problems can be difficult, emphasizing the value of preemptive evaluation.
J18-5 人間の関与
キーワード
人間の関与
定義(1行)
人間の関与は、AIシステムの重要な意思決定において、人間が最終的な判断や監督を行う仕組み。
Human oversight involves retaining people as the final decision-makers or supervisors of critical AI system outputs.
具体例(3つ)
医療診断AIの結果を医師が確認し治療方針を最終決定
自動運転の緊急停止をドライバーが手動で操作可能
金融ローン審査でAIの提案を担当者が再チェック
詳細な説明
AIが自律的に判断する範囲を制限し、重要局面では人間が介入することで、責任の所在や安全性が明確になる。完全自動化でなく、人間とAIのハイブリッド運用を推奨する声も多い。
By limiting AI’s autonomy in sensitive areas and keeping humans involved in major decisions, accountability and safety are upheld. Many advocate a hybrid approach—human plus AI—over full automation.
J18-6 モニタリング
キーワード
モニタリング
定義(1行)
モニタリングは、AIシステムが稼働中に挙動や性能、リスク指標を継続的に観察し、異常を早期発見する仕組み。
Monitoring continuously observes AI system behavior, performance, and risk metrics in production, enabling rapid anomaly detection.
具体例(3つ)
推論精度の定期測定や誤差のトラッキング
ユーザーからの苦情や誤作動ログをリアルタイムに収集
アウトプットのバイアス指標を自動可視化
詳細な説明
運用段階のAIモデルはデータ分布の変化やドリフトにより精度が下がることがある。継続的にモニタリングして問題が発覚次第、再学習やルール修正を行うことで被害を抑え、長期的安定運用を図る。
Once deployed, an AI model may degrade if data distributions shift. Ongoing monitoring flags issues, prompting timely retraining or rule updates to maintain stable performance.
J18-7 再現性
キーワード
再現性
定義(1行)
再現性は、同じデータや条件で実験や検証を行った場合、同じ結果が得られる特性。
Reproducibility means that running the same experiment under identical conditions yields the same results.
具体例(3つ)
学習コードやパラメータを共有して他研究者が同一性能を確認
データセットを公開し統計結果を検証可能に
論文の実験手順を詳細に記述して追試を容易化
詳細な説明
AI研究では、実装依存や乱数シードの影響で再現性が失われやすい。再現性が確保されれば、結果の信頼度が高まり、他の研究者や実務者が検証・発展させる基盤となる。
In AI, reproducing results can be difficult due to implementation dependencies or random seeds. Ensuring reproducibility enhances credibility, enabling other researchers or practitioners to verify and extend findings.
J18-8 トレーサビリティ
キーワード
トレーサビリティ
定義(1行)
トレーサビリティは、AIシステムの入力データや処理過程を遡り、結果がどう生成されたか追跡できる仕組み。
Traceability allows tracking of input data and processes in an AI system, revealing how outputs were generated.
具体例(3つ)
どの学習データレコードが予測結果に影響したかを特定
バージョン管理されたモデルとパラメータ変更履歴
ログデータで推論経路や中間特徴を復元
詳細な説明
トレーサビリティが確保されると、問題発生時に原因箇所を迅速に特定でき、誤用や不正操作の発見にも役立つ。特に医療や金融など高リスク領域で、アカウンタビリティを高めるうえで重要視される。
With traceability, teams can swiftly locate the root cause of anomalies or detect misuse. In high-stakes sectors like healthcare or finance, it bolsters accountability and mitigates risk.