人気の記事一覧

【デジタルMATSUMOTOの考察(2024/9/19)】これってAIの正しい理解?09「『先ほどの回答について根拠を教えてください』は本当に正しく説明できている?」

SHAPを使ったモデル解釈

1か月前

🤯 AIの説明、間違ってても信じる!?😱 「誤情報効果」で人間はAIに騙される!?

TELLER: A Trustworthy Framework for Explainable, Generalizable and Controllable Fake News Detection

9か月前

XAI (Explainable AI、説明可能なAI): 信頼できる人工知能に支えられる社会を目指して

機械学習アルゴリズムの公平性の「第二波」

4年前

画像診断に求められる機能と医師に与える影響

Enhancing Deep Learning Model Explainability in Brain Tumor Datasets using Post-Heuristic Approaches

6か月前

RAG-Driver: Generalisable Driving Explanations with Retrieval-Augmented In-Context Learning in Multi-Modal Large Language Model

8か月前

予測結果の根拠をデータで示す〜事例ベース推論(CBR)とその活用方法

AIの透明性を高めるためにできること~AIシステムの結果や決定に対して質問したり、それに異議を唱えること

1年前

機械学習の説明可能性・解釈可能性

仕切り直しで収集情報の整理・目次

https://ai-scholar.tech/medical/monte-carlo-dropout-ai ドロップアウト等を利用することで、深層学習にベイジアン的な不確実性の表現力が付与される…、ベイズ過程回帰と深層学習が統合される??不確実性を可視化すたいという要望があるんやね。いいよ、使い道が広がりそう。