見出し画像

ヘルスケアとAIについて考えてみる①

はじめに

最近、AI(人工知能)の急速な発展は、毎日のようにニュースに溢れ様々なことに応用されつつあるかと思います。ただ、巷ではAI、AIと言われていても僕もあまりよくわからずに使っている部分も多いため、頭の整理のため今更ではありますが、少し自分なりに整理してみようかと思いました。今更な部分や荒削りな部分は多々あると思いますが、まずは自分の現在地を知るためにも少しトライしてみようと思います。

AI進展の経緯

まずは、AIについて、これまでの流れなど、総務省の令和6年版情報通信白書をベースにChatGPTと対話しながら教えてもらいました。*1

総務省.令和6年版情報通信白書

AI技術は、推論・探索の時代から生成AIの時代に至るまで、飛躍的な進化を遂げてきました。この進化は、コンピューティング能力、アルゴリズム設計、そしてデータ利用の進展とともに進化しています。

AIのこれまで

第1次AIブーム:推論・探索の時代
推論・探索の時代の研究は、主に記号処理と論理推論に基づいていました。人間の知的行動を模倣するために、ルールベースのシステムや効率的な探索アルゴリズムが開発され、「明確なルールと条件に基づく問題解決」に焦点が当てられていました。例えば、A*アルゴリズムやミニマックス法は、問題解決やゲーム理論の分野で重要な役割を果たしました。
しかし、この時代のAIは、現実世界の複雑さには対応できませんでした。研究が進むにつれて、ルールだけでは不十分であることが明らかになり、知識の体系化とデータの活用が求められるようになりました。
第2次AIブーム:知識の時代
「知識ベースの時代」では、「特定分野での意思決定支援」としてエキスパートシステムが登場しました。医療や製造業の分野で大きな成果を上げました。
しかし、この時代にも限界がありました。知識の獲得と更新には膨大な手間がかかり、柔軟性を持つAIを構築することは困難でした。
第3次AIブーム:機械学習の時代
機械学習の時代では、大量のデータとGPUを活用した高性能な計算リソースの進化によって支えられました。教師あり学習、教師なし学習、強化学習、深層学習などの手法により、画像認識や音声認識の分野で飛躍的な進歩がもたらされました。
また、AlphaGoがプロ棋士に勝利したことは、AIが人間を超える可能性を世間に印象付けました。

generated by ChatGPT
generated by ChatGPT

第4次AIブーム:生成AIの時代
2020年代に入り、「生成AIの時代」が到来しました。生成AIは、Transformerモデルや自己教師あり学習の技術を基盤とし、テキストや画像、プログラムなどを生成する能力を持つAIです。
これにより、AIは単に認識や予測を行うだけでなく、創造的な活動においてもその能力を発揮するようになりました。

generated by ChatGPT
generated by ChatGPT

Stratecheryでは、「アイデア伝播のバリューチェーン」として「創造・具現化・複製・配信・消費」について説明されており、生成AIにより、創造と具現化がアンバンドリングされつつあることが言及されています。*2
個人的には、完全には対応していないとは思いますが、アイデア伝搬バリューチェーンとリンクして、AIブームの進歩に伴いそれぞれのボトルネック部分でのユースケースの幅が広がってきてるように思います。以下にこれまでのことをまとめた表を付けておきます。

ずれている部分は多くあるかと思いますが、個人的には少し理解が進んだ気がします。

AIの課題

前項では、AIが進歩するにつれ、どのような変化があったかを自分なりに整理してみました。さまざま期待値が上がる一方で、生成AIの時代に突入しても、課題は出てきているかと思います。
​今回は生成AIの時代の​課題として​もChatGPTが挙げていた、コスト面、倫理面、説明可能性面の3点について学んでみようかと思います。

コスト面

AI技術の進化、とりわけ大規模言語モデル(LLM)の発展が大きく貢献しています。しかし、その影響力の裏には、コスト面の増大があるかと思います。
LLMのトレーニングには、高性能GPUやTPUが必要不可欠であり、その導入と運用コストは莫大です。膨大な電力消費などの要因も重なり、AIモデルのトレーニングコストは年々上昇していることが指摘されています。*3

Ben Cottier,et al.arXiv:2405.21015.The rising costs of training frontier AI models

このような背景から、AI市場では性能向上とコスト削減のバランスを取る動きが進んでいるかと思います。さまざまなサービスが増え裾野が広がっていく一方で、OpenAIでは、O1 ProやO3のようなハイエンドモデルも登場しつつあります。*4
使用する側としては、適切なモデル選択やトークン削減、推論効率化技術の導入によるコスト最適化なども必要になってくるのかもしれません。*5
また、AI導入には「ラストマイル」の問題もあります。AIのコストは上がる一方で、導入や活用モデルはまだ確立しきれていない現状があるかと思います。*6 特にハイエンドモデルになっていけばいくほど、その傾向は上がってくる可能性があるかと思います。
AIのコスト問題は、コスト効率を向上させるだけでなく、あらゆる規模の組織がAIの恩恵を享受できる仕組みの構築、新たなUXが求められているのかもしれません。*4

倫理面と説明可能性

AIは膨大なデータをもとに学習し、意思決定や提案を行いますが、そのプロセスは必ずしも倫理的な基準や人間の価値観を反映しているわけではありません。そのような中、AI倫理という分野も2014年頃から確立されてきました。*7 AIの自律性が進むにつれ、AI倫理の必要性も増しています。例えば、生成AIによる偽情報の拡散や知的財産権の侵害など、新たなリスクが表面化してきており、実際に目にする機会もあったのではないでしょうか。*8
また、AIが複雑なアルゴリズムを用いて意思決定を行う一方、そのプロセスが「ブラックボックス化」していることが信頼性を損なう要因となっています。ヒトの場合社会規範など決まったルールをベースに学習しますが、AIの場合、ニューラルネットワークシミュレーションごとのルールで学習する可能性があり、例えば、道路標識の細かな変更で機械学習アルゴリズムが混乱をきたした事例などが報告されています。*7 このような事態を避けるためにも、透明性と説明可能性を確保することは、AI技術が社会に広く受け入れられるための基本条件となるかと思います。

AI事業者ガイドライン*8

日本では、安全安心なAIの活用のための望ましい行動につながる指針として「AI事業者ガイドライン」を策定しています。「AI事業者ガイドライン」は、AI開発者、提供者、利用者それぞれの役割と責任を明確にしています。このガイドラインは、リスクベースアプローチとアジャイル・ガバナンスの概念を取り入れ、AIの進化やリスクに柔軟に対応できるよう考慮されています。

経済産業省.2024年4月19日.AI事業者ガイドライン(第1.0版)

AI開発者の責任として、データのバイアスを最小限に抑え、安全性とセキュリティを徹底的に検証することが求められます。また、学習データやアルゴリズムの透明性を確保し、トレーサビリティを強化するための各工程の文書化などが重要です。
AI提供者の責任では、AIシステムの利用範囲を明確にし、適切なサービス規約などを提供することが強調されています。特に、AIが想定外の用途で使用されることでリスクが生じないよう、利用上の留意点を利用者に分かりやすく伝える必要があります。
AI利用者の役割としては、意図された範囲内で適切に利用することが推奨されています。そして、AIが提供する出力を過信せず、その限界を理解しながら活用することが求められています。

経済産業省.2024年4月19日.AI事業者ガイドライン(第1.0版)を参考に作成

Ethics and governance of artificial intelligence for health*9

WHOでは主にヘルスケア分野でのAIの利用に焦点を当て、大規模マルチモーダルモデル(LMM)の潜在的な利益とリスクを明確化し、倫理的かつ安全な利用を促進するためにガイダンスを作成しています。
AIを健康分野で利用する際には、まず患者の尊厳と自律性を尊重することが基本です。患者がAIの利用について十分な情報を得た上で選択できるよう、インフォームドコンセントを仕組み化する必要があります。また、AIの恩恵を全ての人々に平等に届けるために、社会的弱者や情報弱者を含む多様な背景を考慮した公平性と包摂性を確保することが求められています。
特に、近年注目を集める大規模マルチモーダルモデル(LMM)は、汎用性の高さから多様な医療タスクに対応できる一方で、特有のリスクも抱えています。透明性に欠けるデータセットによる誤診や不適切な治療提案や虚偽情報を生成する「ハルシネーション」のリスクが懸念されます。医療現場では、これらのリスクがそのまま患者の健康に直接的な悪影響を及ぼす恐れがあるため、AIによる診断や提案を慎重に評価し、必要に応じて人間の判断を補完することが重要となります。
また、日本の「AI事業者ガイドライン」と同様に、AIのバリューチェーンを設計・開発、提供、展開の3段階に分け、それぞれで注意すべきリスクや各ステークホルダーの役割についてもまとめられております。

World Health Organization.18 January 2024.Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models

AIのヘルスケアでの応用が期待される中、倫理的な課題に対する取り組みは、技術革新の信頼性と持続可能性を支える柱となり得ます。AIのリスクを最小限に抑えつつ、患者ケアの向上や医療従事者の支援につなげていくためにも、これらの取り組みやガイダンスを参考にしていく必要性がありそうです。

EU AI規則*10

EU AI規則(EU AI Act)は、AIシステムの開発、提供、利用に関する初の包括的な法的枠組みとなります。この規則では、リスクベースアプローチにより、AIの多様性を尊重しながら、人々の健康、安全、基本的人権を守りつつ、イノベーションを促進することを目的としています。*11

欧州連合日本政府代表部.2024年9月.EU AI規則の概要

例えば、EU AI規則では以下の点などで構成されています。
まず、内部市場の調和を図り、EU域内でAI製品やサービスが自由に流通できる環境を整えます。また、人間中心のAIを原則とし、AIは人々の福祉を向上させるためのツールであるべきとしています。特に、健康や安全、基本的権利に重大な影響を与える高リスクAIシステムについては、統一ルールを設け、差別のない公平な運用を求めています。
規則ではさらに、透明性の向上に重点を置きます。特定のAIシステムに対しては、AIが生成したコンテンツを明示し、ユーザーがその性質を正しく理解できるようにします。
データ保護にも厳しい基準を設けており、個人データを扱うAIシステムはEUのデータ保護法に準拠することが義務付けられています。また、倫理的に問題のある特定のAI慣行、例えば、人間の行動を不当に操作するシステムや感情認識技術、無制限の顔認識データベースの作成を禁止しています。
これらのことにより、EU AI規則は、AIの恩恵を社会全体に広げると同時に、そのリスクを最小限に抑えることを目指しています。

以上のことから、特にヘルスケアでは、透明性と説明可能性が求められ、作る側だけでなく、提供者・使用者にも周知徹底されておく必要があり、それにより倫理面の対策につながったり、リスクを回避できることにつながるのかなと思います。

ヘッダー画像:generated by DALL-E
【参考資料】
*1:総務省.令和6年版情報通信白書
*2:Stratechery.September 12, 2022.The AI Unbundling
*3:Ben Cottier,et al.arXiv:2405.21015.The rising costs of training frontier AI models
*4:コッカラSaaS.2024.12.21.クリスマスAI商戦ダイジェスト
*5:Shivanshu Shekhar,et al.arXiv:2402.01742.Towards Optimizing the Costs of LLM Usage
*6:Brookings.Martin Fleming,et al.August 29, 2024.The last mile problem in AI
*7:Di Kevin Gao,et al.arXiv:2403.14681.AI Ethics: A Bibliometric Analysis, Critical Issues, and Key Gaps
*8:経済産業省.2024年4月19日.AI事業者ガイドライン(第1.0版)
*9:World Health Organization.18 January 2024.Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models
*10:Council of the EU.21 May 2024.Artificial intelligence (AI) act
*11:欧州連合日本政府代表部.2024年9月.EU AI規則の概要


いいなと思ったら応援しよう!