AIに学ぶ介護 AIと介護2
1.ICTとAI
介護の世界では近年、ICT(Information and Communication Technology:情報通信技術)が大流行りです。
以前はIT(Information Technology:情報技術)と言うのが一般的でしたが、近年ではこのITにCommunicationを加えてICT(情報通信技術)という言葉が多く用いられるようになってきています。これは、メールやチャット、オンライン会議などのインターネット通信技術を使って人と人と人がつながることを支える基盤技術になってきているからでしょう。
いずれにしても、日本政府は「ICT導入で介護業務を効率化し生産性を高めよ!」と大号令をかけています。
さて、このICTとAI(Artificial Intelligence:人工知能)との関係、相違は、どのようになっているのでしょうか。
西垣通(情報学者、東京大学名誉教授)さんは次のように簡潔に答えています。
今後、AIがICTを活用し、当事者(お年寄り)のニーズを判断し、介護計画を作成し、当事者の状態を常時モニターし、介護サービスを評価するようになると思います。
そして、AIはあたかも自律性を有するかのように人々の前に立ち現れることでしょう。
西垣通さんは、このような事態の問題点を次のように指摘しています。
2.AIに自律性はあるのか
(1)疑似自律性
私は、AIの考察をとおして人間や介護について理解を深めることができるのではないかと思っています。
まず、生成AIの自律性について考えてみたいと思います。AIの自律性(autonomy)について考えることは人間の自律性について考えることでもあります。
実際にChatGPT等の生成AIを利用していると、まるで人間が回答しているかのような錯覚に陥ります。しかも、かなり優秀な人間に思えます。
AIの利用者はそのアルゴリズム(algorithm:論理手順)が分かりませんから人間のように感じてしまうのです。
また、日本は鉄腕アトムの国ですからロボットやAIを直ぐに人間のように見做してしまうのかも知れません。
いずれにしても、はたして、AIは人間のように自律性を有しているのでしょうか。
西垣通さんは、AIは「疑似自律性」を有していると指摘しています。
さらに同氏は第三次コンピューターブームではAIが自律性を有するかのような誤解が広がってしまったと指摘しています。
自律性とは「自ら行動のルールを自ら定めることができる」ということですが、AIは人間によって設計されており原理的に他律的であり人間のような自律性はないのです。
(2)機械と生命体/自律系と他律系
西垣通さんによると自律性について考えるとき、機械と生命体、自律系と他律系という概念が役に立つといいます。
生命体はその作動プログラムを自ら創り出す「自律系」で、コンピューターのような機械は人間によってその作動プログラムを規定された「他律系」(heteronomous system)だといいます。
つまり、生命体は根源的に自律的な存在なのですが、コンピューターはその作動ルールを人間の設計者によって厳密に規定されているゆえに、他律系に他ならず、自律性を持たないというのです。
西垣通さんの生命体と機械の自律性に関する解説を以下に紹介します。
1997年5月11日、チェスの6番勝負でIBM社製のコンピューター「ディープブルー」が史上初めて、チェスの世界チャンピオンであるガルリ・カスパロフ(ロシア人)に勝利したと世界のメディアが報じました。
しかし、勝ったのはコンピューターではなく「ディープブルー」の開発チームでしょう。
この頃からAIの擬人化が見られるのですが、AIはあくまでも人間の創造物であり自律性はないのです。
このことを忘却するとAIの社会的位置づけ、人間とAIの関係性が歪んでしまうと思われます。
3.エビデンス主義と不可知性
(1)不可知性
AIの自律性の考察をとおして生命体や人間の自律性について考えてみます。
西垣通さんは自律性を有するということは不可知性を有することだとしています。
これはとても大切な指摘です。
生命体は自身でルールを作るので外部から生命体の行動を観察しその習慣から行動を推測することはできても、その行動を完全に予測することができません。生命体は「不可知性」を有しているのです。この不可知性は自律性と分かちたがく関連しています。
これに対してAIは原理的には分析可能で不可知性を有していないのです。
この不可知性ゆえに、人間には対話が大切なのであり、不可知性ゆえに尊いのではないでしょうか。
ある人に関して、その全てをわかるということはありえませんし、その人の全てがわかると言うのはその人に対して失礼でしょう。
(2)人間の不可知性
介護においてもこの「不可知性」は重要な概念、視点だと思います。
例え当事者(お年寄り)の状態分析、行動分析、心理分析等々をAIで行い(アセスメント)、そして、AIでケアプランを作成したとしても、その当事者は原理的に「不可知性」を有しているということを忘れてはなりません。
昨今のLIFE(Long-term care Information system For Evidence)による科学的介護、つまり、エビデンス主義[1]に基づいた介護はAIを積極的に活用していくことを目指しています。
LIFE(科学的介護情報システム)は2021年春より本格導入されていますが、介護事業所などが介護データをシステムに提供し、システムのアルゴリズム (algorithm:論理手順)を用いてそれを評価し、介護事業所にフィードバック [2](feedback)することにより、PDCAサイクル の推進を通じて介護の質の向上を図ることを目的としています。
これは介護の質の向上にとって非常に大切なことでしょう。成り行き任せの介護より計画的な介護の方が良いのは当然です。
しかし、先に記したように人間の「不可知性」を忘れてはなりません。
西垣通さんの次の指摘を心に留めたいと思います。
AIによる当事者(入居者)の客観的データ分析・推論・エビデンスだけで当事者(お年寄り)を理解してはいけません。つまり、外部からの観察のみで当事者を理解してはならないということです。
当事者の主観的世界、経験の理解も当事者の理解にとって、とても大切だと思います。
人間の経験を探求する方法、現象学について以下のnoteをご参照願います。
4.AIには責任があるのか?
(1)自動運転技術と責任
自動運転車(Self-driving car Autonomous car)が著しい進歩を遂げています。
自動運転技術に関して米国自動車技術者協会や国土交通省は自動運転レベルを、レベル0~レベル5までの6段階に区分しており、レベル5では制限なく全ての運転操作が自動化されるといいます。現在はレベル3の条件付自動運転車(限定領域)まで進んでいるようです。
もちろん自動運転車にはAIが搭載されているのですが、レベル5の自動運転が実現したとして、事故が起こったら誰の責任になるのでしょうか。
事故車輛に搭載されているAIが責任を取るのでしょうか。それとも製造者が責任を取るのか、それとも運転手の責任なのでしょうか。
AIの責任について考察するということは人間の責任についても考察することです。
西垣通さんはAIの責任ついて次のように問題提起しています。
もし、AIに自律性を認めるのであれば、AI自体が責任を問われることになるでしょう。
しかし、その場合の責任を取るということはどのような事態なのか。どのように責任をとるのか。まったくイメージできません。
AIはあくまで機械であり責任を負える存在ではないのです。
何か責任問題が発生した場合は、その機械を作った人間や組織、または、その機械を使用した人間・組織が責任を取るしかないのでしょう。
(2)インピュタビリティとレスポシビリティ
介護の現場でもAIの責任について考えておく必要があります。
介護現場の介護の分析及びフィードバック等はLIFE(AI)が担うようになりますが、このAIの分析・フィートバックにより何か問題が生じた場合に責任を取るのはLIFEを制作維持管理している厚生労働省か委託先の会社か、介護を実施した人間、組織が負うしかないでしょう。
また、ケアプランをAIが作成し、そのケアプランが何らかの損害、不利益を当事者(利用者・入居者)に与えた場合も、そのケアプランを勧めた介護支援専門員が責任を取ることになるのでしょう。
このような場合の責任とは英語でいうimputability(インピュタビリティ)であってresponsibility(レスポンシビリティ)ではありません。
imputabilityは帰責性と訳され。「罪や欠陥などをある人に帰属させる」ことを意味します。
これに対して、responsibilityはresponse(レスポンス)つまり応答に由来します。
何らかの法的な問題であればimputability・帰責性が問題となるのは当たり前ですが、介護の現場で大切なのはresponsibility、つまり応答に由来する責任概念だと思います。
このresponsibility・応答をするのはあくあまでも人間である介護現場の職員でしょう。介護職員は当事者(お年寄り)の訴え、要望、希望に応答する責任を有していますが、AIはそのような責任を有しているわけではないのです。
このresponsibility・責任は倫理と直結しています。
(3)倫理とは
倫理とは迷いながら葛藤しながら選択し行為することですが、アルゴリズム(論理手順)に基づき、迷いのない判断、選択を行うAIには倫理はないのです。
竹田青嗣(哲学者、早稲田大学名誉教授)さんは次のように指摘しています。
(4)AI導入により介護現場の責任はどうなるか?
迷うことなき、葛藤なきAIは、原理的に倫理を有しません。
職員がこの倫理を持たないAIの指示に盲目的に従うとすれば、介護現場からは倫理がなくなってしまいます。
そうなれば、職員はもはや悩んだり葛藤したりしないで済みますが、職員も自由や倫理を失ってしまいます。
AIが介護現場で活用されればされるほど、職員はAIの指示の妥当性を検証し、葛藤しながら、迷いながら自ら考え判断しなければ、介護現場の倫理は失われてしまうのです。
たとえ、LIFEのアルゴリズム(論理手順)が進化し続けたとしてもAIに責任・倫理を期待することはできません。
AIがどれだけ進化したとしても、やはり、職員は自分の知性と感性を使うことを止めてはいけないのです。葛藤しながら、迷いながらも思考し、行動し続けていかなければなりません。
(5)相対的剰余価値の生産が介護現場を無責任にする
しかしながら、資本主義社会においてはAIの導入目的は相対的剰余価値(注※)の生産にあります。
つまり、AI の導入は生産性の向上、業務の効率化による人員削減、人件費削減ですから、職員が悩んだり考えたりする時間的余裕は与えられないでしょう。
介護現場にAIを導入するということは資本の論理からすれば、職員たちに「悩むな、考えるな、黙ってAIの指示に従え」ということになりかねないのです。
AIの導入目的を生産性の向上ではなく、職員に当事者(お年寄り)との関わり合いの時間を与え、より良い介護を行うことを目的とすべきでしょうが、資本主義体制体では難しいでしょう。
介護関係者はICT・AI導入は当事者と関わり合える時間の増大を目的とすべきということを主張し、行動し、勝ち取らなければならないでしょう。
(注※)相対的剰余価値については以下のnoteをご参照願います。
[1] エビデンス主義(evidence-based)は、科学的証拠に基づいて意志決定や行動をするというアプローチや哲学。特に医療や健康領域で広く用いられている。
[2] フィードバックとは、相手の行動に対して改善点や評価を伝え、軌道修正を促すことを指す。
科学と介護、及びAIと介護は一連のシリーズとなっております。