【TCT DAY5】テクノベート・シンキング⑤
テーマとケース
【テーマ】テクノベートシンキングによる問題解決プロセスにおけるより高度な手法
【ケース】なし
クラスの学び
前回クラスの後半で少し触れた、グラフ理論とツールを使った分析と解釈を前半で行い、後半はAI、API、IoTについての講義だった。
苦戦しつつもおもしろかったスクラッチは前回で終了。今回課題のGephiはデータが悪かったのかうまくグラフを描けなかったが、約2週間程度自分の行動パターンを記録してみて、かなり行動範囲がせまく決まった場所にしか移動していないことが分かり、もっと色んな場所へ出ていかないとなと思った。
AIやIoTについては、そもそもAIとはなんなのかから始まり、マイクロソフトやグーグルが無料で公開しているAIの紹介や機械学習の動画などの解説があった。簡単な画像認識なら1分もかからず誰でも使うことができる。テクノロジーの進歩はすごい。
今回のクラスは講義多めだったためなかなか内容まで書くことができないが、改めて今後の仕事や生活のスタイルはテクノロジーの進化によってどんどん変化していくのだろうと感じた。
自分(自社)への落とし込み
介護の請求や記録に使用するソフトがどんどんクラウド化していったり、間接業務などもインターネットとデバイスさえあればどこにいても仕事ができるようになりつつある。
ケアテック企業と呼ばれるスタートアップもどんどん増えている。身近なところでは、ケアプラン作成をAIがアシスタントするサービスなどもあり、直接援助以外の部分にテクノロジーが活用されつつある。
ケアプランや個別援助計画などは教師データ(AIに学習させるデータ)が非常に重要だが、正しくデータさえ集められれば、エビデンスベースでは人よりも効果的な計画立案ができそうだと思っている。そのうえで、人間がチェックしデータ化しづらい部分を修正していくようなスタイルになっていくのではないか。そうすると、ケアマネジャーの担当件数も35件ではなくもっと多くの利用者を担当できるようになるかもしれない。
画像認識の分野では、行動パターンを把握して危険予測できるようになるといいが、例えば転倒予測だとどんなデータが必要だろうか。床、イス、立位時の姿勢などで転倒する前にアラートを出すことができるようなるかもしれない。(ただし、転倒は一瞬なので気づいたところで駆けつけるのか不可能かもしれない)
他にも、お腹が空いてそうだとか、トイレに行きたそうだとか、退屈そう、眠そうなど、撮影した画像から判断できるようになるものだろうか?
ある講演の中で、グロービス経営大学院の特別顧問もされている多摩大学の田坂広志先生がヘーゲルの弁証法(螺旋の法則)の話をしている動画をみたが、テクノロジーの進化により一段レベルアップした形で、(ある意味)監視する介護を行う時代がやってくる可能性もあるかもしれないと思った。
劇的に足りない介護人材をテクノロジーで補おうと思えば、常に撮影されている画像をAIが判断し、介護職員に指示を飛ばすようなことも起こるかもしれない。倫理的に問題はあるが、スイッチのオンオフを本人が決めれば済む話かもしれない。
変化していく社会の中で、変化についていけず退場を余儀なくされるのか、変化に対応しスキルを身に付けていける人になるのか、それとも変化を主導していく側に立つのか。
テクノロジーの進化と予測される未来を常にウォッチして、変化を生み出していく側に立ったほうがおもしろそうだ。
優秀なテックサイドの人材とタッグを組んで、ケアテック領域もチャレンジをしていきたいな。それをするためのテクノベート・シンキングだし。