見出し画像

これで安心?子どもを守るAI続々◆取材で見えた「本当の力」【時事ドットコム取材班】(2022年11月17日08時00分)


 人工知能(AI)を使って子どもの安全を守ろうとする取り組みが次々に始まっている。バスに閉じ込められた園児を検知したり、虐待のリスクを見抜いたり。だが、中には実証実験がうまくいかず、導入が見送られたケースもあるという。取材を進めると、有能だが「万能」ではない、AIの等身大の姿が見えてきた。(時事ドットコム編集部 太田宇律

 【時事コム取材班】

園児見守る「AIカメラ」

置き去り防止装置の実証実験で、バスに閉じ込められた女児をAIが検知する様子(Seibii社提供)

 神奈川県厚木市の「厚木田園幼稚園」は、2歳から5歳まで400人超が通う大規模な認定こども園だ。2022年10月12日、この園でAIを使った「置き去り事故防止装置」の実証実験が行われると聞き、さっそく取材に赴いた。

 実験の想定は「座席で眠り込んだ園児に運転士も保育士も気付かず、車内に置き去りにしてしまう」というもの。運転士が乗降ドアを施錠して立ち去ると、座席に横になっていた女児が起き上がり、不安げに車内を歩き回る。すると、その姿を車内後部のカメラ装置が検知し、画像を解析したAIが「置き去り」と判断。担当者のスマートフォンに「人を検知しました」との警報メールが自動送信された。

 「どれだけ注意しても、人間はいつかミスを犯してしまう。装置が完成したら、今すぐにでも取り付けたいくらいだ」。園を運営する学校法人の小沢俊通理事長は、女児が無事「救出」される様子を見届け、満足そうにうなずいた。

 この実験は同年9月、静岡県牧之原市の認定こども園で3歳の女児が死亡した痛ましい置き去り事故を受けたもの。厚木田園幼稚園では毎日およそ300人の園児を大小6台のバスで送迎しており、「決して人ごとではない」という。

厚木田園幼稚園で行われた、AIを使った置き去り事故防止装置の実証実験=2022年10月12日、神奈川県厚木市

歓迎、でも…

 実験を見学していた園の保護者からも「AIが見守ってくれるのは心強い」「目視での確認には限界があると思っていた」と歓迎の声が上がった。ただ、安全が「AI任せ」になってしまうことを心配する意見もあり、4歳の園児を通わせているという会社員の山本麻子さんは「園の方々を信頼しているが、装置を導入した後も目視確認は徹底してほしい」と語った。

 確かに、実験の取材を通じて「AIも万能ではない」と感じる場面はあった。この装置のAIは乗っていた園児が全員カメラに映らなくなったタイミングで「園に到着した」と認識し、それ以降にカメラに人影が映った場合のみ「置き去り」と判断する。そのため、例えば閉じ込められた園児がカメラから一度も姿を消さずに映り続けていた場合、AIが「送迎中」と誤認識して警報メールを送らない恐れがある。逆に、園児がカメラの死角にずっと倒れたままだった場合は異常を検知できない。

 装置を開発したIT企業「インテリジェンス・デザイン」(東京・渋谷)の末広大和取締役は「AIはあくまで補助的なもので、人間の細やかな判断を代替することはできない」と説明。だが、「AIの手を借りることで、多忙な職場の負担を軽減したり、人間のミスを補ったりすることはできる」とし、実験結果を踏まえ、例えば「園に到着した」とGPSで判断できるようにしたり、人感センサーを組み込んだりすることを検討しているという。

広がる「見守りAI」

開発中の性被害防止アプリ「コドマモ」の使用イメージ(スマートブックス社提供)

 置き去り防止装置以外にも、子どもを守るためのAIは続々と開発されている。例えば名古屋市のIT企業は、赤ちゃんが窒息する恐れのある「うつぶせ寝」の姿勢をカメラで検知し、保護者に警告するAIアプリを提供。奈良県葛城市では22年5月から、市立中学の生徒がタブレット端末で入力した日記をAIが解析し、悩みを抱えた生徒のケアにつなげる取り組みが行われている。

 東京都世田谷区のIT企業「スマートブックス」は、愛知県警などと連携し、自撮りによる子どもの性被害を防止するスマホ用アプリ「コドマモ」を開発中だ。不適切な写真や動画が子どもの端末に保存されたことをAIが検知し、流出しないよう自動削除するアプリで、22年中の公開を予定している。同社によると、当初は大相撲の力士や筋トレ中の男性など、肌の露出度が高い写真を「不適切」と判断することもあったが、現在は精度が向上。冨田直人社長は「子どものプライバシー保護と犯罪被害の防止を両立させたい」と意気込む。

虐待リスクも「可視化」

 こうしたサービスの中でも特に注目されているのが、児童虐待のリスクを見極めるAIだ。三重県は2020年7月、県内6カ所の児童相談所に、児童虐待対応を支援するシステム「AiCAN」を導入。職員が対象家庭の調査結果をタブレット端末から入力すると、類似した過去のケースや一時保護した割合、虐待の再発率などが表示される仕組みという。

 児相が対応した虐待相談件数は31年連続で右肩上がりとなっており、政府は24年にも児相支援AIの全国での運用を始め、現場の負担軽減を図りたい考えだ。ただ、先行導入した三重県の児童相談センターに成果を取材してみると、このシステムは職員同士の情報共有の迅速化やデータ記録の効率化には有効な一方、AIを使ったリスク分析機能には課題もあることが見えてきた。

三重県の児童相談所に導入された虐待対応支援システム「AiCAN」の使用イメージ(AiCAN社提供)

 「データがそろえばリスクを可視化できる。ただ、切迫した状況では、AIの判定に必要な情報を集めている暇がないんです」。ある県関係者は、言葉を選びながらそう説明してくれた。

 この関係者によると、AIが過去の類似事例から虐待リスクを正確に算出するためには、児童の家族構成や負傷の部位、状態、近くに住む親族の有無など、多岐にわたる調査項目をできるだけ多く入力する必要がある。しかし、一時保護に踏み切るかどうかの判断は、児童を巡る情報が限られる中で即断を求められるケースがほとんど。「AIを使えば虐待リスクがぱっと分かるようなイメージを持たれているかもしれないが、そこまで万能ではない。新人職員の学習には有用だが、ベテラン職員の判断にはまだまだ及ばないのが現実」なのだという。

「予兆見抜けず」見送りも

 AIが思うような成果を出せず、導入に至らなかったケースもある。東京都練馬区の「子ども家庭支援センター」では2020年、将来深刻化する虐待事案をAIで予測する実証実験を実施。ところが、AIが見抜けたのは、人間の目で見ても既に深刻化していると分かる虐待事案ばかりだったといい、本格的な導入は見送られた。

 なぜうまくいかなかったのか。ある区関係者は「子ども家庭支援センターと児相の役割の違いに原因がある」と話す。既に深刻化した児童虐待に対応する児相と異なり、センターは家庭の悩み相談や育児支援を通じて、虐待を早期に予防するのが役目。子どもの成長・発達や金銭的な悩みなど、幅広い相談に対応しており、過去の相談記録をAIに学習させても、どんな相談が寄せられた場合に虐待につながる可能性があるのか、傾向をつかむことはできなかったという。

児童虐待件数の推移

 練馬区子ども家庭支援センターの橋本健太所長は「家庭支援の現場では、相手の言葉や表情を職員が直接会って感じることがとても大切だ」と説明。「コンピューターの中ではなく、人と人との語らいを通じて、今後も家庭に寄り添っていきたい」と話した。

取材からは、AIにも得手不得手があり、人間と同様に「100%」はあり得ないという現実が浮かびます。後半に続きます。

続きは無料の会員登録でお読みいただけます。会員登録はこちら

これで安心?子どもを守るAI続々◆取材で見えた「本当の力」(時事ドットコム)