ガザ侵攻における軍事AIの利用について(RUSIの記事)
写真出展:hosny salahによるPixabayからの画像https://pixabay.com/ja/users/hosnysalah-10285169/?utm_source=link-attribution&utm_medium=referral&utm_campaign=image&utm_content=8221323
2024年7月4日に英国王立防衛安全保障研究所(RUSI)は、イスラエル軍によるガザ侵攻における軍事AIの利用状況に関する記事を発表した。内容は、最新の記事や情報を基に、イスラエル軍のAI運用について概観するものである。
過去にAI活用に関する記事を取り上げたが、その頃の見立てとは異なり、本格的に標的の設定や軍事作戦の意思決定にAIが活用されるようになっており、人道的な観点を無視した運用が行われている可能性が示唆されている。
今後の軍事技術の在り方を考える参考として、本記事の概要を紹介させていただく。
↓リンク先(The Israel Defense Forces' Use of AI in Gaza: A Case of Misplaced Purpose)
https://www.rusi.org/explore-our-research/publications/commentary/israel-defense-forces-use-ai-gaza-case-misplaced-purpose
↓前回の記事
https://note.com/karzy_kemaru/n/nbd4242d722fd
1.RUSIの記事について
・イスラエルのガザ侵攻が始まって早9か月が経過したが、軍事作戦におけるAIの活用状況についての議論はあまり注目されていない。当初は限定的な位置付けでしか利用されていなかったと考えられていたものが、最近のイスラエル軍に係る報道を鑑みるに、実践投入されているAIモデルの「ラベンダー」は、軍事関係の意思決定に大きくかかわっていると考えられる。
・イスラエルはガザ地区に最高レベルの情報収集能力を投入しており、西側諸国政府とも連携して多層的に情報を共有している。軍にとって必要な情報が全て手中にあるという点では圧倒的な優位性を持っているものの、この大量のデータを現実の作戦に活用できるよう整理することは人間にとって至難の業であり、AIが活用されるようになっている。
・実践投入されているAIが正確かつ最善の意思決定を下せるか否かは、モデルの信頼性にかかっている。AIの在り方は製作者、機械学習データ、細やかな修正作業などの要素に依存することになるが、本作戦においては10%のミスしかないといったような前向きな情報が公開されているのみで、より良くするための改善がなされている兆候が見られない。
・AIにはデータ解析型モデルやパターン認識型モデルなど様々なものがあるが、指揮官はこれらの特性を十分に把握し、定められた標的がどのようにして選択されたのかを理解していなければならない。またモデルに依存するのではなく、疑義がある場合は人間の目で確認・調整することが必要になるが、断片的な情報では確認作業が1分未満の極めて短時間の簡易的なものでしかないようである。これまでに多くの無関係の住民が誤って爆撃されている現状を鑑みると、個々の標的について十分な分析ができていない可能性がある。
・批判を浴びたGBU-31の爆撃は、900kgの爆弾により半径数百メートルの被害が発生し、数メートルのクレーターができたが、これは意図的な無差別攻撃だった可能性がある。イスラエル軍はパレスチナ人よりも自軍兵士の命を優先する傾向を見せており、アメリカや他の同盟国の軍よりもはるかに被害を気にしているようである。またAIが作戦計画策定そのものにも使われている可能性もあり、パレスチナ人側の人的被害に適切に対処できるか否かが問題となって来るだろう。
・爆撃は一般に人道的観点とテロリスト排除の公的利益の比較衡量によりなされているが、イスラエル軍が住民の犠牲を最小限に抑えるために法的な手段が講じているかは不透明である。伝統的な法的枠組みでは、作戦中に法律顧問に攻撃の合法性について諮問することとなっているが、個々の爆撃について判断を求める可能性はかなり低いと考えられ、攻撃による犠牲者の数が受忍可能な水準か否かを判断するだけのレベルに留まっていると見た方がよさそうである。
・+972マガジンの報道によると、下士官クラス1人当たりを標的とした場合は15~20名までの民間人犠牲者が許容され、上級士官であれば100名まで許容されるとされている。アメリカでもイラクやアフガニスタンでこのような基準を適用した事例があるが、各国の軍の主観で数を決定することの是非は問われることになるだろう。
・残念ながら、イスラエル軍は多数の民間人犠牲者伴う爆撃の教訓を生かそうとしていないようだ。個々の爆撃から犠牲者の数を把握することは困難ではなく、改善することが可能であるものの、下士官クラスによる被害評価を免除したなどの情報も出ており、民間人被害に無関心であるようにすら見える。国際社会からの圧力を受けて初めて民間人犠牲者を減らす努力をし始めたのであり、軍自らが人道的な観点から攻撃方法を見直した結果ではないのである。
2.本記事についての感想
記事のトーンは平均的に見てイスラエルに否定的であり、少しばかりパレスチナ寄りになっている印象である。ただそれでもイスラエル側が善良というわけではなく、パレスチナ人に対して容赦ない攻撃を加えていることは確かである。
プロパガンダと正確な状況については区別しなければならないが、否定的な情報の方が多いということは、イスラエル側の行動に問題が多いということだろう。いずれにしても否定的な見方をされるのであれば、できうる限りこの状況を最大限利用し、軍事的経験やノウハウを蓄積しようと割り切っているのかもしれない。そうであれば、AIを活用
こういったことが積み重なると、AIの活用そのものに悪いイメージが醸成され、結果として軍事利用が阻害される可能性すらある。情報を冷静に見極めつつ、AIの軍事利用に関する運用を慎重に定めていく、これが重要な一歩となるだろう。
英文を読んでわからないという方は、メールにて解説情報をご提供させていただきます。なにぶん素人の理解ですので、一部ご期待に沿えないかもしれませんので、その場合はご容赦願います。当方から提供した情報については、以下の条件を守ったうえで、ご利用いただきますようよろしくお願いいたします。
(1) 営利目的で利用しないこと。
(2) 個人の学習などの目的の範囲で利用し、集団での学習などで配布しないこと。
(3) 一部であっても不特定多数の者が閲覧可能な場所で掲載・公開する場合には、出典を明示すること。(リンク先及び提供者のサイト名)
(4) 著作元から著作権侵害という指摘があった場合、削除すること。
(5) 当方から提供した情報を用いて行う一切の行為(情報を編集・加工等した情報を利用することを含む。)について何ら責任を負わない。
この記事が気に入ったらサポートをしてみませんか?