
AIの脆弱性と戦争(Forbesの記事)
写真出展:Gerd AltmannによるPixabayからの画像https://pixabay.com/ja/users/geralt-9301/?utm_source=link-attribution&utm_medium=referral&utm_campaign=image&utm_content=5814965
2022年3月16日にForbesは、AIの脆弱性と戦争における活用に関する記事を発表した。内容は、ウクライナ戦争でロシア軍がAIを広範囲に用いていない理由の一端が、AIの危険性を認識している可能性を指摘し、AI技術における危険性と現在の取組状況などを概観するものである。
今回の戦争はハイテク戦争の最たるものになると思われたが、実際にはかなりアナログ的な要素が目立っており、戦争への技術の投入がそれほど容易ではないということがわかる。今回の記事は、AIの危険性を理解するうえで有用であることから、その概要についてご紹介させていただく。
↓リンク先(The Vulnerability of AI Systems May Explain Why Russia Isn’t Using Them Extensively in Ukraine)
https://www.forbes.com/sites/erictegler/2022/03/16/the-vulnerability-of-artificial-intelligence-systems-may-explain-why-they-havent-been-used-extensively-in-ukraine/?ss=aerospace-defense&sh=60f2749a37d5
1.本記事の内容について
・今回のウクライナとロシアの戦争において、ウクライナ軍はロシア兵や殺害された国民を特定するためにAIによる顔認証を活用している。顔認証システム企業クリアビューAIのCEOは、同社のシステムをウクライナ軍に無償提供し、優れたアルゴリズムと大量の画像による機械学習で訓練された人工知能を活用して、的確に顔認証ができるようになっていると語っている。
・今回の戦争はディープフェイクや偽情報拡散などの情報戦の側面もあるが、ロシア軍による戦略的なAI活用が見られないのは、不思議なことのように見える。AIの専門家は、その理由をAIや機械学習アルゴリズムが、基本的かつ容易な手法にて攻撃される可能性があるためだと推測している。
・AIや機械学習には大量のデータが必要になるが、その中に分布外データという外れ値に相当するデータが含まれた場合、動作が不安定化する。このような危険性がある以上、戦場においてAIを過度に信頼することは大きなリスクであると言える。事実、相矛盾する分布外データをAIに読み込ませた場合、想定通りに動作しないことが判明している。
・またAIの正確性も他の分野と比較した場合、それほど高くはない。例えば、AIによる画像識別率を99.9%に設定することは可能であるが、自動車、航空機、ヘルスケア関係機器、兵器などに求められる正確性は99.999999%であることから、それほどの水準ではないことになる。更に、ある一定の分野でAIは人間を上回るパフォーマンスを見せるものの、テストの明確な基準や要件を確立できておらず、AIシステムの動作試験そのものが困難になっている。
・AIや機械学習システムに対する攻撃は、それほど困難なものではない。古典的なカモフラージュ画像やランダムなデータを混ぜ込むだけで十分である。最近の研究において、テンセントの研究者は、道路の上に目立たないステッカーを貼り付けるだけで、テスラの自動運転AIに車線変更させることに成功している。またマカフィーの研究者も、目立たない制限速度標識を使って、暴走させることに成功している。
・AI研究業界は、こういった悪用事例について公開することをためらう傾向にある。急速に大量のデータをふるいにかけるというこの特徴が、悪用される要因になるのである。またAIは、人間が取るに足らないとして捨象するものを見出すことで正確性を高めようとする性質をもっており、これもAIが罠にはまりやすい要因になっている。
・NSA(国家安全保障局)もこの危険性を認識しており、データの汚染やサイバー攻撃の研究者はまだ成熟しておらず、有効な対処ができていないと述べている。若干のデータ改ざんだけでもAIの動作は大きく左右される可能性があり、画像の勾配を利用した敵対的サンプリングなどを投入することにより、誤分類を引き起こすことができる。
・このような現状を踏まえ、DARPAはデータの改ざんなどに耐性のある機械学習システムを開発するための事業を立ち上げた。その他の取組として、陸軍の研究所と協力団体により、深層ニューラルネットワークの信頼基準が策定されている。最近ではAIの危険性を理解する政治家も増加してきており、無分別なAIの配備には慎重な姿勢も出てきている。アメリカ軍が直面している問題は、ロシア軍にとっても同様に問題であり、このことが戦争へのAI投入を妨げる要因になっていると考えるのが妥当だろう。
2.本記事読後の感想
今回の記事は、AIのハッキングの危険性について取り扱った記事と対を為すものである。今回のウクライナ戦争はハイテク戦争の側面を持っているが、ロシア軍が渋滞を起こしている様などを見ると、どこか20世紀型の戦争を思い起こさせる部分もある。サイバー攻撃、SNSなどを通じた情報工作といったサイバー戦から始まったものの、兵士が兵器を取り扱うといった従来型の戦闘が主となっているように見えることから、
最初は、ロシア軍がそれほど洗練されておらず、単なる技術や訓練の不足によりテクノロジーが活用されていないと考えていた。ロシア系の兵器を見ると、予算不足を克服するために涙ぐましい努力をしているという印象であったが、実は高度な戦略眼に基づいて技術を過信しないようにしているという可能性も考慮に入れるべきだということに気づかされた。
ロシアは、サイバー攻撃において危険と分かっていながらボットやマルウェアを拡散してきたという実績があり、粗暴なイメージがあるのだが、核心的な部分については慎重さを保っているのかもしれない。
我々も、技術を過信するべきではなく、適度な付き合い方というものを普段から考えておくべきだろう。ただ日本人は技術に対する反応が極端であり、やたらと信頼したかと思えば、一つでも欠点があれば、全て拒絶するという所まで大きく振れてしまうことがある。技術立国たる日本にとって、技術の在り方は将来を左右する最も大きな要因である。技術そのものだけでなく、人間と技術との関係性や向かい方方について、国民的議論を展開し、理解を深めていくことが重要だろう。
英文を読んでわからないという方は、メールにて解説情報をご提供させていただきます。なにぶん素人の理解ですので、一部ご期待に沿えないかもしれませんので、その場合はご容赦願います。当方から提供した情報については、以下の条件を守ったうえで、ご利用いただきますようよろしくお願いいたします。
(1) 営利目的で利用しないこと。
(2) 個人の学習などの目的の範囲で利用し、集団での学習などで配布しないこと。
(3) 一部であっても不特定多数の者が閲覧可能な場所で掲載・公開する場合には、出典を明示すること。(リンク先及び提供者のサイト名)
(4) 著作元から著作権侵害という指摘があった場合、削除すること。
(5) 当方から提供した情報を用いて行う一切の行為(情報を編集・加工等した情報を利用することを含む。)について何ら責任を負わない。