AI開発者は「足かせをつけて踊ることを学ばなければならない」
‘learn to dance with shackles on‘
香港の英字新聞「SCMP(South China Morning Post/サウス・チャイナ・モーニング・ポスト/南华早报/南華早報)」は2023年04月25日に、中国がポストChatGPTの世界で新たなルールを作るため、サイバースペース管理局(Cyberspace administration)が、生成型AIサービスの対策案を発表したと報告した。
中国や世界各国が影響に悩む中、「社会主義の核心的価値」が北京の焦点となる中、清華の学者が中国のリスクとして技術、経済、社会、政治の4分野を概説した。
2022年11月にChatGPTが登場し、世界的なセンセーションを巻き起こした後、世界中の政府がこの技術の影響を軽減するためにガバナンスを改善する中、北京は生成型人工知能産業の規制に迅速に動き出した。
CAC(Cyberspace Administration of China/中国サイバースペース管理)は2023年04月11日に、ジェネレーティブAIサービス(generative AI services)に関する行政措置の草案を公開し、パブリックコンサルテーションを実施した。
これは、中国が他の国の政府と共有している懸念事項である、生成AI製品およびサービスにおけるデータ保護、無差別およびバイアスの不在、トレーニングデータの品質を求める中国本土初の規則を概説するものである。
また、コンテンツモデレーション、セキュリティ評価、アルゴリズムの透明性など、中国政府が特に懸念している事項についても規定することを求めている。
北京は規則案の中で、AIの開発を支持する姿勢を示しているが、政治的な要件は高く評価されている。
コンテンツを規定する第4条第1項では、「中国本土で公衆に提供される」すべてのサービスは「社会主義の中核的価値を体現する」コンテンツを提供すべきであり、偽情報や破壊、分離主義、領土分割を目的とするものを含んではならないとしている。
つまり、ウクライナのヴォロディミル・ゼレンスキー大統領(Ukrainian President Volodymyr Zelenskyy)
が、口癖のように言う。「民主主義の自由」は、受け入れられないだろう。
中国は、アメリカやアメリカの同盟国との技術競争においてAIに大きな期待を寄せているが、アナリストによると、規制当局がAIを統治する上での課題に対処するために規制を機敏に行おうとするため、この分野は今後数年間で「足かせをつけて踊る」ことになると予想される。
清華大学AI国際ガバナンス研究所の学長であるXue Lan(Xue Lan, dean of the Institute for AI International Governance at Tsinghua University/薛澜,清华大学人工智能国际治理研究院院长)は、第4次産業革命にはさまざまな種類の技術が含まれるが、ChatGPTの躍進は、AIが今や主要技術であると人々に見られることを意味すると述べた。
ChatGPTは、マイクロソフトが支援するOpenAIが開発したAIチャットボットで、事実関係の正確さにはばらつきがあるものの、多くの知識領域できめ細かい対応と明瞭な回答で注目を集めている。
政府がインターネットを厳しく検閲している中国では、公式に利用できない。
しかし、ウェブ検索事業者のバイドゥ(Baidu)、電子商取引大手のアリババ(Alibaba)、AI企業のセンスタイム(SenseTime)など、国内の企業が競ってChatGPTと同様の技術を発表したため、この技術は中国で瞬く間に広まった。
2月に香港大学は、学生がChatGPTやその他のAIベースのツールをコースワーク、評価、授業に使用することを一時的に禁止したことを受け、中国の大学は盗作を警戒している。
中国メディアは、会計士からコピーライター、グラフィックデザイナーに至るまで、AIが人間の仕事にもたらす脅威の増大を鋭く報じている。
軍事専門家は、情報収集や認知戦争におけるAIの可能性に大きな関心を示している。同国の軍隊は、2023年04月13日付のPLA Dailyに掲載された記事で、初めてAI技術について公に論じた。
「平時には、ChatGPTはインターネット上の膨大なデータの分析を支援することで情報収集に利用でき、効率を向上させ、貴重な情報を見つけることができる。戦時には、包括的な戦場レポートを作成し、計画をより効率的にすることができる」と、南京の陸軍指揮学院の講師であるMao Weihao(Mao Weihao, a lecturer with the Army Command College in Nanjing/南京陆军指挥学院的讲师毛伟豪)はPLA Dailyに書いている。
認知戦争(cognitive warfare)では、ChatGPTのようなツールを使って世論を分析し、虚偽の声明を作成し、認識を操作して、政府のイメージダウンや国民の姿勢を変えることができる、と記事は続けている。
Mao Weihaoはまた、戦争でAIに対して使用できる対抗策を提案した。
彼は、この技術には、AIを欺くために標的となり得る訓練データに依存するなどの既知の脆弱性があると述べた。
生成AI技術は主に4つの側面でリスクをもたらすと、清華大学の薛澜は先月北京で開催されたChina Development Forumで述べた。
技術的には、その透明性と解釈可能性が制限される可能性があり、潜在的なバイアスが存在する可能性がある。経済的には、雇用や利益分配に影響を与え、独占につながる可能性がある。
社会的には、アカデミック・インテグリティが懸念される。そして政治的には、AIのアウトプットに込められた価値観やイデオロギーが、社会的な影響力を持つかどうかを計る必要がある。
「中国のAI産業は、開発と規制という2つの車輪によって前進することになる。中国はこの先、AIの健全な発展を継続的に導いていくことが期待されています。」と薛澜は語った。
中国は、2018年に習近平国家主席が世界の技術競争において人工知能が戦略的に重要であると宣言して以来、AI技術の取り込みを加速させている。
IDC(International Data Corporation/インターナショナル・データ・コーポレーション)の予測によると、中国における年間のAI投資は2026年にUS$266億9000万に達し、世界のAI投資の約8.9%を占め、米国に次いで2位となる見込みである。
2021年に発行されたiiMedia Researchのレポートによると、政策支援、機械学習に利用できる膨大な量のデータ、市場アプリケーションの大量需要により、中国のAI市場は2025年までに3倍の4000億元(US$580億)以上になると予想されている。2021年までに中国企業は、2020年のわずか2つから21の大型言語モデルを製造し、米国と肩を並べるようになったと主張している。
AIチップ設計者のNvidiaによると、大規模言語モデルは、膨大なデータセットから得た知識に基づいてテキストやその他のコンテンツを認識、要約、翻訳、予測、生成できるディープラーニングアルゴリズムを表している。
成都にある中国電子科学技術大学の情報通信工学准教授であるZeng Liaoyuan(Zeng Liaoyuan, an associate professor of information and communication engineering at the University of Electronic Science and Technology of China in Chengdu/位于成都的中国电子科技大学信息与通信工程系副教授曾辽源)は、中国がChatGPTなどの大型モデルの成功に追いつこうとする中で、AIへのより大きな投資が到来すると予想している。
ディープラーニング(deep learning)はしばしば "ブラックボックス "のような技術(‘black box’ technology)であるため、政府は破壊的な結果を警戒して、業界の発展に舵を切るでしょう。ディープラーニングはしばしば "ブラックボックス "のような技術として表現されるため、その予測や判断は、開発者であっても容易に説明できないのです」とZengは述べています。
「ソーシャルメディアに対する規制のように、北京はAI製品やサービスにおいて、敏感なキーワードやトピックを禁句にする可能性が高い」と彼は述べている。
つまり、中国の国内でインターネットを管理するのと同様の技術が採用されると言う。
中国政府は、AIの性能に押され、特に安全保障の面で、その統治に対する挑戦への懸念を強めていると、複数の当局者が最近、匿名を条件に「SCMP「に語った。
中国の国家安全保障は、政治、経済、社会面を含む広い範囲に及ぶが、北京の一番の懸念は体制への挑戦であると、シンガポール国立大学リー・クアンユー公共政策大学院の准教授であるアルフレッド・ウー(Alfred Wu, an associate professor at the Lee Kuan Yew School of Public Policy at the National University of Singapore/新加坡国立大学李光耀公共政策学院的副教授Alfred Wu)は言う。
"AIが生み出すコンテンツは、誰にも100%わからない。中国政府にとって最悪なのは、人々がその統治に反してそれを利用することです。安全策を講じ、コンテンツ検閲の慣行と一致させるために、中国政府は境界線を設定するために迅速に動き、この先、より多くの規則や規制を期待できる」とWuは述べている。
ここ数年、中国は、個人データ、深層合成技術、アルゴリズムの透明性を管理する多数の規則を導入し、新興産業を規制する動きを見せています。先月には、すべての国有データのセキュリティを監督し、経済計画において政府機関間で共有されることを保証する「国家データ局(National Data Bureau)」が設立されました。
中国サイバースペース管理局は昨年、アルゴリズム登録を開始し、プロバイダーに対し、「国家の安全や社会公共の利益を脅かさない」ことを確認し、ユーザーの正当な利益を害する場合は「説明をする」ことを義務付けた。
その他の規定は、プラットフォームによる独占的な行動や話題の社会問題への対処を求めたものです。この規制では、「世論特性」と「社会動員能力」を持つ推薦アルゴリズムを提出するよう求めている。
中国のモデルは、世界中で行われている他の対策と似ている。
カーネギー国際平和財団のフェローであるマット・シーハン(December by Matt Sheehan, a fellow at the Carnegie Endowment for International Peace)と、カーネギーアジアプログラムのジェームズ・C・ゲイター・ジュニア・フェローであるシャロン・デュ(Sharon Du, a James C. Gaither Junior Fellow in the Carnegie Asia Programme.)による2022年12月の記事によると、最も直接的な規制の類似点は、推薦アルゴリズムの透明性の向上と監査を求める法律、EU(European Union/欧州連合)のDSA(Digital Services Act/デジタルサービス法)に見られるという。
著者らは、中国の実験のもう一つの類例として、AI倫理コミュニティの間で、モデルに関する洞察を記した短い概要文書である「モデルカード」を推進する動きがある、と述べている。
「中国の登記簿謄本と同様に、モデルカードは、アーキテクチャ、アプリケーションシナリオ、トレーニングデータ、機密データの使用に関する情報を提供します。」と、シーハンとデュは書いている。彼らは、中国のアルゴリズム登録が性能評価を重視する代わりに、セキュリティ評価を重視していることを指摘した。
「一般に、モデルカードは、異なる人口集団で使用した場合のモデルの性能を比較することで、アルゴリズムの偏りに関する懸念に対処しています。また、専門家と非専門家の両方の聴衆を対象としている。
「これとは対照的に、中国のアルゴリズム登録は、政府と一般市民を対象としており、中国の市民は偏りを評価するよう求められていない。
「むしろ、それは政府の権限であり、政府は何が安全か、何が危険かを定義することができます。現在の登録簿は、これらの問題の最終的な裁定者としての中国共産党の役割を反映し、強化するものである。
独立系政治学者で元上海の教授であるChen Daoyin(Chen Daoyin, an independent political scientist and former Shanghai-based professor/独立政治学家、原驻上海教授陈道银)は、イデオロギーコントロールが党のAIガバナンスの重要なテーマになると予想されると述べた。
「規制当局は、AIの訓練データと出力が党の公式シナリオに沿うようにし、その支配の正統性を守るようにする。政治的な安全がその最大の関心事だ」と述べた。
つまり、AIを使った洗脳技術になる。
Chenは、AIツールは政府に奉仕し、その統治を改善するために使用され、当局者が「潜在的な政治的危険」とみなされるあらゆる事象を防ぐことができるようになると述べた。
「その結果、中国のAI企業や開発者は、足かせを付けて踊ることを学ばなければならなくなる。」
https://www.scmp.com/topics/artificial-intelligence?module=inline&pgtype=article
https://www.scmp.com/topics/chatgpt?module=inline&pgtype=article
https://www.scmp.com/tech/policy/article/3216691/chinas-internet-watchdog-proposes-rules-security-assessment-ai-tools-similar-chatgpt?module=inline&pgtype=article
https://www.scmp.com/news/hong-kong/education/article/3217189/university-hong-kong-allows-staff-use-chatgpt-under-new-guidelines-students-still-banned-using-ai?module=inline&pgtype=article
https://www.scmp.com/tech/tech-trends/article/3216919/chinese-marketing-agency-replace-third-party-copywriters-and-designers-chatgpt-technology?module=inline&pgtype=article
https://www.scmp.com/news/china/science/article/3216969/chinas-military-starts-kicks-debate-use-chatgpt-article-official-pla-newspaper?module=inline&pgtype=article
https://www.scmp.com/economy/china-economy/article/2171102/develop-and-control-xi-jinping-urges-china-use-artificial?module=inline&pgtype=article
https://www.scmp.com/tech/policy/article/3212823/chinas-proposed-national-data-bureau-become-powerful-tool-beijing-ratchet-development-digital?module=inline&pgtype=article
https://www.scmp.com/tech/big-tech/article/3162099/china-rolls-out-new-regulation-rein-algorithms-used-apps-beijing?module=inline&pgtype=article
https://www.scmp.com/tech/policy/article/3217759/china-struggles-quench-its-thirst-ai-talent-amid-chatgpt-frenzy-nation-lags-us-top-brains?module=hard_link&pgtype=article
https://open.spotify.com/playlist/5T3QbOE0nSz02fn8gNDCul?go=1&sp_cid=45a9e5b23b71e96b2c320a2b0c7273e7&utm_source=embed_player_p&utm_medium=desktop
https://www.scmp.com/tech/big-tech/article/3217571/chatgpt-usage-could-open-companies-leaks-corporate-secrets-and-lawsuits-cyber-firm-warns?module=hard_link&pgtype=article
https://www.scmp.com/news/world/united-states-canada/article/3216295/ex-google-boss-eric-schmidt-says-pause-artificial-intelligence-research-would-benefit-china?module=hard_link&pgtype=article
この記事が気に入ったらサポートをしてみませんか?