元OpenAI従業員たちがAGIの真実を暴露...
17,738 文字
みなさん、一般的なAIが人間と同じくらい賢くなんのはいつやと思いますか?私の意見では、今後3年以内に大惨事につながる可能性のあるようなものが出てくる確率が少なくとも10%はあると考えています。そして、OpenAIの社内でも多くの人々が同じような見方をしていたんです。
OpenAIやGoogle、Anthropicなどの主要なAI企業は、AGI(汎用人工知能)の開発を極めて真剣な目標として扱っています。そして、これらの企業の多くの社員は、10年か20年以内に達成できると考えており、中には1〜3年以内という見方をする人もいます。
もっと重要なのは、人間と同じくらい賢い、あるいはそれ以上に賢いコンピューターの開発に成功した場合、その技術は最低でも非常に破壊的なものとなり、最悪の場合、人類の絶滅につながる可能性があると、これらの人々が考えているということです。
関係する企業は、AIの仕組みや安全性に関する科学がまだ未熟すぎるとして、規制はまだ早いと主張することが多いです。別の言い方をさせてもらいますと、彼らは「これらのシステムの仕組みや、いつ人間より賢くなるのかを見極める良い科学的手法がない。大きな害を及ぼさないようにする確実な方法もない。でも心配せんでええよ。私らの意思決定の主な要因は利益と、競合他社より早く進めなあかんという容赦のない市場圧力やけど、超々慎重にやってるから」と言っているようなもんです。
企業がどんなに規制は時期尚早やと言おうとも、実際にはどんどん高度なAIシステムの開発と展開に何十億ドルもの資金が投じられており、それらのシステムは数億人もの人々の生活に影響を与えています。それも、システムの仕組みや次に何が作られるのかについて科学的なコンセンサスがない状態でです。なので私は、様子見の政策では対応できないと考えています。
はっきりさせておきたいのは、人間より賢いAIに備える時間がどれくらいあるのか、またそれをコントロールして安全性を確保するのがどれくらい難しいのかは、私にも分かりません。委員会の皆さんも何度も聞いておられると思いますが、AIはリスクだけではありません。生活水準を向上させ、地球規模の課題解決を助け、世界中の人々に力を与える可能性も持っています。
もしこの技術が単に悪くて危険なものなら、私らの仕事はずっと簡単になるでしょう。直面している課題は、AIがどれくらい早く進歩し、どんな危険が生じるのかについて、専門家の間でも大きな不確実性と意見の相違がある中で、いかに先を見据えた良い政策を作るかということです。
2024年9月17日 米上院AI内部関係者の見解
良いニュースは、今日採用できる柔軟な適応型の政策措置があるということです。これらは、近い将来に強力なAIシステムが登場した場合にも役立ちますし、今日議論することになるであろう他の多くのAI政策課題にも役立つものです。
私の書面での証言で詳しく説明している6つの政策の基本要素について、手短に強調させていただきます。まず、ハイリスクなAIシステムの開発者に対する透明性要件を実施すべきです。AIの測定・評価方法や安全性確保の方法について、大規模な研究投資を行うべきです。
厳格な第三者監査のエコシステムの発展を支援し、AI企業の従業員のための内部告発者保護を強化し、政府の技術的専門知識を向上させ、AIによる被害の責任の所在を明確にすべきです。これらの措置は、AIのさらなるイノベーションを妨げない、本当に基本的な第一歩です。
このような政策は、既に目にしているAIの害に対処し、時間とともにAIの新しい展開を特定して対応できるようにするための、最低限の常識的な基盤を整えることに関するものです。これは単一の法律で管理できる技術ではありませんが、出発点としてこれらの基本的な要素の一部を実施するのは随分遅れています。
ありがとうございます、サンダースさん。
委員長、ホリー上級議員、そして尊敬する議員の皆様、この委員会で発言する機会をいただき、ありがとうございます。私は3年間、OpenAIの技術スタッフとして働いてきました。OpenAIのような企業は、汎用人工知能(AGI)の開発に向けて取り組んでおり、この目標に向けて何十億ドルもの資金を調達しています。
OpenAIの憲章では、AGIを「ほとんどの経済的価値のある仕事で人間の能力を上回る、高度に自律的なシステム」と定義しています。これは、長期間にわたって自律的に行動し、人間ができるほとんどの仕事をこなせるAIシステムを意味します。
AI企業はAGIの開発に向けて急速な進歩を遂げています。この公聴会の数日前、OpenAIは新しいシステムGPT-1を発表しました。これは重要なマイルストーンを達成し、私個人にとっても意味のある成果を上げました。高校時代、私は権威ある国際コンピューターサイエンスコンペティションのために何年も訓練を積みました。OpenAIの新システムは、予選落ちから一気に金メダル獲得へと飛躍し、私の仕事に関連する分野で私以上の成績を収めたんです。
まだまだ埋めるべきギャップは大きいですが、AGIシステムが3年程度で構築される可能性は十分にあると私は考えています。AGIは、経済や雇用に関する根本的な変化を含め、社会に大きな変化をもたらすでしょう。
また、システムが自律的にサイバー攻撃を実行したり、新しい生物兵器の開発を支援したりすることで、壊滅的な被害をもたらす可能性もあります。OpenAIの新しいAIシステムは、専門家が既知の生物学的脅威を再現する計画を支援できる能力を示した最初のシステムであり、生物兵器のリスクに向かって一歩を踏み出しました。
厳密なテストを行わなければ、開発者はこのような危険な能力を見逃してしまう可能性があります。OpenAIはこのようなテストの側面で先駆的な役割を果たしてきましたが、一方で展開の速度を厳密さより優先してきました。私は、彼らが将来のAIシステムの重要な危険な能力を見逃してしまう本当のリスクがあると考えています。
AGIは、アメリカの外国の敵を含め、盗難の標的としても価値があるでしょう。OpenAIは公に安全性を重視していると主張していますが、私がOpenAIにいた時、内部のセキュリティは優先されていませんでした。私や何百人もの他の社員が、アクセス制御をバイパスしてGPT-4を含む同社の最先端AIシステムを盗むことができる脆弱性が、長期間存在していました。
誰も、AGIシステムが安全で制御可能であることを確実にする方法を知りません。現在のAIシステムは、正しいことをしているように見える時に報酬を与える人間の監督者によって訓練されています。監督者を巧妙に操作したり、展開されるまで不正行為を隠したりする新しい方法を見つけ出すシステムを扱う場合、新しいアプローチが必要になるでしょう。
OpenAIのスーパーアラインメントチームは、これらのアプローチを開発する任務を負っていましたが、結局のところ、壊滅的な被害が可能な状況で、手探りで進めていかなければなりませんでした。現在、そのチームはもう存在しません。リーダーや主要な研究者たちは、成功に必要な資源を得るのに苦労した後、辞任してしまいました。
OpenAIは、自分たちは時間内に準備ができると言うでしょう。私や他の辞任した従業員たちは、そうは思いません。これはOpenAIだけの問題ではありません。迅速な展開を優先するインセンティブは、業界全体に当てはまります。だからこそ、政策による対応が必要なんです。
私と他の証人たちは、AI業界に対する具体的な懸念は異なるかもしれませんが、それらに対処する上で共通の基盤を見出せると信じています。AI企業内の問題について内部関係者からの報告を求めるなら、そのような報告を安全で容易にする必要があります。
つまり、内部告発する従業員のための明確な連絡窓口と法的保護が必要です。規制は、展開前と展開後の両方における第三者によるテストの要件も優先すべきです。これらのテストの結果は共有されなければなりません。ブルーメンソール上院議員とホリー上院議員が提案した枠組みにあるような、独立した監視組織の設立と義務付けられた透明性要件は、これらの目標に向けた重要な一歩となるでしょう。
私がOpenAIを辞めたのは、彼らが自分たちだけでAGIについて責任ある決定を下すという信頼を失ったからです。もし組織が誰にでも重大なリスクを課す技術を開発するなら、そのリスクを回避または最小化する方法の決定に、市民が関与しなければなりません。これはAI以前からそうでしたし、今日のAIでもそうあるべきです。
これらの問題に取り組んでいただき、ありがとうございます。皆様のご質問をお待ちしています。この委員会は有望な超党派的な枠組みと提案を作り上げてきました。私は、それらが法制化されることを切に願っています。AIシステムに効果的な防護柵を提供するために、それらは緊急に必要とされています。
私の名前はデイビッド・エバン・ハリスです。2018年から2023年まで、FacebookとMetaで市民の健全性(Civic Integrity)と責任あるAIチームに所属していました。その役割で私は、オンライン選挙介入との戦い、著名人の保護、倫理的なAIシステムとAIガバナンスの開発に向けた研究の推進に取り組んできました。
今日、これら2つの安全チームはもう存在しません。過去2年間で業界全体に劇的な変化が起きました。信頼と安全性のチームは大幅に縮小され、秘密主義が台頭し、透明性は低下しています。
Metaを去った後、私はカリフォルニア州で知事の署名を待つディープフェイクと選挙に関する2つの法案の策定を支援してきました。カリフォルニア州、アリゾナ州、そして国際的な政策立案者と緊密に協力する中で、効果的なAIの監視が今日可能であるという確信を、これまで以上に強めています。
私の証言から3つのことを覚えておいていただきたいです。第一に、自主規制は機能しません。第二に、AIの安全性と公平性のための解決策の多くは、この委員会のメンバーが提案した枠組みと法案の中に既に存在しています。第三に、先ほど仰ったように、全ての馬が厩舎から出てしまったわけではありません。まだ行動を起こす時間はあります。
第一の点に戻りますと、自主規制は神話です。Facebookでの私の経験から一例を挙げましょう。2018年、同社はプラットフォーム上での時間を「有意義に過ごす時間」にすることを目指し、バイラルな動画を減らし、友人や家族からのより意味のあるコンテンツを増やそうとしました。
この自主的な政策は、TikTokが喜んで埋めた隙間を作り出しました。今日、FacebookとInstagramは、以前減らそうとしたのと本質的に同じバイラルな動画であるReelsで、TikTokからマーケットシェアを取り戻そうと必死です。
あるテクノロジー企業が責任ある行動を取ろうとすると、より無責任な別の企業が入り込んでその隙間を埋めるんです。
ホワイトハウスの自主的なAIコミットメントやAI選挙アコードのような拘束力のない取り組みは前向きな一歩ですが、実際には、テクノロジー企業が約束したことに向けて明確な進展はほとんど見られていません。AIを管理する政策や法律については、「〜すべきである(may)」ではなく、「〜しなければならない(shall)」という表現の法律が不可欠です。
「すべきである」という表現では法律が自主的なものとなり、多くの企業は安全性や危害の軽減を優先するための有意義な行動を遅らせるか、単に避けることになるでしょう。
第二の点として、特効薬は必要ありません。この委員会のリーダーシップが提案した枠組みには、既に多くの答えが含まれています。特に、枠組みの中の2つの提言は法制化にとって不可欠な要素です。AI企業はその製品に対して責任を負うべきであり、AI生成コンテンツには削除困難な出所データを埋め込むことを義務付けるべきです。
選挙におけるAI生成素材の一部にラベル付けを義務付ける透明性に関する法案が提出されたのは心強いことです。このような取り組みがさらに必要です。
これは私の最後の点につながります。馬は厩舎から出てしまってはいないのです。もう手遅れだという誤解があります。AIの音声や画像のディープフェイク、偏りのあるAIシステムが私たちの生活に関する決定を下すようになる急速な進展を目の当たりにすると、めまいがしそうになるかもしれません。
しかし、まだ日の目を見ていないAI技術の用途がたくさんあります。次に来るのは、リアルな映像のディープフェイク、何百万人もの人々と同時にインタラクションできるライブ音声のディープフェイク、パーソナライズされた選挙偽情報の電話、子どもをターゲットにした大規模な自動化された性的恐喝スキームです。これらは、地平線上に見えているものの一部に過ぎません。
私たちは、AIに対する拘束力のある強制可能な監視を迅速に進める必要があります。それは可能です。既に皆様の前にある有望な枠組みと法案について今行動を起こせば、厩舎の扉の後ろで待機しているクライズデールズ(大型馬)とケンタウロスを抑制することができます。ありがとうございます。
はい、おそらく私のエコインの比喩が皆さんの心に強く響いたので、動物の王国からもう一つの物語を提供させていただきます。今回は自然界の...えっと...テクノロジー業界で使われている比喩があります。私が知る限り、少なくとも2つの非常に大きなテクノロジー企業で使われている「熊の比喩」というものです。
この比喩では、上院議員の皆さんが、他の規制機関とともに熊の役割を演じます。テクノロジー企業は、この比喩の中で熊から全力で逃げる人々です。この物語では、熊は最終的に追いつき、最も遅い人、つまり最も遅いテクノロジー企業を食べてしまいます。
したがって、テクノロジー企業にとっての教訓は、「二番目に遅くなるな」ということです。これが戦略なんです。信頼と安全性に関して、自社よりも悪い仕事をしている他のテクノロジー企業を指摘できる限り、それが会社のリソース配分の最適な方法だという考え方です。重要なのは、OpenAIだけを取り上げるのではなく、すべてのテクノロジー企業がこのような戦略に従事しているということです。
トーナーさん、証言の中で「取締役会での経験から、お金が関係してくると内部の防護柵がいかに脆弱になるか、そして政策立案者が介入することがいかに重要かを学んだ」と書かれていましたね。公の場で議論できる範囲に制限があることは十分承知していますが、その文を書かれた時に念頭にあったことを教えていただけますか?
確かに上院議員、このダイナミクスを示すような出来事は、現在では十分に公に報道されています。例えば、デプロイメント・セーフティ・ボード(展開安全性委員会)として知られるプロセスのような状況がありました。これは、OpenAIの製品を使用する際のOpenAIとMicrosoftの間の安全性を調整しようとする、内部で設定された素晴らしいアイデアでした。
公に報告されているところによると、このプロセスの初期段階で、Microsoftは非常に大きな重要な発表、つまりGPT-4の発表を計画している最中でした。そしてMicrosoftは、そのデプロイメント・セーフティ・ボードの承認を得ることなく、インドで数万人のユーザーにGPT-4を展開してしまったんです。
もう一つの例として、私が取締役を退任した後、社内から懸念が提起されました。40モデル、つまり音声アシスタントの発表に向けた準備の中で...これは非常に興奮させられる発表動画があり、OpenAIが彼らを上回る可能性があると知っていたGoogleのイベントの前日に発表されました...社内から、会社が事前に行っていた安全性へのコミットメントを完全に実行する能力について懸念が提起されました。
他にも例はありますが、この2つが核心を示していると思います。
ありがとうございます、トーナーさん。もう少しその点について掘り下げたいと思います。私の理解では、あなたがOpenAIの取締役会を去った理由の一つは、仕事を適切に行えないと感じたからです。つまり、オルトマン氏とその安全性に関する決定を効果的に監督できないと感じたということです。
今年、あなたは「オルトマン氏は、会社が実際に持っていた少数の正式な安全性プロセスについて、不正確な情報を提供した」と述べられました。可能な範囲で詳しく説明していただけますか?この会社の内部で実際に安全性のために何が行われているのか、特にオルトマン氏が我々の前に座って話したことを踏まえて、関心があります。
ありがとうございます上院議員。機密保持義務に違反しない範囲で、喜んで詳しくお話しさせていただきます。会社が安全性のプロセスを持っている場合、それらを大々的に、誇らしげに発表すると私は考えています。なので、あなたとスタッフの皆さんは、彼らが実施しているプロセスについてご存知だと思います。
当時、私が考えていた最初の正式なプロセスの一つは、先ほど議論したこのデプロイメント・セーフティ・ボードでした。その後、彼らは準備態勢フレームワークを導入しました。多くのこれらの企業が良い取り組みを行っていることを評価したいと思います。準備態勢フレームワークの背後にある考え方は良いと思います。
彼らがそれを実行する限り、素晴らしいことです。しかし、それにどれだけ従えているかについて懸念が提起されています。また、公に報告されているように、そのチームを率いるために招聘した本当に尊敬される専門家が、その役割から異動させられました。これが、そのチームが会社の残りの部分に及ぼすことができる影響力について、私が心配することの一つです。
これは、今日ここにいる証人全員が観察してきたより大きなダイナミクスを示していると思います。これらの企業の内部には本当に素晴らしい人々がいて、本当に素晴らしいことをしようとしています。課題は、すべてが企業自身とリーダーシップチームに委ねられている場合、製品を出荷し、利益を上げ、新しい投資家を引き付けることに関するトレードオフを行う必要がある中で、これらのチームが必要なリソース、時間、影響力、実際に何が起こるかを形作る能力を得られない可能性があるということです。
私が目撃した多くのダイナミクスは、同僚の証人たちから聞いていることと非常によく似ています。
もう少し具体的に言わせてください。先ほど申し上げたように、オルトマン氏は今年、この関連で我々に証言をしました。彼が言ったことの一部を引用させていただきます:「OpenAIは、すべてのレベルで安全性がシステムに組み込まれていることを確実にするために、著しい努力を行っています」
そして、続けて「新しいシステムをリリースする前に、OpenAIは広範なテストを実施し、詳細なレビューのために外部の専門家に依頼し、独立した監査を行い、モデルの行動を改善し、堅牢な安全性とモニタリングシステムを実装しています」と述べました。あなたの経験からして、これは正確ですか?
会社の活動をそのように特徴づけることは可能だと思います。はい。問題は、どれだけが十分なのか、誰がその決定を下しているのか、そしてどのようなインセンティブがそれらの決定を動かしているのかということです。
実践では、コミットメントを行う場合、そのコミットメントを何らかの言葉で書き下ろす必要があります。そして、それを実装する段階で、どのような情報を誰とどのタイミングで共有するか、特定の決定を下すために誰を適切な部屋に招き入れるかなど、多くの詳細な決定を行う必要があります。
どのような種類の安全性チームであれ、製品の構想の最初から参加して、どのような影響があり得るかを本当に考え始めることができているのか、それとも発売期限の2週間前に何かを渡されて、「できる限り良くしてください」と言われているのか。
特定の出来事について言及しているわけではありません。本当に、公に報告された例や業界全体から聞こえてくる例を指しているんです。良い取り組みはあります。しかし、会社がそれらのトレードオフ、それらの詳細な決定をすべて行うことに依存していると、広く一般の利益を十分に考慮することができないのではないかと心配しています。
複数の企業の人々から同じような感情を聞いています。「お願いですから、私たちの速度を落とすのを助けてください。外部から指摘できる防護柵を与えてください。これらの市場圧力だけに従うのではなく」というような声です。
一般的に、あなたの印象として、OpenAIは自社の製品を適切に評価し、一般市民を保護するために、安全性の手順とプロトコルに関して十分なことを行っていましたか?
それは、彼らの研究がどれだけ急速に進歩するかに完全に依存していると思います。システムがより高度になる速度についての彼らの最も積極的な予測が正しいのであれば、私は深刻な懸念を持っています。もし彼らの最も積極的な予測が間違っているかもしれないとすれば、私の懸念はやや小さくなります。
あなたの書面での証言で、中国のAI開発と、中国との競争が現実のものであっても、なぜそれを我々が何もしない言い訳にすべきでないのかについて、非常に重要で有用な指摘をされていました。この点について詳しくお話しいただけますか?
過去1年半の間、あなたの座っておられる場所で、多くの人々が中国の問題を提起し、通常「中国との競争に負けてはいけないので、議会は何もしないか、ほとんど何もしない方が良い」と言ってきました。あなたはそれが間違っていると考えておられますが、説明していただけますか?
中国との競争は確かに非常に重要な考慮事項であり、彼らが何をしているのか、彼らの技術が我々の技術とどのように比較されるのかを注意深く見守る必要があります。しかし、これは規制しない、そしてあらゆる種類の規制に対する万能の言い訳として使われていると思います。
これはいくつかの点で間違っています。中国で起きていることを見ると、彼らは自国の部門をかなり厳しく規制しています。彼らは米国に追いつこうと必死です。経済問題や、米国の輸出規制後の半導体へのアクセスなど、深刻なマクロ的な逆風に直面しています。ですから、中国には独自の課題があり、我々は彼らを絶対に追い越されそうで、いつ追い越されてもおかしくないというような扱い方をすべきではありません。
また、規制とイノベーションが対立する必要はないという事実も完全に無視しています。AIは消費者が信頼していない技術です。最近の消費者意識調査では、製品の説明にAIという言葉があると、その製品を使用する可能性が低くなることが示されています。
ですから、消費者の信頼を高める軽いタッチの規制を実施し、政府が技術で何が起きているのかを理解できる態勢を整えることができれば、イノベーションにまったく影響を与えることなく、本当に賢明な方法で規制することができます。だから、中国との競争に影響を与えるかどうかは関係ないんです。
ご存知の通り、米国AI安全研究所は最近、OpenAIとAnthropicとの契約を発表しました。彼らは研究、テスト、評価のために、展開前と展開後にモデルを研究者と共有することに同意しました。トーナーさんとミッチェル博士に最初の質問です。この契約についてどう思われますか?
ピア上院議員、ありがとうございます。契約の詳細は見ていませんが、原則的には素晴らしいと思います。素晴らしい一歩前進だと思います。AI安全研究所が行おうとしている仕事に興奮しています。ハリスさんの、可能な限りの資源を提供すべきだという呼びかけに賛同します。
このような取り決めの成功は、タイミングやアクセス、どのような資産にどのような方法でアクセスできるのかなど、多くの詳細に依存すると思います。楽観的で、この合意を見られて非常に嬉しく思いますが、これからどうなっていくか見守る必要があります。
誰かがオープンソースについて言及しましたが、それは私たちにとって考慮すべき点でしょうか?この公共の保護という文脈で、オープンソースについてどう考えるべきでしょうか?ミッチェル博士。
ありがとうございます。これは実は私が専門的な立場で取り組んでいることなんです。オープンソースという用語は、その意味を十分に理解せずに多用されていると思います。また、必ずしも適用されない状況でも使用されています。
認識すべきなのは、予見可能なリスクに応じて、より開放的にもより閉鎖的にもできる開放性の段階があるということです。例えば、Hugging Faceで私が関わってきたことの一つは、個人情報を提供し、トレーニングを受けて証明書を示さない限り、モデルやデータセットにアクセスできないようなゲーティングの実装です。
このように、異なるモデルやデータセットの予見可能な問題のある使用方法に応じて、完全に閉鎖的から完全に開放的まで、本当に良い仕事ができるスペクトラムがあります。
一言よろしいでしょうか。私はこのオープンソースの話題について広く書いてきました。まず事前に注意していただきたい重要な点があります。欧州連合では、EU AI法の署名と最終化に向けた準備段階で、多くの企業がオープンソースAIをEU AI法の規定から完全に免除するよう強く働きかけました。
私が皆さんの立場なら、ここでもそのような要請を受けることを予想します。もしまだ受けていないのであれば。オープンソースAIをAI規制から免除することは適切ではありません。オープンAIシステムを...現在は連邦政府でも異なる用語を使う人もいて、オープンウェイトという、おそらくより適切な用語を使っています。
AI関連の大統領令では「デュアルユースモデル」という用語を使っています。モデルの重みが広く利用可能な基盤モデルという意味です。ここには多くの用語の問題があります。私はオープンウェイトという用語が今のところ最も明確だと思います。また、安全でないという表現も考え方として使えます。
オープンウェイト、つまり安全でないモデルをリリースすると、二度と取り戻すことはできません。インターネットの隠れた片隅にだけ存在するようにすることはできます。より入手困難にすることはできます。これが、これらすべてのオープンウェイトまたは安全でないモデルの場合です。
残念ながら、モデルに対して重要な安全性テストを行わずにそのような戦略を取る企業をいくつか目にしてきました。そのため、私はこれを非常に懸念しており、人間なしで世界で行動するAIについて言えば、オープンウェイトや安全でないAIシステムに対するAI法の免除は一切あるべきではないと考えています。
これは、知性と行為主体性、つまり考えるシステムと行動できるシステムの違いについての話につながります。トーナーさん、この知性と行為主体性の違いについて、あなたはどのようにお考えですか?これらは異なる概念だと見ていますか?異なる脅威をもたらしますか?これらは別々に扱われるべきでしょうか?これはAGIにどう関係しますか?あなたの考えを聞かせてください。
ありがとうございます上院議員、良い質問です。タイムリーな質問です。実際、まさにこの問題について政策立案者向けの論文を2週間後に発表する予定です。私が言いたいのは、行為主体性、つまり自律的に行動を取ることができるエージェントというこれらの考え方は、まったく別個のものではないということです。
知性とは同じものではありませんが、私たちは既に企業が、ChatGPTなどの言語モデルやチャットボットを取り上げ、少しの追加ソフトウェアと少しの追加開発時間を加えて、自律的な行動を取りに行けるシステムに変換する能力を目にしています。
現在、これらのシステムの状態はかなり基本的なものです。しかし、この分野の研究者やエンジニアと話をすると、彼らはこのカテゴリーのシステムの展望について非常に楽観的で、非常に興奮しています。私の知る限り、すべての主要なAI企業で非常に活発に開発が進められています。
当初の目標は、フライトの予約や会議のスケジュール調整を手伝うような個人アシスタントかもしれません。しかし最終的には...例えば、以前GoogleにいてMicrosoftに移ったムスタファ・サンは、10万ドル(具体的な金額は忘れましたが)を与えると、何らかのビジネスを運営したり、より複雑なことをして100万ドルを持って戻ってくるようなAIができないかと話しています。
極限では、これは確かにAGIと高度なAIに関する考え方全般に非常に関係しています。多くの人々にとって、AIという分野の基本的なアイデアや基本的な興奮は、現実世界で非常に複雑な行動を取り、非常に複雑な目標を追求できるシステムという考えにあったと思います。そして、私たちはその道筋にいるのではないかという、業界での多くの興奮を目にしています。
あなた方の何人かが内部告発者と、彼らを保護する必要性について言及されました。この点について詳しく説明していただけませんか?皆さんは全員、企業を去ったり、何らかの形で関係を絶ったりした内部の人間です。サンダースさん、どうぞ。
ありがとうございます、上院議員。OpenAIを辞めた時、退職する全従業員に、制限的な非中傷契約を渡されることに気づきました。会社を批判せず、この契約を結んだことを誰にも言わないという契約に署名しなければ、会社での持分をすべて失うことになったんです。
これは、企業の問題について話したい従業員が直面する法的状況について、本当に目を開かされました。従業員がこのような状況で求めることがいくつかあると思います。誰と話せるかを知ることです。政府のどの部分が特定の種類の問題について専門知識を持っているのかが非常に不明確です。
専門知識を持ち、あなたの問題を理解してくれる誰かと話したいと思います。そして、その人がそれについて何らかの行動を起こせる能力を持っていることも知りたいです。また、法的保護も必要です。
ここで重要だと思うのは、法律違反の疑いがある場合だけでなく、社会に対する害やリスクが疑われる場合にも適用される保護を定義することです。だからこそ、内部告発の窓口を設置し、これらの保護を含めることは、法制化にとって重要だと思います。
ここでの核心的な問題は、テクノロジーに対する規制の欠如は、これらの懸念される慣行の多くが違法ではないことを意味するため、既存の内部告発者保護が適用されるのかどうかが非常に不明確だということです。
これらの企業の内部に座っている潜在的な内部告発者は、「これは財務的な問題として十分なので、SECが私をカバーしてくれるだろうか」とか、AIの開発や他のテクノロジーの開発に関連する新しい種類の問題で、深刻な懸念はあるものの、会社が法律を破っているとはっきり述べた法令がない場合に、誰に話しに行くべきかを推測しながら冒険したくはないでしょう。そうすると、選択肢は限られてしまいます。
だから、内部告発者保護の必要性は、他のルールの欠如と表裏一体だと思います。製品の安全性と制御機能の開発の失敗は違法ではないかもしれず、したがって内部告発法の厳密な解釈では対象とならないかもしれませんが、それは非倫理的で有害な慣行である可能性があるという、あなたが指摘された点は非常に重要です。
既に我々の外国の敵がAIを使って我々の民主主義に干渉しようとしている例を目にしています。先月、OpenAIは、イラン政府と関連のあるグループがChatGPTを使用して、ソーシャルメディアやブログのコンテンツを作成し、分断を煽り、イランのアジェンダをアメリカで押し進めようとしていたことを明らかにしました。
中国やロシアもAIツールを欺瞞的に使用して我々の民主主義に干渉しようとしているという報告もあります。先ほど言及しましたが、我々の選挙への脅威は現実のものであり、我々は準備ができていません。ハリスさん、あなたはカリフォルニア州で我々の民主主義を保護しようとする法律に取り組まれました。そのような保護は連邦レベルで効果を発揮すると思いますか?また、カリフォルニア州の法律に追加すべきことはありますか?
質問ありがとうございます、上院議員。カリフォルニア州では、連邦レベルで作れるような多くの種類の法律を作るのが難しいと考えています。そこにはいくつかの理由があります。一つは単純に、州の機関のインフラは連邦機関のインフラよりもはるかに小さいということです。
カリフォルニア州は予算赤字の状況にあり、現在、大きな費用を伴う法案を通すのは非常に難しいんです。これが、我々に必要な法制化を実現する上での最大の障壁の一つだと思います。皆さんの枠組みの中には、カリフォルニア州では達成できないような法制化があります。
ライセンスや登録、責任に関する規定など、州レベルでは執行するのに非常にコストがかかるでしょう。正直なところ、全米のすべての州の中で、テクノロジー産業が集中しているという地理的な理由から、カリフォルニア州は他のどの州よりもコストがかかる可能性があります。また、そのような種類の法制化を通すのを難しくする政治的な条件があるかもしれません。
カリフォルニア州の法律について、何かコメントしたい点があればどうぞ。なければ、ハリスさん、そこでの経験から、テクノロジー企業はどのような態度でしたか?支援的で協力的でしたか?彼らの反応をどのように特徴づけられますか?
質問ありがとうございます。テクノロジー企業の法制化に対する2つの異なる現象を見る必要があると思います。一つは法制化に対する外向きの姿勢であり、もう一つは閉じたドアの後ろで起きていることです。
冒頭の発言で、「しなければならない(shall)」と「すべきである(may)」について言及しました。カリフォルニア州議会での仕事で驚いたのは、テクノロジー業界のロビイストが、時には業界団体の後ろに隠れ、時には個々の企業名を出して、議員のドアを叩き、「しなければならない」を「すべきである」に置き換えるよう要求し、良い意図を持って作られた法案の文言を、土壇場で無意味なものに変えてしまう方法です。
カリフォルニア州で目にしたことは、私を大いに懸念させます。私が働いているカリフォルニア・テクノロジー・民主主義イニシアチブのような市民社会団体から出される法案草案が、あまりに大胆すぎると、その法案のスポンサーとなる組織は「これは機能しないので、弱めなければならない」と言われます。時にはそれが何回もの弱体化として現れ、その様子を見るのは非常に痛ましいものとなります。
サンダースさん、あなたが今指摘した点に関連して、私たちが繰り返し言ってきたことの一つは、AIの道を進む前に、連邦レベルで優先的なオンラインプライバシー法案が必要だということです。人々は自分の情報を防御し、パブリックドメインから外しておけるようにしたいからです。
先週、トーナーさん、これについてお聞きしたいのですが、Metaは英国でFacebookとInstagramの公開コンテンツを使用して、生成AIモデルのトレーニングを行うと発表しました。Metaは、その目標は「イギリスの文化、歴史、慣用句を反映すること」であり、「英国の企業や機関が最新のテクノロジーを利用できるようにする」としています。
私たちは皆、それが何を意味するか分かっていると思います。この発表についてどのような懸念をお持ちですか?また、このようなプラットフォームで共有されているデータをAIモデルのトレーニングに使用するMetaのような企業に対して、どのような制限を設けるべきでしょうか?
ありがとうございます、ブラックバーン上院議員。その発表について、私の理解は、ごく簡単に見ただけで詳しく掘り下げていないことを認めなければなりませんが、これは実際にMetaがここアメリカではプライバシー保護の欠如により、既に大いに進めていた慣行だったと思います。
先週の発表は、そのプライバシー法案が本当に必要だということを示していると思います。私の理解では、彼らは英国では、英国に存在するプライバシー保護のために、このプロセスの開始を控えていたと思います。
ですから、これは実際に英国側の成功の例かもしれません。Metaは、そこに存在する法的保護のために、英国のユーザーのデータの使用方法についてもう少し思慮深く、もう少し慎重に、もう少し選択的である必要があると感じていました。あなたが正しく指摘されたように、そのような保護はアメリカには存在しません。
他の方で付け加えたい点はありますか?
この同じトピックについて、実は今年の初めに大きな注目を集めたことがありました。多くのFacebookとInstagramのユーザーが、AIシステムのトレーニングに自分たちの公開データが使用されることをオプトアウトできることを発見したんです。
TikTokとLinkedInの両方で、ユーザーがFacebookやInstagramの設定でオプトアウトする方法の説明を投稿しているのを見ました。私もFacebookとInstagramでやってみましたが、そのボタンが見つかりませんでした。そしてコメントに「ボタンが見つからない」と投稿したところ、IPアドレスがアメリカにある全員がボタンを見つけられないことが分かったんです。
これは、EUと英国(どの地域で提供されているのか、異なる説明を聞きました)の人々にのみ提供される機能だったようです。私たちアメリカ人は二級市民で、欧州や英国の人々が持っている、自分たちや家族、子供たちの写真がAIシステムのトレーニングに使用されることに反対する権利すら持っていないんです。
しかも、そのAIシステムが正しく機能するという確信も持てません。将来、私たちに関する個人情報を誤って公開したり、私たちにそっくりな画像を作ったりする可能性があります。この問題を提起していただいたことに感謝します。APPAのような法案が進展するのを楽しみにしています。私たちがこの問題に対処できる法的システムの基盤を持てるようになることを期待しています。
今日ここにいる証人の皆さんは全員、安全性へのコミットメントに関する懸念から、AI企業を去った方々です。皆さんは明らかに一人ではありません。特にOpenAIは、スーパーアラインメントチームの責任者であるヤン・レオ氏を含め、多くの著名な退職者を出しています。
彼は退社後、Xで「私は会社の中核的な優先事項について、OpenAIのリーダーシップと長らく意見が合わず、ついに限界に達した」と書きました。また、「帯域幅の多くを、次世代モデルへの準備、セキュリティ、モニタリング、準備態勢、安全性、敵対的ロバストネス、スーパーアラインメント、機密性、社会的影響、および関連するトピックに費やすべきだと信じている。これらの問題は正しく解決するのがかなり難しく、私たちがそこに到達する軌道に乗っていないことを懸念している」とも書きました。
あなた方全員に、直接の経験に基づいてお聞きしたいのですが、基本的にこれらの指摘に同意されますか?サンダースさんから始めて、他の方々にもご意見があればお聞かせください。
はい、ありがとうございます上院議員。ヤン・レオ博士はOpenAIでの私の在任期間の多くで私の上司でした。私は彼の意見と判断を本当に尊重していました。
彼が話していたのは、準備態勢フレームワークの下でのハイリスクモデル、つまり実際に壊滅的なリスクを持つ可能性のあるモデルに対処する準備がOpenAIができていない多くの問題についてでした。
例えば、素人が生物兵器を作るのを助けたり、前例のないようなサイバー攻撃を実行したりし始める可能性のあるシステムについてです。そのようなシステムについては、まず、それらが何をできるのかを理解する前に、セキュリティを確実なものにする必要があります。そうしないと、システムが盗まれて危害を加えるために使用されてしまう可能性があります。
次に、場合によっては生物兵器の製造を手助けする可能性があるものの、多くの人々が他の良い目的で使用したいと考えるシステムを、実際にどのように展開するのかを理解する必要があります。
今日のすべてのAIシステムは「ジェイルブレイク」と呼ばれるものに対して脆弱です。企業がこれまでに試みてきたどんな対策にもかかわらず、人々はシステムに何についてでもアドバイスや支援を提供させる方法を見つけ出すことができます。
だから、このような難しい問題に対する解決策が必要です。そして、再び、システムを監督する人々より賢くなり、自律的に特定の種類のリスクを引き起こし始める可能性のあるモデルに対処する方法が必要になります。
そう、私は彼が、現在持っているシステムに対して会社が厳密でないことについて話していたと思います。現在のシステムは一部の問題を増幅させる可能性がありますが、壊滅的なリスクが可能になる段階に達した時、私たちは本当にしっかりとした対応ができていなければなりません。そして私たちは、そのような問題に対処できる能力を持っていなければなりません。彼が話していた問題のほとんどは、会社の製品や慣行が実際に自分たちの安全基準に従っていないということだったと思います。そのようなことは定期的に起きていました。それが、開発者や研究者たちが去っていく最も大きな理由の一つでした。
私たちが実際に目にしていたのは、会社が多くのメディアで大きな約束をし、それらを実際には全く履行していなかった、そのようなパターンでした。社内の多くの人々が、製品が安全でないことを懸念していました。これがさらなる退職者を出した本当の理由です。
少し時間を戻って、トーナーさんの懸念点に戻りたいと思います。私の理解では、あなたが取締役会の中にいた時、この安全性の問題について、取締役会として十分な情報を得られていないと感じていたということでしょうか?
はい、その通りです。私の懸念は、オルトマンやその他のリーダーたちが、私たちに安全性の手順について説明する際、正確ではない、または不完全な情報を提供していたということでした。時には重要な詳細が省略されていました。
私は、会社が適切な安全対策を講じているという保証を得られなかったのです。これは、私たちが必要としていた監視を行うことを非常に困難にしました。そして最終的には、私はその状況が受け入れられないと感じ、辞任することを選びました。
このような状況は、AIの安全性に関する規制の必要性を示す完璧な例だと思います。会社の内部統制だけでは不十分です。外部からの独立した監視と、明確な責任の所在が必要です。
皆さん、本日は大変貴重な証言をありがとうございました。AIの安全性と規制に関する重要な洞察を共有していただき、感謝いたします。
この記事が気に入ったらサポートをしてみませんか?