NEWS 16 March 2023 GPT-4 is here: what scientists think Researchers are excited about the AI — but many are frustrated that its underlying engineering is cloaked in secrecy. Katharine Sanderson
”GPT4さん、本文訳して解説して”
人工知能企業OpenAIは、人気のチャットボットChatGPTを動かす大型言語モデルの最新バージョンであるGPT-4を今週発表しました。同社によれば、GPT-4は大幅な改善が施されており、ほぼどんなプロンプトからも人間のようなテキストを生成し、画像やコンピューターコードを生成する能力ですでに人々を驚かせています。研究者たちは、これらの能力が科学を変革する可能性があるとしていますが、一部の人々は、まだ技術やその基礎となるコード、訓練方法にアクセスできないことに不満を持っています。科学者たちは、技術の安全性に懸念があり、研究には役立たないと言っています。 GPT-4のアップグレードの1つは、3月14日にリリースされた画像とテキストを扱えるようになったことです。カリフォルニア州サンフランシスコに拠点を置くOpenAIは、GPT-4が米国の法律試験で90パーセンタイルの成績を収め、前バージョンのChatGPTの10パーセンタイルと比べて大幅に向上したことを言語能力の証明としています。しかし、この技術はまだ広く利用されておらず、これまでにChatGPTの有料サブスクライバーだけがアクセスできるようになっています。 アムステルダム大学の心理学者であるEvi-Anne van Dis氏は、「現在待ちリストがあるため、すぐには使用できません」と述べています。しかし、彼女はGPT-4のデモを見たことがあります。「彼らが能力を示すビデオをいくつか見ましたが、それは驚くべきものでした」と彼女は語ります。彼女が語る1つの例は、手描きのウェブサイトの落書きを使って、そのウェブサイトを構築するために必要なコンピューターコードを生成するGPT-4のデモです。 しかし、科学界では、OpenAIがモデルの訓練方法やデータ、実際の機能に関する情報を秘密にしていることに対する不満があります。「これらのクローズドソースモデルは、科学において事実上の行き止まりです」と、オープンソースAIコミュニティHuggingFaceの気候専門の研究科学者であるSasha Luccioni氏は言います。「彼ら[OpenAI]は自分たちの研究を続けて構築していくことができますが、コミュニティ全体にとっては行き止まりです。」‘Red team’ testing ロチェスター大学の化学工学者Andrew White氏は、OpenAIがプラットフォームを悪用しようと試みることで悪いことをするようテストする「レッドチーム」メンバーとして、GPT-4に特権的なアクセスを持っていました。彼は過去6か月間、GPT-4を利用していました。「最初のうちは、前のバージョンとあまり変わらないように見えました」と彼は言います。 White氏は、化合物を作るために必要な化学反応の手順や、反応収率を予測し、触媒を選ぶための質問をボットに投げかけました。「最初は、あまり感銘を受けませんでした」と彼は語ります。「とてもリアルに見えたので驚きましたが、ここで原子を作り出したり、そこでステップをスキップしたりしていました」と彼は付け加えています。しかし、レッドチームの仕事の一環として彼がGPT-4に科学論文へのアクセスを与えたところ、事態は劇的に変わりました。「単独ではあまり優れていないかもしれませんが、インターネットやレトロシンセシスプランナーや計算機などのツールに接続すると、新しい種類の能力が現れることに気付かされました」と彼は言います。 しかし、それらの能力とともに懸念が生じます。例えば、GPT-4は危険な化学物質の製造を可能にするのでしょうか? White氏らの意見を受けたOpenAIの技術者たちは、GPT-4が危険で違法なダメージを与えるコンテンツを作成しないように、モデルにフィードバックを与えました。Fake facts 偽の情報を出力することも問題です。Luccioni氏は、文章の次の単語を予測する目的で存在するGPT-4のようなモデルは、偽の事実を生成すること(いわゆる幻覚)を完全に防ぐことはできないと言います。「これらのモデルにはたくさんの幻覚があるので、それらに頼ることはできません」と彼女は語ります。そして、これは最新バージョンでもまだ懸念事項であると彼女は指摘していますが、OpenAIはGPT-4の安全性が向上していると言っています。 訓練に使用されたデータにアクセスできないため、Luccioni氏にとって、OpenAIの安全性に関する保証は十分ではありません。「データが何であるか分からないので、それを改善することはできません。つまり、このようなモデルでは科学を行うことは完全に不可能です」と彼女は語ります。 GPT-4の訓練方法についての不明確さは、アムステルダムの同僚である心理学者Claudi Bockting氏にも懸念を持たせています。「何かを監督できないものに対して、人間として責任を持つことは非常に難しい」と彼女は言います。「懸念の1つは、例えば、人間が持っているバイアスよりも、彼らがはるかにバイアスを持っている可能性があることです。」GPT-4の背後にあるコードにアクセスできないため、バイアスがどこから生じたのか、それを是正する方法を見つけることは不可能だとLuccioni氏は説明しています。倫理的議論:Ethics discussions Bockting氏とvan Dis氏はまた、AIシステムがますます大手テクノロジー企業によって所有されていることに懸念しています。彼らは、この技術が科学者によって適切にテストされ、検証されるようにしたいと考えています。「これはまた、大手テクノロジー企業との協力がプロセスを加速させることができるため、機会でもあります」と彼女は付け加えています。 Van Dis氏、Bockting氏、そして同僚たちは、今年初めにAIやGPT-4のようなツールがどのように使用され、開発されるかを規制する「生きた」ガイドラインを緊急に策定する必要があると主張っています。彼らは、AI技術に関する法規制が開発のペースに追いつくのに苦労することを懸念しています。Bockting氏とvan Dis氏は、4月11日にアムステルダム大学でこれらの懸念を議論するための招待制サミットを開催しており、UNESCOの科学倫理委員会、経済協力開発機構、世界経済フォーラムなどの組織の代表が参加しています。 懸念にもかかわらず、GPT-4とその今後のバージョンは科学に大きな変革をもたらすでしょうと、White氏は述べています。「インターネットが大きな変化をもたらしたように、科学においても大きなインフラの変化になると思います」と彼は言います。彼は、科学者たちが置き換えられることはないと言いつつ、いくつかのタスクを助けることができると考えています。「私たちは、論文、データプログラム、使用するライブラリ、計算作業、さらにはロボット実験をつなげることができると気付き始めるでしょう」と彼は言います。要約 すると、OpenAIが開発した最新の大規模言語モデルGPT-4は、人間のようなテキストを生成し、画像やコンピューターコードをほぼどんなプロンプトからでも生成できる能力で人々を驚かせています。これらの能力は、科学に変革をもたらす可能性があると研究者たちは言っています。しかしながら、技術、その基礎となるコード、およびその訓練方法に関する情報にアクセスできないことが、科学者たちの間で懸念となっています。これにより、技術の安全性についての懸念が増し、研究に対しても役立たないと科学者たちは言っています。 一部の研究者たちは、AIシステムが大手テクノロジー企業によって所有されていることに懸念 を抱いており、AI技術に関する法規制が開発のペースに追いつかないことを懸念しています。GPT-4は、科学に大きな変革をもたらす可能性があるとされていますが、科学者たちと大手テクノロジー企業との協力が重要とされています。AI技術の適切なテストと検証が行われ、倫理的な議論が促進されることで、研究者たちはこの技術を最大限に活用できるでしょう。 今後、GPT-4のようなAI技術は、論文の執筆や研究プロセスの効率化に貢献することが期待されていますが、その能力を適切に活用し、不正確な情報や偏見の問題を克服するためには、コミュニティ全体で努力が必要 となります。さらに、AI技術を開発し、普及させるにあたっては、倫理的ガイドラインや法規制が適切に整備されることが重 要です。 今後のAI技術の発展に伴い、科学者たちは新たな可能性や応用分野を模索し続けるでしょう。その過程で、AI技術の限界や問題点も明らかになることが予想されますが、科学者たちと技術企業が連携し、倫理的な枠組みの中で技術を活用することで、GPT-4のようなAI技術が科学の発展に貢献できることでしょう。
The GPT-4 logo is seen in this photo illustration on 13 March, 2023 in Warsaw, Poland. The GPT-4 artificial-intelligence model is not yet widely available.Credit: Jaap Arriens/NurPhoto via Getty Images doi: https://doi.org/10.1038/d41586-023-00816-5