ChatGPTについて以下のJAMA論評への見解を聞いてみた
OpenAIも対策
問題の論評記事
著者の原稿や出版された論文の準備や質の向上を支援する人工知能(AI)技術は、急速にその数と精巧さを増している。これには、ライティング、文法、言語、参考文献、統計分析、報告基準などを支援するツールが含まれます。また、編集者や出版社は、投稿論文に問題(例:剽窃、画像操作、倫理的問題)がないかスクリーニングしたり、投稿論文のトリアージ、参考文献の検証、編集、異なるメディアで出版するためのコンテンツのコーディング、出版後の検索や発見性を促進するなど、無数の目的でAI支援ツールを使用している。
2022年11月、OpenAIはChatGPTと呼ばれる新しいオープンソースの自然言語処理ツールをリリースした。ChatGPTはチャットボットを進化させたもので、プロンプトや質問に反応して人間の会話をシミュレートするように設計されている(GPTは「generative prerained transformer」の略です)。 2023年1月、Nature誌は、科学・健康分野で発表された論文のうち、ChatGPTを傍線著者として含むプレプリント2本と論文2本を報告した。これらの論文には、それぞれChatGPTの所属先が含まれており、そのうち1本は人間以外の「著者」の電子メールアドレスが含まれています。Natureによると、その論文の著者欄にChatGPTが含まれていたのは「誤りであり、間もなく訂正される予定」だが、これらの論文とその非人間「著者」は、すでにPubMedとGoogle Scholarに索引付けされている。 Natureはその後、科学論文における大規模言語モデルの使用を指導する方針を定め、「著作権の帰属には研究に対する説明責任が伴うが、AIツールはそのような責任を負えない」ため、このようなツールを「研究論文にクレジットされた著者」として挙げることを禁止した。またこの方針では、これらのツールを使用する研究者に対して、原稿中の方法または謝辞欄にその使用方法を明記するよう勧告している。他のジャーナルや組織は、これらの非人間的技術を「著者」として含めることを禁止し、投稿論文にAIが生成したテキストを含めることを禁止することから、学術出版においてこれらのツールがどのように使用され報告されているかについて完全な透明性、責任、説明責任を求めることまでの方針を早急に策定している。 International Conference on Machine Learningは、その会議で審査・議論するための論文募集をしているが、新しい方針を公表している。"ChatGPTのような大規模言語モデル(LLM)から生成されたテキストを含む論文は、生成されたテキストが論文の実験分析の一部として提示されない限り禁止 " この学会は、このポリシーに質問が殺到していることを指摘し、「LLMが機械学習とAIの分野の審査と出版に与える影響(プラスとマイナスの両方)について調査し議論する」予定で、今後ポリシーを見直す予定と述べている。
著者の責任
複製・再作成された資料
画像の完全性
Translated with DeepL
Translated with DeepL