AIの訓練者がAIに仕事をアウトソース?新たな課題と可能性を探る
AIの進化は、その訓練を担当する人々までが作業をAIにアウトソースするという新たな現象を生み出しています。しかし、この現象は新たな課題を引き起こし、AIの未来に影響を与える可能性があります。
AIの訓練とアウトソーシング
スイス連邦工科大学(EPFL)の研究チームが最近行った一連の実験が、AIの訓練に関わる新たな現象を明らかにしました。彼らは、Amazon Mechanical Turkというギグワークプラットフォームで雇った44人に、医学研究論文の抜粋を要約させ、その結果を分析しました。驚くべきことに、作業者の33%から46%が、OpenAIのChatGPTのようなAIモデルを使用していたと推定されました。
この実験を紹介したMITの原文:
AIのエラー
この現象は、AIがより強力でアクセスしやすくなるにつれて、さらに増加する可能性があります。しかし、AIが生成したデータをAIの訓練に使用することは、すでにエラーが多いモデルにさらなるエラーを導入する可能性があります。大規模な言語モデルは、誤った情報を事実として提示することがあります。これらが他のAIモデルの訓練に使用されると、そのエラーは吸収され、時間とともに増幅され、その起源を追跡することがますます困難になります。
この研究は、データが人間によって生成されたものなのか、AIによって生成されたものなのかを確認する新たな方法の必要性を浮き彫りにしています。また、テクノロジー企業がギグワーカーにAIシステムに供給されるデータの整理という重要な作業を依存している問題も指摘しています。
示唆
AIの使用によるエラーの増幅: AIが生成したデータを使用することで、エラーが他のモデルに吸収され、時間とともに増幅される可能性があります。これは、AIの訓練と使用における新たな課題を示しています。
AIと人間の役割の変化: AIがより強力になり、作業を自動化する能力が増すにつれて、人間の役割は変化していきます。これは、AIと人間の関係性、特にギグワーカーの役割とAIの役割についての新たな議論を引き起こす可能性があります。