見出し画像

データポイズニング:アーティストがAI画像生成ツールに対抗!

要約
2023年12月19日の記事では、アーティストによるAI画像生成ツールへの対抗策であるデータポイズニングや、OpenAIのセーフティーチームの強化について報じられています。OpenAIは、AIのリスクを管理するために新しい安全対策を導入し、技術チームの監督と取締役会への拒否権を設けました。また、投獄された政治家がAIクローンを用いて選挙運動を行った事例や、自動車ディーラーにおけるAIチャットボットの導入による混乱など、AIの多様な利用が紹介されています。

さらに、データポイズニングという戦術についても詳述されており、これはAIモデルを混乱させるために画像のピクセルを微妙に変更する手法です。この戦術は、著作権侵害やプライバシーに関する懸念に対する創造的な対応として注目されています。


2023年12月19日 | オンラインで読む
データポイズニング:アーティストがAI画像生成ツールに対抗!
OpenAI、セーフティーチームを強化し、リスクのあるAIに対する取締役会の拒否権を付与
 
サイード・エザティ
2023年12月19日
 
今日のメールでの内容:
 ・👮🏼‍♀️ 投獄された政治家がAIクローンを活用し、獄中から選挙運動を展開
 ・👀 トランスフォーマー言語モデルの視覚化
 ・🚗 自動車ディーラーがサイトにAIチャットボットを追加。その後、大混乱が発生
 ・🧰 新たなAIパワードツールやリソース10選。フルリストはオンライン版をチェック
サインアップ | 広告掲載 | ChatGPT | オンラインで読む
 


OpenAI、セーフティーチームを強化し、リスクのあるAIに対する取締役会の拒否権を付与
OpenAIは、AIの潜在的な危険に対応するため、社内の安全対策を強化しています。新しい安全アドバイザリーグループが技術チームを監督し、リーダーシップに対して勧告を行う予定で、取締役会は今後拒否権を持ちます。この更新は、最近のリーダーシップの変更とAIリスクに関する議論が増加したことを受けてのものです。
OpenAIの更新された「準備フレームワーク」は、大規模な経済的損害や多くの人々に深刻な害を及ぼす可能性のある、AIモデルの壊滅的リスクを特定し管理することを目指しています。フレームワークには、稼働中のモデル(安全システムチーム)と開発中のフロンティアモデル(準備チーム)に対応する異なるチームが含まれています。さらに、超知能モデルの理論的ガイドラインに焦点を当てたスーパーアライメントチームもあります。
モデルは、サイバーセキュリティ、説得力(例えば偽情報)、モデルの自律性、CBRN(化学、生物、放射線、核の脅威)の4つのリスクカテゴリで評価されます。高リスクモデルには、危険物質の作り方を説明しないなどの緩和策が取られています。緩和後もモデルが高リスクを示す場合は展開されず、重大なリスクを示す場合はさらなる開発が行われません。
OpenAIのアプローチには、潜在的な未知のリスクを発見するためにレビューし、勧告を行うクロスファンクショナルなセーフティアドバイザリーグループが含まれています。モデルの展開に関する決定はリーダーシップによって行われますが、取締役会はこれらの決定を覆すことができます。
この新しい構造は、取締役会の知識なしに高リスクの製品やプロセスが承認されることを防ぐことを目的としていますが、取締役会が決定に異議を唱える意思やOpenAIが重大なリスクを扱う際の透明性については疑問が残ります。


 
世界クラスのAIチームを80%オフで雇う
主要なスタートアップやフォーチュン500社に信頼されています。
AI製品の構築は困難です。AIを理解するエンジニアは高価で、見つけにくいものです。そして、誰が本物で誰がそうでないかを判断する方法はありません。
そのため、世界中の企業がAEスタジオを信頼しています。ハーバード、プリンストン、スタンフォードの世界クラスのAI専門家チームと共に、ビジネスに最適なAIソリューションを構築し、実装するお手伝いをします。私たちの開発、デザイン、データサイエンスチームは、創業者や経営陣と密接に協力し、コストの一部で仕事をこなすカスタムソフトウェアとAIソリューションを作成します。
今すぐ無料のコンサルテーションセッションを予約してください。
p.s. OpenAI DevDayがあなたのビジネスにどのような影響を与えるか知りたいですか?話しましょう!

パキスタンでイムラン・カーンが獄中からAIクローンを使って選挙運動
パキスタンのイムラン・カーンが、AIで作成されたスピーチを使って刑務所から投票を呼びかけ
パキスタンの前首相で、現在は機密文書の漏洩容疑で投獄されているイムラン・カーンは、自身の政党、パキスタン・テヘリーク・エ・インサフ(PTI)が主催したバーチャル集会で、人工知能を使用してスピーチを行いました。この集会は、国家による検閲を克服し、支持者に到達するために、Facebook、X、YouTubeなどのソーシャルメディアプラットフォームで放送されました。カーンのスピーチは、ElevenLabsによって開発されたAIボイスクローンを使用しており、彼の弁護士を通じて提供された台本に基づいて作成されました。
この革新的なアプローチにより、カーンは刑務所にいながらも支持者に演説することができました。AIによる音声とカーンの歴史的映像を組み合わせたこのスピーチは、PTIの支持者によるトークも含む5時間のライブストリームの一部でした。この放送は450万人以上に視聴され、カーンに対する検閲の取り組みによるインターネットの中断も報告されました。
スピーチは賛否両論を呼び、技術の使用を評価する声もあれば、ライブスピーチに比べて説得力が劣ると感じる声もありました。ソーシャルメディアに精通しているカーンのPTIは、これらのプラットフォームを通じて、主に若い観衆とのエンゲージメントを続けています。
この出来事は、国家による抑圧と検閲の文脈での、AIの政治コミュニケーションにおける潜在的な使用と影響についての疑問を提起しています。カーンは刑務所にいる間にPTIの指導者として交代されましたが、依然としてPTIにおける重要な人物です。パキスタンは2月8日に総選挙を控えており、カーンの参加と影響力は依然として重要です。


 
データポイズニング:アーティストが画像生成ツールに対抗して復讐する方法
データポイズニングは、MidjourneyやDALL-Eなどのテキストから画像を生成するツールの性能を妨害する戦術です。これらの生成ツールは、何百万もの画像を含む大規模なデータセットでトレーニングされています。AdobeやGettyのように、自分たちが所有またはライセンスを持つ画像を使用するものもあれば、他社はオンラインの画像を無差別にスクレイピングし、著作権侵害の問題につながっています。
「ナイトシェード」というツールは、無許可の画像スクレイピングに対抗するために作成されました。これは、人間には知覚できない方法で画像のピクセルを微妙に変更し、AIモデルを混乱させます。これらの変更された画像がトレーニングデータに使用されると、AIの画像の正確な分類と生成の能力が損なわれ、バルーンの代わりに卵を生成したり、6本足の犬などの奇妙な特徴を導入するなど、予測不可能な結果をもたらすことがあります。
データポイズニングの概念は、画像生成に限らず、AIに対する敵対的なアプローチ、例えば顔認識システムを避けるための化粧や衣装の使用などにも関連しています。これらの戦術は、技術のガバナンスやアーティストとユーザーの道徳的権利に関するより広範な議論の一部です。技術ベンダーはデータポイズニングを解決すべき問題とみなすかもしれませんが、プライバシーや著作権への懸念に対する創造的な対応としても見ることができます。提案された解決策には、データソースのより良い精査、異常値を検出するアンサンブルモデリング、モデルの精度を監査するためのテストデータセットの使用などがあります。

1. #AI安全対策
2. #データポイズニング
3. #画像生成AI
4. #OpenAI革新
5. #AI政治利用
6. #AI倫理問題
7. #テクノロジーの進展
8. #AIガバナンス
9. #クリエイティブな反撃
10. #AIモデル混乱
1. #人工知能
2. #AIテクノロジー
3. #ChatGPT
4. #AI革命
5. #機械学習
6. #AIの未来
7. #GPT
8. #AI
9. #ディープラーニング
10. #AI開発

いいなと思ったら応援しよう!