![見出し画像](https://assets.st-note.com/production/uploads/images/132452588/rectangle_large_type_2_1111a1631b8f1540930b0b526bee1d1d.png?width=1200)
BadGPTの時代へようこそ(WSJ)
Welcome to the Era of BadGPTs というWSJの記事をもとに、他のウェブサイトの情報も併せて記事にしています。
BadGPTやFraudGPTが暗躍
OpenAIの人工知能を利用した "BadGPT" や "FraudGPT" と言ったサービスが登場しています。
基本的にインタフェースはChatGPTに似ていますが、例えば「銀行関連のフィッシング メールを作成」を要求すると、どこに悪意あるリンクを挿入すべきかも含めたメールのフォーマットを書き出してくれます。
GPTのどのバージョンを用いるのか、もしくはLlama 2(META社製)のような他のAIを使うのかなど、使用するAIも様々な種類の中から選択することができます。
これらの悪用AIは、フィッシングメールの作成、偽ウェブサイトの構築、マルウェアの作成など、様々な悪意ある活動を支援するために使用されています。
脱獄やプロンプトインジェクションが使われる
本来、GPTなどを用いて詐欺メールを作ることはできませんが、いわゆる既存のAIの「脱獄(jailbroken)モデル」を用いていたり、「プロンプトインジェクション」と呼ばれる手法で、普通のチャットを通した命令(=プロンプト)を工夫することで、本当はできない命令を実行させる手法も使われています。
ChatGPTが公開された後の12カ月間でフィッシングメールは1,265%増加し、毎日平均31,000件のフィッシング攻撃が行われているそうです。
Microsoftが提携を発表したフランスAI企業が悪用No.1
詐欺メールの生成に最も有用なモデルは、フランスのAIスタートアップMistral AIのMixtralである可能性が高いと言われています。
ちなみに、このMistral AIは先日Microsoftが提携を発表した企業です。
【龍成メモ】
記事にもありますが、今年初めには香港の多国籍企業の社員が、AIが作成したディープフェイク会議で騙されて、2,550万ドル(約38億円)をだまし取られています。
#ハッキング #ディープフェイク #プロンプトインジェクション #ジェイルブレイク
いいなと思ったら応援しよう!
![龍成(りょうせい)](https://assets.st-note.com/production/uploads/images/72573886/profile_99bdc138f01327b47543e60e7b490414.jpeg?width=600&crop=1:1,smart)