![見出し画像](https://assets.st-note.com/production/uploads/images/119295101/rectangle_large_type_2_07ba9cb030d075f73006d64a7b6a9901.jpeg?width=1200)
ディープフェイク犯罪について
ディープフェイクを使って顔や声を変えることが可能になり、近年犯罪に利用されるケースが増加しています。
ディープフェイク犯罪の一例
中国の俳優、黄暁明が被害に遭ったことを告白。
Even LYF and HXM both were victims of people using their likeness to scam others. pic.twitter.com/5NRcSkcvNz
— 老娘是你姑奶奶! (@QuelleVousNo2) October 4, 2023
台湾のユーチューバー、著名人のディープフェイクセックス動画を販売した疑いで逮捕。
AI音声詐欺の被害者が、誘拐された「娘」からの電話を受けたことについてインタビューに答えている。
各国政府の対応
FBIは2023年5月、偽の露骨な画像や被害者のメディアを作成し、恐喝詐欺にディープフェイクを使用する詐欺師について警告を発した。
![](https://assets.st-note.com/img/1687575125059-c9mRU8l1wx.jpg?width=1200)
中国では2023年3月、罰金や懲役刑を含む新しいサイバー暴力規制が可決
もはやディープフェイクは遠い未来の高度な技術ではありません。
そしてそれによって起きる犯罪は、今現在誰でも被害に遭う可能性があります。