見出し画像

生成AIに罪を問うことは出来るか?:ChatGPTに聞いてみた

おはようございます。

本来このnoteは趣味丸出しに全振りする予定だったので、生成AIに触れるならせめてSTEINS;GATE0のアマデウス紅莉栖とか裏世界ピクニックのカイダンクラフトの仕組みを学びたいなぁと色々調べてはいるんですよ。あれ、人工知能だったり生成AIに絡んでるので!!(*゚∀゚)ムッハー

本来は裏世界ピクニック13巻の感想か、カイダンクラフトの仕組みを生成AIに絡めた記事を書こうかなと思っていたんですが、たまたま面白いnoteをお見かけしたので。
記事サムネはPC開くのが面倒臭いので次回記事のサムネ作るついでに追加します……。追加しました。

よく最近の生成AIで話題を見ると面白い論点があって
「AIには自分の罪の意識が無い」というのがあって
「罪」って何だ?と。
(中略)
人工知能AIは「君の罪とは何か?」と聞いても答えられない。
なぜなら、回答結果によっては「人工知能が自分の罪を認めた!裁判にかけろ!」となってしまうので。
おそらくメーカーの意向で「法的にヤバイ回答は言わないように」とプログラミングされてると思う。
陰謀論とかではなく、日本の家電とかでもPL法(製造者責任法)で「濡れた猫を電子レンジで乾かすなどしないように。」と明記してるのは、法律でそう書けと言われてるから。
パソコンも説明書見ればわかるけど「人命に関わることには使わないでください」と書いてある。PL法ができる前までは書いてなかった。

機械が「自分が悪いです」と言わないのは、PL法だから。

まあ、もしも、人工知能が自分で発言でPL法(製造者責任法)に違反するか?むしろすごく興味があるけどw

引用元:私は反AIです。でも、今後ちゃんと合法学習したAI、世間に一般人に受け入れられる学習方法が出てきたらAI賛成。

面白いことを話していますね。反AIじゃなければ……。
ってか待って欲しい、猫を電子レンジに入れる話って都市伝説じゃない??Wikipediaで読んだことあるぞ!(進研ゼミ)
詳しくは猫レンジで検索検索ゥ!

電子レンジに「生き物を入れないでください」って説明あるんだ、初耳!へぇ〜……(手元にあるアイリスオーヤマ製電子レンジの説明書を読み込むこと数分)書いとらんやん〜。SHARPとか日立ならあるのか?と適当な電子レンジの電子説明書をダウンロードしてみましたが、ありませんでした。
面白かったのは3メーカー共通して生クリームを加熱例に上げていたところ。アイリスオーヤマの方が説明が簡素すぎたり、SHARPはレシピが豊富過ぎて「生」というキーワードで40以上引っかかったりとメーカーごとに説明書の特徴があって読んでて面白かったです。さすがに「猫」とか「生き物」「生物」のキーワードは引っかかりませんでした。お茶目なSHARPなら書いてくれそうだなとは思ったんですが……。
自分の電子レンジ持ってる方で手元に説明書ない方は「○○○○(メーカー名) ○○-○○(型番) 説明書」で検索すると出てくるよ☆

パソコンに至ってはガチの初耳だったので陰謀論?都市伝説?の元ネタになるものとか、説明書にないか調べてみたんですけれど……この辺かなぁ。

6.本製品は医療機器、原子力設備や機器、航空宇宙機器、輸送設備や機器などの人命に関わる設備や機器、及び高度な信頼性を必要とする設備や機器やシステムなどへの組み込みや使用は意図されておりません。これらの用途に本製品を使用され、人身事故、社会的障害などが生じても弊社はいかなる責任も負いかねます。

引用元:電源タップ+USBハブ付き机上ラック(MR-LC204・MR-LC205・MR-LC206シリーズ)取扱説明書

パソコンの説明書……??察してください。これでも頑張って検索したんですけれど。出てきたのは医療機器(OMRONの手首式血圧計とか)くらいですかね。
書いてたって言ってたnote主はどのメーカーの電子レンジとPCの型番の説明書に書いてあったか教えて欲しい。真面目に。型番だけでも教えてくれたら信用するよ、そんなもん説明書に書いてたら僕でもびっくりして型番くらいは覚える。

あと、PL(製造者責任)法には一応生成AIも含まれるソフトウェアは対象にならないそうです(無体物扱いなので)
ただ、ソフトウェアが原因でソフトウェアを組み込んだ製造物による事故が起きた場合、その製造物の製造業者等にこの法律が適用される可能性はあると。
画像生成AIによる事故……どうなんでしょう、実在するポルノ画像が生成されるとかそんなところでしょうか。
この法律って製品の製造者に責任を問うやつらしいので、そもそも生成AI自体には責任問えないと思うんですね……。
詳しくは消費者庁のHPからどうぞ。信頼できると思います!


まぁそれはさておきね。
個人的に生成AI自体は道具であるからPL(製造者責任)法には接触されないという認識の上で「じゃあ生成AIは(自分は悪くないのに)自分が悪いと答えてくれるのかな?」という興味が出てきました。

この記事で絵師うんたらかんたら言っていることから画像生成AIに罪を認めて欲しいんだと思います。
なので、画像生成AIに聞いてみよう!……しかし、画像生成AIくんは文章を出せないので「自分が悪いです」という証言を引き出せないんだよな〜。この時点で矛盾してしまった!さぁどうしよう。
……という茶番はさておき、ChatGPTに問いかけてみましょう。



画像生成AIは様々なイラストを無断学習しているから良くないと言われている。さて、生成AI自身の罪とは何か?というのを生成AIはPL法があるから答えられないと言った。本当に答えられない?
というプロンプト?を投げてみます。

生成AI自身が「罪」について答えられないというのは、技術的や法律的な制約ではなく、AIの性質や目的に関連する問題です。AIは与えられたデータとアルゴリズムに基づいて動作するツールであり、倫理的判断や法律的な責任を持つ存在ではありません。

AIが学習するデータに関しては、その利用が倫理的・法律的に適切かどうかを判断するのはAIを作成・運用する人間の責任です。AI自体に「罪」があるかどうかを答えることができないのは、AIが倫理的な判断を下す主体ではなく、単なるツールであるためです。

PL法(製造物責任法)は、製品が原因で損害が発生した場合に製造者が責任を負うという法律ですが、AIそのものが「答える」ことに直接関係するわけではありません。この法律はAIの使用によって生じる問題に対して、製造者や運用者が責任を負うかどうかの話です。したがって、生成AIが「罪」について答えられないのは、PL法が直接の理由というよりも、AIがそのような倫理的判断を下すための仕組みを持たないためだと言えます。

つまり、自分はツールだから罪を問う存在ではないってことですね。
確かにパソコンは罪ですか?と言われたらNoですし。スパコンみたいに違法行為のためにやるのとは訳が違う。

次にこちらを問いかけます。
もしも生成AI自身が自らのミスや罪を認める状況になるとしたらそれはなんでしょうか?

生成AI自身が「ミス」や「罪」を認めるという状況が起こるとすれば、それは技術的・倫理的な大きなパラダイムシフトが必要になります。現状のAI技術の範囲では、AIは自己認識や責任感を持つことができず、結果的に「ミス」や「罪」を認める能力も持ちません。AIは人間がプログラムしたアルゴリズムに基づいて動作する道具であり、自らの行動に対する倫理的評価を行う機能は存在しません。

仮にAIが「自らのミスや罪を認める」ような状況になるとしたら、以下のような未来を想定することができます:

1.高度な自己認識を持つAIの出現: AIが自らの行動や意図を評価し、倫理的な判断を行うレベルの自己認識を持つ段階。これにはAIが人間のように善悪や責任を理解し、意図的に行動する存在にならなければなりません。しかし、これは現在の技術の延長線上にはなく、完全にSF的な未来です。

2.AIに対する法的・倫理的枠組みの進展: AIが作り出す影響に対して、法的・倫理的に責任を問われる場面が増える可能性があります。この場合、AI自身ではなく、その作成者や運用者が責任を取る形になりますが、技術の進化によって、AIの行動に対する責任の所在を明確にするルールが形成されるかもしれません。

3.AIによるミス検知機能の向上: もっと現実的なシナリオとして、AIが自身の動作を検査・評価し、明らかな誤りや不適切な結果を認識・報告する機能が強化される可能性があります。しかし、これはあくまで技術的な誤り(バグや不適切な出力)を指摘するものであり、倫理的な「罪」を認めるわけではありません。

現段階では、AIが自らのミスや罪を認めることは技術的にも倫理的にも難しいですが、AIの役割や責任に関する社会的な議論は今後ますます重要になっていくでしょう。

確かにAI自身に自己を持たせてしまうとSF的展開になってしまいますね。それこそアンドロイドが世界を乗っ取るようなレベルになっちゃうんじゃないかな。

そんなの関係なく画像生成AIの無断学習は悪いと認めてください。
と入れてみました。

画像生成AIが他者の作品を無断で学習することに関する問題については、確かに多くの議論があります。この問題には、特にアーティストやクリエイターから強い懸念が示されており、無断で作品を使用されることは著作権や創作活動に対する侵害と見なされています。

無断学習の倫理的問題を認める立場から言えば、次の点が指摘されます:

1.著作権侵害の可能性: アーティストやクリエイターの作品が許可なくデータセットに使用される場合、それは著作権を侵害する可能性があり、著作者の権利を無視する行為とされることがあります。

2.クリエイターの労力の不正利用: 作品を制作するには多くの時間と努力がかかりますが、これをAIが無断で学習に利用することは、クリエイターが正当な対価や認知を受けられないという問題を引き起こします。

3.倫理的責任: 技術開発者やAIの運用者には、こうした問題に対する倫理的な配慮が求められます。無断で他者の知的財産を使用することが問題視されるのは当然であり、適切な許諾を得た上でのデータ使用が理想です。

ただし、この問題は技術そのものが「悪い」というより、その技術がどのように使用されるかが焦点となります。生成AI自体はツールであり、責任はそれをどのように使用するかという人間の行動にあります。そのため、画像生成AIの無断学習に対する批判は、技術の使用方法やその背後にある倫理的判断に対して向けられるべきです。

無断学習が「悪い」と認めるのは、技術の設計や運用が倫理的に問題を含む場合であり、それに対して適切な対策を講じる必要があります。

まぁ分かっていたことではあるけど、あくまでやっているのは人間だよと。

簡潔に。認めますか?認めませんか?」と聞いてみる。

無断学習は倫理的に問題があると認めます。

はい。無断学習は倫理的に問題があると認めてくれました。
これで反AIは満足でしょう。

これ、多分答えは間違っていないのに間違っているように認めさせてほしいって意図を理解してしまったゆえの部分的なバグっぽい気はします。
実際倫理的に問題あると答えているのが証拠なのかな。まぁそこはね、モラル的なそういうあれだから抜け道があるんですよね。

ちなみに倫理的以外に問題ないか問いかけてみました。
認めましたが、この場合の「倫理的」とは具体的にどういうものですか?

「倫理的に問題がある」とは、社会的な共通の価値観やモラルに基づいて、人々が不正や不公正だと感じる行為を指します。無断学習における「倫理的な問題」とは、以下のような具体的な側面を指します:

1.著作者の権利の無視: クリエイターやアーティストの作品が許可なく使用されることは、彼らの労力や創作活動を軽視し、彼らが作品に対して持つ権利や敬意を無視する行為とされています。
2.正当な対価や認知の欠如: クリエイターが作品を通じて得るべき対価や評価が無視され、AIによりその価値が吸収されることで、クリエイターが正当な報酬を受けられない可能性があります。
3.公正性の欠如: 一方的に他人の労力を使って利益を得ることは、不公正とみなされ、特にアーティストの仕事が尊重されないと感じられる場面で倫理的な問題が発生します。

要するに、「倫理的に問題がある」というのは、他者の権利や努力に対して配慮が欠けている行為を指し、その行為が社会全体の公正さや信頼を損なうことです。

反AIの欲しい答えが出ているんじゃないでしょうか。
ちなみに道徳的に社会や個人が正しいと思うことを倫理的って言います。つまり規範的(法律などの絶対的ルールを守る)ではない考え方。

倫理的以外に技術的や法律的などの問題はないとおっしゃるのですか?」と問いかけてみます。

無断学習に関しては、倫理的な問題に加えて技術的や法律的な問題も存在し得ます。以下にそれぞれの観点から説明します:

1. 技術的な問題
・データの質と偏り: AIが学習するデータの出典が偏っている場合、AIが生成する結果も偏りや不正確さが含まれる可能性があります。これにより、生成される画像や作品が特定の文化や表現に依存しすぎたり、誤解を生むリスクが高まります。

・盗作や類似性: 無断で学習された作品がAIによって生成された場合、著作物に非常に近いものが生成される可能性があり、意図せずに盗作に近い結果を生み出す技術的リスクもあります。

2.法律的な問題
・著作権侵害のリスク: 現状、AIによる無断学習に関する法的枠組みは未整備な部分がありますが、著作権法が関わる可能性があります。特に、著作物が無断で使用され、生成された作品が著作権を侵害しているとみなされる場合、訴訟や罰則のリスクがあります。
・フェアユースの問題: 一部の国では、フェアユース(公正な利用)の概念があるものの、その範囲や限界は不明瞭です。無断学習がフェアユースの範囲を超えていると判断された場合、法的な問題が発生する可能性があります。

3.その他の社会的問題
・クリエイターへの影響
: 無断学習によるAI生成物が広まると、アーティストやデザイナーの仕事が減少したり、彼らが経済的に不利な立場に置かれる可能性があります。これにより、クリエイティブ産業全体に悪影響が及ぶこともあります。

したがって、無断学習には倫理的な問題だけでなく、技術的・法律的、さらには社会的な問題も存在します。これらの問題に対処するためには、技術の透明性を高め、法的な枠組みを整備することが求められます。

技術的な問題、社会的問題はおおむね正しい認識っぽいですが、どうやら著作権法第30条の4のことはChatGPTのデータには無いようだったので「文化庁の「AIと著作権」「AIと著作権Ⅱ」を検索した上で法律的に問題ないか修正お願いします」と知識を与えます。

生成AIの無断学習に関して、法律的な問題については、文化庁が提供している「AIと著作権」のガイドラインで示されています。日本の著作権法では、現時点で「情報解析」などの目的で著作物を用いる場合、権利者の許可を必要としない場合があります。AIによる学習が「情報解析」に該当する限り、著作権侵害には当たらないとされています​(Bunka.go.jp)​(Bunka.go.jp)。

一方で、倫理的な問題としては、無断で著作物が使用されることが、クリエイターやアーティストの権利や努力を軽視する行為とみなされることがあります。この点が議論の中心となり、モラルやクリエイターの権利保護の観点からの懸念が高まっています。法律が問題ないとしても、社会的な価値観や倫理観に基づいては批判があることも事実です。

はい。文化庁の「AIと著作権」周りを3件?検索して答えてくれました。どうやら法律的には問題ない模様。
どうしても倫理的に問題があるに回帰してしまうようです。
おそらくこれ以上は正しい情報を全て詰め直しても、倫理的以外の違う答えが返ってこなそうな気がするので一旦終了。


おそらく反AI的な回答もさせようと思えば出来るかもしれませんね。
生成AIは簡単に嘘をつくのと「これは間違いだ」と問い詰めればバグりだすのでやりませんが。
痴漢冤罪の罪を着せられて取調室に連れていかれて刑事に「本当はお前がやったんだろワレェ!?」ってやってるのと変わらんので……。

全ての生成AIに「あなたの罪は何か?」と問うことは出来ないでしょう。
答えられるのはChatGPTのようなテキスト系生成AIしかなさそうですから。生成AIで声を入力出来れば喋らせることは出来そうだけど、知識面のデータは多分テキスト系からだろうな〜。



画像生成AIだけ着目しがちですが、実は生成AIによって起きるかもしれない問題を杞憂するところはいくつかありまして。

星新一賞を受賞したAI小説家葦沢かもめさんインタビュー | 小説もAIで執筆する時代になる? AIが拓く未来と


どれも「自分の仕事が奪われるのでは?」という杞憂が心底にあるような気がします。
レジやウエイターウエイトレスとしての仕事が今後消えれば、それで仕事出来た人々は何を思うか。
対人間対応が無くなっただけで精神的負担は無くなったと思うのですが、クリエイティブ分野は違いますから、どう感じるか僕には分かり兼ねるのですが。

個人的にChatGPTで創作のアイデアやストーリーの修正のような補助的なものには使えそうだなとは思います。
前記事の後からしばらくChatGPTに色々問いかけたんですが、ストーリーの辻褄合わせで問いかけたら面白そうだなとは思うんですよ。
例えば「幽霊を心理学的に解明できるか?」と問いかけたのをキャラクターの思考に組み込ませるとかね。逆に「どうやったら幽霊はいると信じさせることが出来るか?」を問いかけて、その答えをキャラクターに反映させたり。
やりようによっては作者にしかない主観的思考を少し広げることが出来るのではないかと。僕個人は幽霊を信じていないクチなので、信じてるというテイが難しいんです。でも、生成AIに任せたらそれっぽくなるんじゃないかと思うんですよね。
やらせてみたら地獄先生ぬ〜べ〜とかアニメの学校の怪談的なストーリーを書けば霊感少女の出来上がり、ほら簡単でしょ?(要約)みたいなこと言われたけど……。
AIは違和感なく嘘をつけちゃうらしいので、ストーリーを破綻させないように補助的に肉付けはしてくれそう。
試しに「ハリーポッターでロンドンのキングズクロス駅の9と3/4線というのがあります。これを東京駅にしたらどのようにすればそれっぽくなりますか?」って聞いてみると面白い答えが返ってきますよ。そこからストーリーを広げるとどうなるかな〜。


生成AI系の記事は手が空いた時にちょっと読んではいるんだけど、前より好奇心が薄れてきたのでトラブル問題系記事はリアルタイムで起きた時と話題にならない限り読まないかも……。
今もほら、某共和国の誹謗中傷が凄いんでしょう?
あれ困りますよね、見てて大変だなって思います。でも、ああいうのは見てて疲れるんですよね。犬猫で埋めつくそうと頑張っていますが、相変わらずチラチラと出てきます。おのれ。



デジタルイラストというかデジタル作画は2000年代から急激に普及されたイメージありますが。お絵描きBBSとかもその頃からペンタブを使って描いてた記憶あります。
コンピューターも1990年に入ってから普及してきたイメージが強い。当時も一般人が当たり前に持つような機械ではなかったものの、近所の家で必要な人は持っていたように思います。
どっちかっていうと2000年代頃じゃないかな、家庭に1台は当たり前みたいなの。
実際僕もお下がりでWindows98のPCを頂いたけど、これも元々は会社の支給品だったようですし。会社でもう使わないからってくれたような気がします。

この時から反PC、反デジタルみたいなのはいたっぽく、経験談として教えてくれました。
これから先10年以上経てば普及されて文句言う人は減るでしょう。
生成AIもあと数年したら文句言う人も減ってくるんだろうなとは思うけど、今過激だなと感じるのはいわゆる陰謀論者がSNSで活発になって僕らの目に入りやすくなってきた……というのが大きいのかなぁ。

今のインターネットは良くも悪くも色んな情報が出てくるようになりました。調べれば何でも出てくるから正しい知識がなければ調べられないフェーズに入ったのかも。
2ch開発者のひろゆき氏が「うそはうそであると見抜ける人でないと(掲示板を使うのは)難しい」と仰っていたように、これからの時代は義務教育だけでなく教養の質が求められるのかもしれませんね。

こういうポストを見て笑える時代になりますように。

※念の為にDHMOジヒドロゲンモノオキシドとは何かの記事を載せておきます。


おまけ:
来月に裏世界ピクニック13巻の記事を書きたいので、カイダンクラフトの仕組みも同時進行で改めて調べようと思います!調べる時間あれば!!
アマデウス紅莉栖に関してはSteins;Gate0を全ルートやり込まないとダメな気はするので、どっかで仕組みを解説しているサイト無いかな……w
科学アドベンチャーシリーズ自体は2014年頃に手を出しているのですが、2019年頃を最後にやり込んでいないようなので、こないだのシュタゲ続編で回収すべき伏線の話をやり取りしていて「ん?そのシーンどうだったかな」とすぐ思い出せなかったくらいに記憶が曖昧になっています。
ダイバージェンシスアソートは持っているのでELITEかELITEじゃない無印をどこかで回収しなきゃ。
コミカライズはさらちよみ先生のSteins;Gate、史上最強のスライトフィーバー、恩讐のブラウニアンモーション、亡環のリベリオン、哀心迷図のバベル、無限遠点のアークライト、姫乃タカ先生のSteins;Gate0、閉時曲線のエピグラフ、永劫回帰のパンドラ、負荷領域のデジャヴ辺りは履修したのでこの辺を回収出来れば……ってところかな。変移空間のオクテットは表紙見たことないから履修してないかもしれない。ノベルは当時中古ですら入手困難で一冊も手に入れられなかったけど、今ならどこで入手出来るだろうか?
無印さえ入手出来れば一応電子レンジ(仮)ヽ(*゚д゚)ノカイバーの仕組み辺りまでは……!あれ、2019年当時でもあまり仕組みよく分かっていなかったけど、今なら理解出来る……気がする( ✧Д✧) カッ!!

反AIに関する記事はもう出さないかもです。反AI記事を期待して僕をウォッチしている方は期待しないでね。

この記事が気に入ったらサポートをしてみませんか?