AIの信頼性、安全性、透明性、公平性、有用性、コントロール可能性、責任の所在、適応性について考える
AIの信頼性、安全性、透明性、公平性、有用性、コントロール可能性、責任の所在、適応性について考える機会があった。
この研究に関連して。
◼️描画工程を推論する「Paints-Undo」、Google Colabで実際に動作させてみた
タイムラプスかのように見せる手法のおかげで、必要以上にアーティストを刺激しているように思う。
GitHubでのIssueで取り下げ申請されていたり、
アカウントをBanされる人が出てきたり。
⭐︎GitHubでヘイトスピーチをするとアカウントごと消されるらしいです。
この前の都知事選でのリポジトリとか大丈夫だったんだろうか。
とある先生からのご指摘をFacebookにていただいた。
デール・アレンによる言が米国教育省の2023年の資料にあった。
https://www2.ed.gov/documents/ai-report/ai-report.pdf
文書の概要
まずAIの定義を詳述し、次に学習、教育、評価、研究開発について述べる。 これらのトピックごとに重要な見識を整理することで、報告書全体を通して、生徒の教育機会と成果を向上させるための示唆を探ることに焦点を絞っている。
これらのトピックの中では、3つの重要なテーマが検討されている:
1. 機会とリスク。 政策は、リスクを軽減しつつ、最も価値ある教育の進歩に焦点を当てるべきである。
2. 信頼と信用。 生徒を危険から守り、学習経験を保護する義務があるため、信頼と保護は教育において特に重要である。
3. AIモデルの質。 モデルを開発し、適用するプロセスは、あらゆるAlシステムの核心である。 ポリシーは、教育への導入と利用の過程において、Alモデルの品質と、教育と学習の目標との整合性の評価をサポートする必要がある。
教育におけるAlは、信頼のスピードでしか成長しない - デール・アレン
関連として教育におけるAIのpros consなども多くディスカッションされている。
じゃあこのコンテキストにおける「trust(信頼)」って何なの?
という問いを立ててみた。
Claude曰く、
この文脈での "trust" (信頼) は、単純な概念ではなく、複数の要素を含む複雑な概念だと考えられます。AIに対する "trust" について、以下のような側面が含まれると解釈できます:
1. 信頼性 (Reliability):
AIシステムが一貫して正確で信頼できる結果を提供するという信念。
2. 安全性 (Safety):
AIの使用が安全であり、人々に危害を加えないという確信。
3. 透明性 (Transparency):
AIの意思決定プロセスが理解可能で説明可能であること。
4. 公平性 (Fairness):
AIが偏見なく公平に機能し、特定のグループを差別しないという信頼。
5. プライバシー (Privacy):
個人データが適切に保護され、悪用されないという安心感。
6. 倫理性 (Ethical use):
AIが倫理的に適切な方法で使用されるという信頼。
7. 有用性 (Usefulness):
AIが実際に価値を提供し、生活や仕事を改善するという期待。
8. コントロール可能性 (Controllability):
必要な場合に人間がAIシステムを制御できるという確信。
9. 責任の所在 (Accountability):
AIの決定や行動に対して、誰かが責任を持つという理解。
10. 適応性 (Adaptability):
AIが新しい状況や変化に適切に対応できるという信頼。
これらの要素が組み合わさって、総合的な "trust" を形成していると考えられます。教育分野に限らず、AIの導入と発展においては、これらの側面すべてに対する信頼を構築することが重要です。
そのため、"AI can only grow at the speed of trust" という言葉は、AIの技術的な進歩だけでなく、社会がこれらの多面的な信頼を構築するペースに合わせて、AIの導入と利用が進んでいくことを示唆しています。つまり、AIの「成長」とは、単なる技術的な進歩だけでなく、社会への浸透や受容も含む広い意味での成長を指していると解釈できます。
AIの信頼性、安全性、透明性、公平性、有用性、コントロール可能性、責任の所在、適応性。
確かに簡単ではないな、満たされているAIはそう簡単には出てこないだろうし、Microsoftのような無料で利用できるアプローチに加えて「責任あるAI」についての推進を進めるのはよい考えに思う。
特に「公平性」はオープンソースや無償の技術で埋められる可能性があるけど、どこまでも格差が生まれるだろうし。
しかし透明性が高まっても、「人々の適応」はついてきていない感じがする。AI側の柔軟さに対して人間は可塑性がある。都合よく捉えるし、嘘もつく。
それにAI側が全部満たしたとしても、絵描きは相変わらず文句を言いそうな気がする。
なんだかこうしてみると途方もない。
子供でもわかるような話をしなければ、と思って画像生成AIクリエイター仕草(v.1.0)を作った。
https://ja.aicu.ai/sbxl/moral/
すべきでないこと
他者の迷惑になること。
技術的な可否と法律上の可否とマナーやモラル、過去の常識やリスクや感情を混ぜて混乱させること。
(スキルがあるからといって)他者の作品を上から目線で批判すること。
画像生成 AI だから安いとか、自動だとか、無償で何かを作れるとか「楽して儲かる」など世間を誤解させるようなこと。
すべきこと
楽しむこと。作品を作る情熱を持ち続けること。
わからないことは自分で調べて、共有し、コミュニティや Issue で共有すること。
あいさつ、返事、お礼、質問を具体化、質問時は「わからない」だけでなく詳細な情報、進行具合を報告するなど誠意、他者に対するリスペクトや理解する姿勢を持つこと。
「ぬくもりティ」だいじ。オープンソースコミュニティの開発者には敬意をもって接しよう。
GitHubのヘイトスピーチに対する対応は正しいかもしれないが、アカウントBanで議論を封じてしまう流れは公平とは言い難い。オープンソースの開発者は特権者なのだろうか。Issueでのディスカッションをみると、件の研究者側にフェアユースについての考え方や、先にやったもん勝ちという考えに非対称を感じざるをえない。
AICUとしては件の記事を有料化/シェアで無料化することで急速な拡大ではなく、ある程度ブレーキをかけながら意思ある方々に向けて技術の伝達ルートの設計を行なってみた。
読み手・使い手がきちんと中身が読めているのかどうか、主体的に理解しているかどうか、質問の質などを通して感じることができる。対話のためにも整備を続けていく必要があると感じている。
それ以前になぜこの研究がいまこういう形で公開され炎上するのか。インパクトがあるビジュアルであることは間違いない。人は描くのが好きなのだ、という事を明確にしたのがTextToImageという技術であるとすると、描画工程の推論技術は、その「人間として不可侵な領域とみている人々」が多くいる事を認識しなければならない。
それはAIの信頼性、安全性、透明性、公平性、有用性、コントロール可能性、責任の所在、適応性のどの要素なのだろうか。
ラーニングによって獲得する知識技能、苦労して努力して手を動かす事の間にある、「教育と学習と勉強の違い」にも聞こえる。
この記事が気に入ったらサポートをしてみませんか?