見出し画像

AIを始めとしたデジタル技術活用に関する倫理- DXの心得 -

技術発展によって様々なことができ、ビジネスや社会に役に立つ一方でDDoS攻撃やセキュリティ感染などによってシステムダウンを誘発し、ビジネスや人の生命に関わる問題も発生するようになっています。
一時期システムエンジニアの間では、エンジニア憲章と称して倫理観を持って仕事をしようということを活動が行われていました。
近年のAIはミスや偏見によって学習された結果よって人種差別などといった誤った認識を受け付けたり、誤った行動をさせてしまうという事象が発生することが想像されます。そのため、なぜAIが問題を引き起こすのかを理解し、人間と機械の協調や倫理基準の策定が必要となってきました。

アカデミックの世界では、調査能力や論理的思考などを習得するために行っていたレポートや課題について、ChatGPTを始めとしたAIなどのデジタル技術の活用によってただ単位をとるという行動に移り、本来あるべき姿の乖離が発生しようとしている。場合によっては情報漏洩を発生させる危険性がでるようになった。
そのため、国内外でAIの活用に関する指針が策定・発表され始めている。

大学での代表的な動きとしては、以下のものがあげられる。
上智大学:ChatGPTなどのAIが生成した文章や計算結果を、教員の許可なくレポートや論文などに使用することを禁止するが、教員の許可がある範囲では利用を可能
東京大学:作業の自動化・効率化につながるツールとして評価がらうものの内容の信憑性や情報漏洩の危険性からレポートや論文の作成は本人が作成することを前提にするようにと促している。
京都大学:自らの文章で表現する重要性を訴えている

NECや富士通とはじめとした国内の大手SIerも同様でAIガバナンスを策定し、誤った使い方によるAIの進歩の阻害が内容に整備を始めている。

OpenAIも誤ったインパクトを与えないようにAIで作成したものかどうか判断できるツールを公開している

今後さらなる進歩で様々な問題の解決が進むと思うが
その際にはぜひとも、以下の倫理やAIに対する考えをきちんと持つとともにとともにChatGPTを始めとする使い方をはマスターし、達の業務に役立つツールとして活用していただきたいと思います。
・取り扱うにあたっての本来の目的に立ち返る
・AIの結果には間違いがあるという前提で結果を検証し、AIの結果を取り扱う(あくまでアシスタントとして情報を集めてくれるツール)
・人、社会に対して悪影響を与えることをしない(当然活用するAIにも敬意を評しましょう)
・オープンになっているイコール情報が世の中に広がることを肝に銘じて情報漏洩が発生しないようにAIに活用するデータには十二分に気をつける。


この記事が気に入ったらサポートをしてみませんか?