見出し画像

AI and The Future Of Humanity 「AIと人類の未来」by Yuval Noah Harari 読み下し訳-9

  ユヴァル・ノア・ハラリ氏のフロンティアフォーラムライブ2023での「AIと人類の未来」と題されたトークのフルテキストです。翻訳ではありません。読み下し訳です。英文速読の勉強に役立ててください。トークの映像はリスニングの勉強になります。
 映像は→https://www.youtube.com/watch?v=LWiM-LuRe6w&t=242sp


 Positive Potential of AI

The job of historians and philosophers like myself is often to point out the dangers. But certainly, AI can help us in countless ways, from finding new cures to cancer to discovering solutions to the ecological crisis that we are facing.
 In order to make sure that the new AI tools are used for good and not for ill, we first need to appreciate their true capabilities, and we need to regulate them very, very carefully.
 私のような歴史家や哲学者の仕事はしばしば危険を示すことです。しかし、確かにAIは我々を助けることができる、さまざまな方法で、癌の新しい治療法を発見することから、生態学的危機の解決策の発見まで、我々が直面している。
 新しいAIを活用するために、悪のためではなく善のために、我々はまず、彼らの本当の能力を理解する必要がある、そしてとても注意深くそれらを制御する必要がある。
 Since 1945, we knew that nuclear technology could physically destroy human civilization, as well as benefiting us by producing cheap and plentiful energy. We therefore reshaped the entire international order to protect ourselves and to make sure that nuclear technology is used primarily for good.
 1945年以来、我々は知った、核技術は人類の文明を破壊する可能性があるということを、同様に安価で豊富なエネルギーを生産することによって、我々に利益をもたらすということを。それによって我々は世界を再構築して我々を守り、核技術が主に良い目的に使用されることを確実にした。

We now have to grapple with a new weapon of mass destruction that can annihilate our mental and social world. One big difference between nukes and AI is that nukes cannot produce more powerful nukes. AI can produce more powerful AI, so we need to act quickly before AI gets out of our control
 Drug companies cannot sell people new medicines without first subjecting these products to rigorous safety checks. Biotech labs cannot just release a new virus into the public sphere in order to impress their shareholders with their technological wizardry.
 我々は今新しい大量破壊兵器に直面している、それは我々の精神世界、社会的世界を破壊するかもしれない。核兵器とAIの大きな違いは核兵器はより強力な核兵器を作り出すことはできないが、AIはより強力なAIを作ることができるということだ。だから我々は迅速に行動する必要がある、AIが制御不能になる前に。
 製薬会社は人々に新しい薬を販売できない、これらの製品の厳格な安全性試験を受ける事なしに。バイオテック研究所は単に放つことはできない、新しいウィルスを一般大衆に、彼らの株主に感動を与えるために、技術の妙技を持って。
 

Similarly, governments must immediately ban the release into the public domain of any more revolutionary AI tools before they are made safe. Again, I’m not talking about stopping all research in AI. The first step is to stop the release into the public sphere. You can research viruses without releasing them to the public. You can research AI, but don’t release them too quickly into the public domain.
 同様に政府は直ちに禁止しなければならない、革命的なAIツールの公開を、それらが安全になされる前に。繰り返しますが、私はすべてのAI研究を止めると言っているのではない。最初のステップは一般に公開することを止めることです。あなたはウィルスを研究することができる、一般に公開する事なく。あなたはAIを研究することができる、しかしすぐに一般に公開はしないで。

いいなと思ったら応援しよう!