OpenAI共同創業者が設立した安全性重視のAI会社Safe Superintelligence Inc. (SSI) について解説
OpenAI共同創業者で、2024年5月にOpneAIを退職したIlya Sutskever(イリヤ・サスケバー)氏, ダニエル・グロス氏, ダニエル・レビー氏らが新会社を設立ました。その経緯と声明文ついて紹介します。
Ilya Sutskever(イリヤ・サスケバー)氏とは?
Ilya Sutskeverは1986年にロシアに生まれたコンピュータサイエンティストです。
XX年にOpenAIを共同創業し、Chief Scientist of OpenAIとしてChatGPTをはじめとしたLLMの開発に携わってきました。
2024年5月、OpenAIのLLMが世界的な脅威になるとして、従業員XX名とOpenAIを退職したことで話題になりました。また、2023年11月のサムアルトマンCEO解任騒動の首謀者の1人ともされています。
Safe Superintelligence Inc.の声明文
▼日本語訳
解釈
安全な超知能(SSI)を定義し、その実現に向けて加速的に開発を進めるための会社のようですね。
目につくのは、「安全性が常に先行するように」という部分と「短期的な商業圧力から保護される」という部分でしょうか。
推し図るに、OpenAIではこれらが実現できないと見込んだために、自ら会社を設立したのでしょう。
「短期的な商業圧力」は、Microsoft社をはじめとしたビックテックの圧力を意味するのでしょう。Web2的脅威から人々を守るという思考は、USはじめ活発なようで、AIの性能向上と同等以上に重要視されるものでしょう。
今後について
元CSOということで、OpenAIの研究成果のほとんどを把握しているであろうイリヤ氏、OpenAIがこれまで大金をかけてきた研究をショートカットできるのは間違い無いでしょう。
疑問
今後の資金源は?
LLM開発に必要であろう兆円超規模の膨大な資本はどのように、どこから用意するのでしょうか。ふと思い浮かぶのはイーロン・マスクでしょうか。たとえイーロン・マスクであっても1人でどうにかなる金額ではありませんが。
「安全性」とは?
イリヤ・サスケバーが重視する「安全なAI」のゴールとはどこなのでしょうか。オープンソース、非営利法人など手段はいくつかありますが、果たして超ビックテックの力無くして超知能に到達できるのか、気になる所です。
画像生成AI領域で有名なStable Diffusionはオープンソース化されていますが投資家からは収益性を上げろと圧力がかかっているようですし、良い事例はありませんね。
以上、補足などありましたらお気軽にコメントで教えてください。
超AI時代に期待です。