見出し画像

今日気になったAI系のニュース【大体23/4/20】

※ほとんどGPTで要約してから手直しをしてまとめてます。
※今日あったことをすばやく確認できることを目的としています。正確でない情報が含まれる可能性があります。すべて引用元のリンクを貼っていますので、より正確な情報はそちらをご覧ください。


業界動向・ビジネス応用から

AIシステムで構造設計目標を満たす新規タンパク質を生成可能

AI system can generate novel proteins that meet structural design targets | MIT News | Massachusetts Institute of Technology

  • MITの研究者たちは、人工知能を使って、自然界で見られるものを超える新しいタンパク質を設計してる

  • 彼らは、特定の構造的特徴を持つタンパク質を生成できる機械学習アルゴリズムを開発した。

  • この技術は、石油やセラミック製品の代替として使用できる生物由来の材料を作るために活用される可能性がある。


鳥取県の職員はChatGPT使っちゃだめ

鳥取、チャットGPT使用禁止 政策策定と予算編成、答弁資料も | 共同通信 (nordot.app)

  • 鳥取県の平井伸治知事は20日の記者会見で、県職員が政策策定と予算編成、議会答弁資料作成の業務にChatGPTを使用することを禁止すると発表


コロンビア大学のVishal Misra教授が、AIの限界についてお話してくれた

What’s AGI, and Why Are AI Experts Skeptical? | WIRED

  • コロンビア大学のVishal Misra教授(Vishal Misra (columbia.edu))は、GPT-4に関して簡単なタスクで失敗することを指摘

  • チャットボットはトークンごとに回答を生成するが、人間はよりまとまったアイデアを表現

  • 人間知能と機械知能の違いを理解することが、AIの過度な期待に対処するために重要

  • Microsoft ResearchとOpenAIは、GPT-4が一般的な人工知能(AGI)の初期の例だと主張

  • AGIに関する定義は依然として曖昧で、専門家の意見も分かれる

  • AIは経済格差や人種差別的ステレオタイプを悪化させる可能性があるが、意識があるとは考えられない

  • ロボット技術の限界は、利用可能なデータが不足していること


中国の研究者がAIを使って、触媒クラッキングっていう原油をいじくる大事なプロセスの安全性と効率向上をめざしてる

Applying AI to crack the problem of safer, better petroleum processing (techxplore.com)

  • 重質原油をガソリンや他の製品にするための重要なプロセスは、流体触媒クラッキング

  • 1915年に商業利用され、以降改良されてきたが、中国の研究者らによると、AIによってさらに安全かつ効果的になる

  • AIが触媒クラッキングプロセスを改善する方法が、Big Data Mining and Analytics誌に発表された



次は技術トピック

深層学習に変わる"浅い"学習

Efficient shallow learning as an alternative to deep learning | Scientific Reports (nature.com)

  • いま、よく使われてる深層学習のモデルは、人間の脳とは程遠い

  • 深層学習アーキテクチャよりも浅い一般化されたLeNetアーキテクチャが、CIFAR-10データベースでの小さな誤差率を達成できることが示された。

  • 一般化されたLeNetとVGG-16アーキテクチャには、ユニバーサルな振る舞いを示すパワーロー現象がある。

  • 畳み込み層間の保存則により、誤差率を最小限に抑えることができ、効率的な浅い学習が可能になる。


Lipschitz連続なトランスフォーマーは安定する

[2304.09856] LipsFormer: Introducing Lipschitz Continuity to Vision Transformers (arxiv.org)

  • LipsFormerと呼ばれるLipschitz連続トランスフォーマーが、トランスフォーマーベースのモデルの学習安定性を追求しました。

  • Lipschitz連続とは、関数の急激な変化を制限する性質です。例えば、丘や谷が突然現れないような滑らかな地形を想像してください。Lipschitz連続性は、関数の入力が小さく変化するときに、出力もそれに応じて小さく変化することを保証します。つまり、関数が予測可能で扱いやすい性質を持っていることを意味します。

  • 不安定なトランスフォーマーのコンポーネントをLipschitz連続の対応するものに置き換え、安定性を向上させました。

  • 実験結果では、LipsFormerは学習率の調整なしで安定した学習が可能であり、より速い収束と良好な一般化性能を示しました。



いいなと思ったら応援しよう!