【科学技術】 2024-06-05 08:24:10 「なぜ時間は過去→未来にしか進まない?」を“量子もつれ”で説明か 未解決問題「時間の矢」に切り込む
普段感じている時間は、過去から未来へと一方向にしか流れていかない。このような時間が一方向に進む概念を「時間の矢」と呼び、物理学の未解決問題の一つとしている。この時間の矢を説明する新しい考え方を提案したのがこの研究である。 (中略) まとめると、この研究では、時間の矢について新たな視点を提供している。具体的には、宇宙の初期量子状態が非常に低い量子もつれを持っていたという「量子もつれの過去仮説」を提唱。この仮説に基づき、量子デコヒーレンスというプロセスが時間の一方向性を説明する鍵となる。デコヒーレンスは、環境と絡み合うことで生じる不可逆的なプロセスであり、量子もつれの増加がその証拠となる。
ちょっとよくわからない… 不可逆なプロセスがあるからもとにもどれない、から、時間が一方向、というのはちょっと論理の飛躍があるように感じる。 --------------------------------
【開発技術】 2024-06-05 08:50:09 JavaScriptの標準規格「ECMAScript」を見直す。これからの注目機能も紹介
--------------------------------
【開発技術】 2024-06-05 10:46:42 ユニットテストってもう言わない! CI/CD時代のテスト分類に最適なテストサイズという考え方
以前からユニットテスト/単体テストという言葉は使いづらい、と感じており今回も旧Twitterで「テストを実行時間ベースで分類する良い言葉ないかなー」と呟いていたところ、「テストサイズのSMLって考え方があるよ」 と教えて戴きました。
これは最近わたしも悩んだところでした。単体テストやって、といわれたけど、PyTestでテストコード書いて自動化するとしたらどこまでが単体でどこからが結合なの?そのうえGitHub ActionsのようなCI/CDを導入するとよりわけがわからなくなります。 Googleが提唱しているテストサイズのS, M, Lという考え方を紹介してくださっています。
テストサイズでは、実行時間やテストに使用される実行場所に注目します。これによってSmall、Medium、Large、Enormousの分類に分けます。特に、SMLの3つの分類がよく使われる定義です。 --------------------------------
【開発技術】 2024-06-05 11:04:37 中級 Vim 操作
サーバーの中に入って作業するときに、IDE(統合開発環境)がない場合があって、でもプログラムやテキストを編集する必要があることがあります。そういうときにviやvimを結構使っています。この記事は中級編ということで知らない便利テクニックがあって勉強になりました。 --------------------------------
【国内ニュース】 2024-06-05 11:34:07 世界初の技術で企業ニーズに対応した特化型生成AIを自動生成!エンタープライズ生成AIフレームワークを提供
【AIによる要約】 富士通は、企業向け生成AIの活用を促進するエンタープライズ生成AIフレームワークを開発し、2024年7月から提供開始します。 フレームワークはナレッジグラフ拡張RAG、生成AI混合技術、生成AI監査技術で構成されており、企業の大規模データや法令への準拠に対応した特化型生成AIを自動生成します。 ナレッジグラフ拡張RAGは、LLMの参照データ量を1,000万トークン以上に拡大します。 生成AI混合技術は、企業のニーズに応じて最適な生成AIモデルを自動生成し、迅速に提供します。 生成AI監査技術は、生成AIの回答が企業規則や法令に準拠しているかを監査し、信頼性を高めます。 実証実験で契約書チェック工数削減、サポートデスク効率向上、運輸業での計画策定時間短縮などの効果が確認されています。 今後、日本語やコード生成など多種多様な特化型生成AIモデルを追加予定です。 経済産業省のプロジェクト「GENIAC」に採択され、ナレッジグラフ拡張RAGのセキュアなオンプレミス環境での利用を目指します。
2024/6/4のニュースピックアップでも紹介したナレッジグラフ拡張RAGですね。 社内文書や機密文書をLLMに読み込ませて、それを理解させたうえで生成したい、という要望からRAGが注目されているわけですが、どこもセキュリティを心配しているんですよね。なので、AWSやAzure, Google Cloud上にLLMサービスを構築する...ということを考えることになりますが、それもなかなか大変。富士通のこれはそういうのを一括でやってくれるフレームワークということかなと思いました。 ただ、「特化型生成AIを自動生成します」とのことですが、本当にいい感じのものができるのだろうか?実際はかなり用途に合わせてパラメータなどをチューニングしないといけないと思うので、そんなに簡単に使えるのかなあというのが感想です。 --------------------------------
【技術解説】 2024-06-05 12:26:10 ChatGPT vs. Wikipedia──生成AIの登場でウィキペディアはどう変わったか? 英国の研究者らが調査
英キングス・カレッジ・ロンドンに所属する研究者らが発表した論文「Exploring the Impact of ChatGPT on Wikipedia Engagement 」は、2022年11月にChatGPTが一般公開されたことを受け、Wikipediaの利用状況にどのような変化が生じたのかを調査した研究報告である。 (中略) ChatGPTが登場後もほぼ全ての言語でWikipediaの利用者は減ることなく、むしろ増加したということだ。 (中略) 研究者たちは、編集行為がページ閲覧に比べてコミュニティー主導の社会的活動であるため、ChatGPTの影響を受けにくかったと考察している。Wikipediaでは、編集者同士の相互作用やコミュニケーションが重要な役割を果たしており、それがChatGPTのような自動化ツールへの抵抗力になっている可能性がある。
意外な結果ですが、そこまでChatGPT使っている人が多くないということなのでしょうか?まだググっている人も多いのでしょうし、生成AIの結果よりはwikipediaのほうが信用できるから両方見ている人もいそうな気がします。(わたしも確認することがあります)。 また、編集作業は検索とはまた別の力学が働いていそうですね。 --------------------------------
【人間とAIの未来】 2024-06-05 14:05:00 A Right to Warn about Advanced Artificial Intelligence
【AIによる要約】 人工知能(AI)技術は人類に前例のない恩恵をもたらすことが期待されているものの、深刻なリスクも伴っています。AI企業自身や政府、研究者らも、これらのリスクを認識しており、適切な対策が必要だと指摘しています。 しかし、AI企業には効果的な監視を回避するための強い財政的動機があり、企業統治の仕組みだけではこの問題を解決するには不十分です。AI企業は、システムの能力や限界、防護措置の適切性、さまざまな被害のリスクレベルなどの非公開情報を持っていますが、政府や市民社会に自発的に共有する義務はほとんどありません。 OpenAIの現在および元従業員は、これらの企業を公衆に対して説明責任を負わせる数少ない人々です。しかし、広範な守秘義務によって、自社の問題点について公に議論することが制限されています。また、多くのリスクが未だ規制対象外であるため、一般的な内部告発者保護制度では不十分です。さらに、業界全体で起きてきた報復事例を考えると、従業員が懸念を表明することに合理的な恐れを感じるのは当然です。 そこで、AIフロンティア企業に対し、次のような原則を遵守することを求めます。 1. 企業は「批判的言論」の禁止や、リスク関連の批判への報復を行わないこと。 2. 現在および元従業員がリスク関連の懸念を匿名で企業の取締役会、規制当局、専門家組織に伝えられる仕組みを整備すること。 3. 企業は現在および元従業員がリスク関連の懸念を公に表明することを許容すること。ただし、営業秘密や知的財産権は適切に保護されるべきです。 4. 適切なプロセスが整っていない場合、現在および元従業員がリスク関連の機密情報を公表することについて、企業は報復を行わないこと。 これらの原則に従うことで、AI企業はステークホルダーに対する透明性と説明責任を高め、適切なリスク管理体制を構築できるはずです。
少し前に、こんな報道が。
OpenAIが退職した従業員に対して、「OpenAIに対する批判をしない」ことを求める書類への署名を求め、署名を拒否した場合には既得の株式を放棄するように迫っていたことが報じられました。
うーんOpenAIってなかなかのヤクザ企業なのでは...? 「AIはどんどん開発してAGI(汎用人工知能)をつくろう!SFの世界を実現するんだ!」みたいなノリでどんどん進めてしまっていますが、本当はもっと慎重に進めるべきだと思いますし、実際、そうすべきだと考える人達がOpenAIやGoogleをやめてCohereやMistral AIを作っていますね。企業の競争原理が働いて歯止めが効かなくなっていますが、そこをコントロールすることが必要です。今回の、OpenAIやGoogleのDeepMindの社員&元社員の有志による声明をきっかけに潮目が変わるといいのですが... --------------------------------
【国内ニュース】 2024-06-05 17:06:00 リコーと理研「技術の実用化の兆し」判別するアルゴリズムを開発
【AIによる要約】 株式会社リコーと理化学研究所 数理創造プログラムは、新しいアルゴリズムを開発しました。このアルゴリズムは、特許と論文に共通して出現するキーワードを多重解析して、技術の「実用化の兆し」を数値で判定できます。 この技術は特許出願済みです。 リコーは、この技術を活用してデータドリブンなリサーチを行い、研究開発のテーマ探索活動の網羅性やスピードを強化し、新たな研究テーマと価値の高い知的財産の創出に貢献します。
これは特許と論文の数が少ないとうまく判定できないのでは?技術って一本の論文や特許から爆発的に実用化することもあると思うので、この研究がどれくらい意味があるのかちょっとわからなかったです。 研究開発のテーマ選びとしてはたしかに流行りそうなところに選択と集中、というのはありなのかもしれませんが、一発大逆転みたいな基礎研究を頑張ってほしい気持ちがあります。 --------------------------------
【国内ニュース】 2024-06-05 18:10:40 パナソニック×JAXA、月面探査ローバー向け運転支援AI開発へ