潘秀曦(Pan Xiuxi)

生成AI研究者@web3, http://linkedin.com/in/xiuxi-…

潘秀曦(Pan Xiuxi)

最近の記事

AIカップル:確かにスタートアップのチャンス

GPT-4oとの競争に応える形で、Googleは8月にGemini Liveを発表しました。これは、AIアシスタントにまるで人間のような会話能力を持たせることを目指しています。その会話の質は非常に高く、人々に映画『Her』のような感覚を抱かせるほどです。こうした評価は実際にはGoogleチームを緊張させています。Androidの責任者は、彼らがGemini Liveを単なる仕事のアシスタントとして捉えてほしいと述べています——「私たちは人々にもっと多くの仕事を完了する手段を提

    • AI絵画研究から応用への5か月の感想

      素人の退屈な趣味 AI絵画を大げさに宣伝して素人に教材を売ろうとする人々を見ています。ほとんどの非専門家にとって、AI絵画はお金を稼ぐ手段にはならず、単なる趣味であり、数年後に振り返ると、非常に退屈な趣味だと感じるでしょう。 20世紀末にコンピュータが登場したとき、みんなは好奇心と興奮を感じていました。文字に影をつけたり、反転させたり、テキストエフェクトを乱用したり。一般人だけでなくデザイナーも興奮していました。しかし、今ではそのようなエフェクトはほとんど使われることはなく

      • YC W24からの洞察:AIスタートアップのトレンド

          2024年4月4日に始まったこのデモデイでは、2万7000件の申請から選ばれた260のプロジェクトが披露され、合格率は1%未満で、歴史上最も低い合格率の一つとなりました。その中で60%以上がAI関連のプロジェクトです。以下、YC W24から見えるAIスタートアップの新しいトレンドについて述べます。 AIオペレーション:革新性は低いが、最も人気のある分野   例えば、LLMのデプロイには、訓練データの設計、定期的なメンテナンス、テストが含まれます。この分野はまだ業界標準が

        • GPT-4を用いたインテリジェントエージェントでGPT-5の効果を先取りしよう

          最近、スタンフォード大学の教授であるAndrew Ngが演説(https://www.deeplearning.ai/the-batch/issue-241/)で述べたように、GPT-3.5を基に構築されたインテリジェントエージェントのワークフローが、実際のアプリケーションにおいてGPT-4よりも優れていることがわかりました。もちろん、GPT-4を基に構築されたインテリジェントエージェントのワークフローの方がさらに優れています。これにより、AIのインテリジェントエージェントワ

        AIカップル:確かにスタートアップのチャンス

          AI時代の起業機会:無限の可能性

          三つの時点 モバイルインターネットの発展には3つの重要な時点があります。 2007年、iPhone1の発売は、モバイルインターネットの「夜明け」を象徴しています。この時期、先駆的な起業家と想像力豊かな開発者が新しい産業チェーンの探求を始めました。 2010年、iPhone4の発売とともに、スマートフォンは成熟期に入り、以降は性能の量的変化のみで質的な変化はありません。モバイルインターネットの機会はより広く認識され始めました。同年または翌年初めに、アメリカのInstagram、

          AI時代の起業機会:無限の可能性

          未来、AI-centric社会の可能性──Human-centricを超えた未来への一歩

          AI社会の発展は、人本主義(Human-centric)とAIを中心に据えるアプローチ(AI-centric)の2つの主要な方向性を示しています。私自身はAI-centricの方向をサポートする傾向があります。 人本主義のアプローチでは、AIは人間の既存の施設を適応し、最大限に活用するように設計されています。典型的な例として、人間の姿勢を模倣するために設計された人型ロボットが挙げられます。これにより、人間中心の社会に直接統合されることが意図されています。例えば、人型ロボット

          未来、AI-centric社会の可能性──Human-centricを超えた未来への一歩

          大型モデルは単なるデータの圧縮に過ぎないのか?

          AIコミュニティ内では長い間、ニューラルネットワークの学習プロセスは単にデータセットの圧縮である可能性があるという見方があります。OpenAIも成功の核心は「圧縮」にあると公言しています。 最近、NeurIPS 2023の論文を読んでいて、興味深い論文が2つ見つかりました。そのうちの1つ「White-Box Transformers via Sparse Rate Reduction: Compression Is All There Is?」では、最新の研究結果が示されまし

          大型モデルは単なるデータの圧縮に過ぎないのか?