OpenAIが安全性から脱却Slack、AIを使ったユーザーメッセージやファイルの解析機能を開発
お勧めの読者
✅ テクノロジー業界のプロフェッショナル
✅ AIに興味がある研究者や開発者
✅ スタートアップ企業の創業者
✅ データプライバシーに関心のある人
✅ 現代の労働文化を探求するビジネスマン
✅ 企業のリーダーシップや管理職
✅ サイバーセキュリティの専門家
✅ 現代の教育システムに関心がある人
✅ 政府や政策立案者
✅ イノベーションや創造性を重視するクリエイティブな人々
要約
AIスタートアップの最新動向とハッスル文化の復活、OpenAIのリスク管理チーム解散、Slackのデータプライバシー問題、そしてAIの予測不可能性についてのスティーブン・ウルフラムの洞察など、現代のAIと労働文化に関する重要な話題を網羅した内容です。この記事は、テクノロジーやAIの未来に興味を持つ方々に必見です。
AIスタートアップが活況を呈する中、昼寝ポッドとシリコンバレーのハッスル文化が戻ってきた🤯。
🗣️ A.I.に声を奪われたらどうする?
AIがウクライナ人YouTuberをロシア人に変えた方法
AIを搭載した10の新しいツールとリソース。ツールの全リストはオンライン版をご確認ください。
サインアップ|広告掲載|ChatGPT|オンラインで読む
トップニュース
OpenAI、AIのリスク管理を専門とするチームを解散
OpenAIは、2023年7月に不正行動などのAIリスクに対処するために設立されたSuperalignmentチームを、共同リーダーのIlya Sutskever氏とJan Leike氏の辞任に伴い解散した。サム・アルトマン最高経営責任者(CEO)の更迭とその後の復職に一役買ったサッツケバー氏は、現在のリーダーシップの下で安全なAGIを開発するOpenAIの能力に自信を示しながら、自身の退任を発表した。彼は新しい個人的なプロジェクトをほのめかしたが、詳細は明らかにしなかった。Leike氏は、会社の優先順位に関する長年の意見の相違を挙げ、OpenAIが安全性よりも「光る製品」を優先していると批判した。
Superalignmentチームの解散は、OpenAIがこれまでで最も人間に近いAIであるGPT-4oを発表したのと同じ週に行われた。このチームは、OpenAIのコンピューティングリソースの大部分を使い、4年以内に超知能アライメントの課題に取り組むことを目標としていた。しかし、リーク氏は、チームが研究に十分な計算能力を確保するのに苦労し、会社の製品リリースへの集中によって自分たちの使命が損なわれていると感じていたことを明らかにした。
解散にもかかわらず、元チームメンバーの何人かは社内で配置転換された。Superalignmentチームは、悪用、経済的混乱、偽情報、偏見など、さまざまなリスクに対処することを任務としていた。OpenAIは、今回の解散やAIの安全性に関する取り組みの今後の方向性について、公式にコメントしていない。
Slack、AI搭載機能の一部をユーザーメッセージやファイルで訓練
Slackは、メッセージ、ファイル、アップロードを含むユーザーデータを使って機械学習機能をトレーニングしている。このため、事前に通知されなかったり、最初にオプトアウトする機会が与えられなかったユーザーからは不満が噴出している。Slackはこのデータを使って、チャンネル推薦、検索結果、オートコンプリート、絵文字の提案などの機能を改善している。しかし、同社はこのデータを有料の生成AIツールには使用していないと保証しており、ワークスペースの管理者は電子メールでトレーニングデータセットからのオプトアウトを要求できるようになっている。
DuckBill Groupの幹部であるCorey Quinn氏はソーシャルメディアで不満を表明し、このポリシーに関するSlackからの明確なコミュニケーションの欠如を強調した。この意見は、弁護士のエリザベス・ウォートンを含む他の人々も同じで、オプトアウトする簡単な方法を個々のユーザーに提供しなかったとSlackを批判した。ユーザーは、同社はオプトイン方式を採用し、データプライバシーをよりコントロールできるようにすべきだったと主張した。
Slackの回答は、ユーザーデータは一部の機械学習モデルの訓練には使用されるが、生成AIツールの訓練には使用されないと説明し、同社の姿勢を改めて強調した。同社は、同社のモデルが顧客データを記憶したり再現したりすることはないと主張している。にもかかわらず、SlackのAIページは、「あなたのデータはあなたのデータです。SlackのAIのトレーニングには使用しません」と主張しており、これが混乱を招いている。Slackと同様に、Squarespaceのような他のプラットフォームも、デフォルトでユーザーをAIツールのトレーニングに参加させており、設定によって手動でオプトアウトする必要がある。
AIスタートアップの活況で、昼寝ポッドとシリコンバレーのハッスル文化が復活
AI研究のスタートアップ、エクサ・ラボの共同設立者であるジェフリー・ワンが、手頃な価格のオフィス用仮眠ポッドの注文についてXに投稿したとき、彼は圧倒的な反響を予想しなかった。この投稿は拡散し、ワンは当初2台しか注文しないつもりだったが、100台以上の需要があることが明らかになった。この投稿は、仮眠ポッドの実用性と衛生面に関する会話を呼び起こし、オンライン・コミュニティからは様々な反応が寄せられた。生産性を高めるこのコンセプトを称賛する声もあれば、自宅ではなく職場で眠る必要性を疑問視する声もあり、ワークライフバランスに赤信号がともったとみられている。
エクサ・ラボは最近、ハッカー・ハウスから引っ越したばかりだが、このハッカー・ハウスは、シリコン・バレー、特にサンフランシスコのセレブラル・バレーにおけるハッスル・カルチャーの復活を反映している。ワンは、昼寝ポッドは過労文化を助長するのではなく、従業員の休息欲求をサポートするものだと強調した。彼は、スタートアップの生活が高いコミットメントと激しい努力を要求するものであることを認め、それを過酷な学業経験に例えたが、より挑戦的なレベルであった。Yコンビネーターを卒業し、顧客数を増やしている同社の成功は、このオール・インの精神に依存している。
ハッスル文化の復活にもかかわらず、新興企業は生産性と合理的な労働期待とのバランスを取らなければならない時が来る。企業が成長し、より多くの雇用法が適用されるようになると、持続可能な労働環境の育成が重要になる。ワンは、最近の社内イベントで清潔なシーツが豊富にあったことを引き合いに出し、仮眠ポッドの清潔さは問題にならないと断言した。結局のところ、ハッスル文化が初期の成長を促すかもしれないが、長期的な成功と従業員の幸福のためには、持続可能な慣行が不可欠なのだ。
スティーブン・ウルフラムが語るAIの強力な予測不可能性
計算科学への貢献で知られ、MathematicaとWolframAlphaの開発者でもあるスティーブン・ウルフラムが、Reasonのキャサリン・マングワードとの対談の中で、AIの可能性と課題についての見解を語っている。Wolframは,AIは言語処理のような人間が設計したタスクには優れているが,複雑な科学現象を予測することは計算不可能であるため困難であると強調する.彼は、AIが言語的なユーザーインターフェースを提供することで、人間のタスクを強化し、異なるシステム間の相互作用をより効率的にすることができると考えている。しかしウルフラムは、楽にコンテンツを生成できるAIの能力は、学問的な仕事や創造性という伝統的な概念に挑戦するものだと強調する。
ウルフラムは、教育や政府を含む様々な分野におけるAIの意味について論じている。ウルフラムは、個人の興味に合わせたAI家庭教師や、AIが国民の意見を処理して統治に反映させる「プロンプトクラシー」モデルの可能性を構想している。ウルフラムは、AIが人間のバイアスを増幅させるリスクを認めつつも、その有用性は人間の願望を反映する能力にあると指摘する。彼は、イノベーションと創造性を阻害しないために、AIの提案は盲目的に従うのではなく、批判的に検討されるようなバランスが必要だと提唱している。
AIの将来についてウルフラムは、過剰な規制はAIの潜在的利益を制限しかねないと警告する。彼は、AIの進化と人間社会の類似性を描き、AIの役割の増大に対処するための新たな政治的・倫理的枠組みの必要性を強調している。ウルフラムは、AI開発者間の競争は、独占を防ぎ、多様なアプローチを促す安定化力であると見ている。彼は、AIはユニークな課題を提示する一方で、人間の能力と社会的機能を向上させる前例のない機会も提供すると結論づけている。
#AIニュース #スタートアップ #ハッスル文化 #OpenAI #データプライバシー #機械学習 #AIリスク管理 #AI予測不可能性 #AIトレーニング #シリコンバレー