見出し画像

Azure AI Languageの抽象的要約機能がPhi-3.5-miniでパワーアップ 🎉

Microsoft AI - Azure AI services Blog が良かったのでまとめてみた。

Exciting Update: Abstractive Summarization in Azure AI Language Now Powered by Phi-3.5-mini! 🎉 | Microsoft Community Hub

🚀この記事のポイント

  • 要約機能がPhi-3.5-miniに移行し、SLMとLLM技術を採用

  • パフォーマンスが9%向上し、常識的推論と要約生成が強化

  • ルシネーションが78%減少し、責任あるAIやスケーリング機能が強化

  • クラウド利用時は特別な操作不要、コンテナ利用時は最新イメージを取得


Azure AI Language サービスの要約機能は、SLMおよびLLMモデルへの移行を開始しており、まずはドキュメントおよびテキストの抽象的要約をPhi-3.5-miniに移行している。

私たちは、Azure AI Languageサービスの要約機能が業界で広く受け入れられているSLMおよびLLMへの完全な移行に向け、まずドキュメントとテキストの抽象的要約をPhi-3.5-miniに移行し始めたことを発表できることに大きな喜びを感じている。

なぜ重要なのか

このアップグレードは、急速に進化する生成AI技術を全面的に採用する上で、大きな前進を示している。これは、モデルの保守やファインチューニング、エンジニアリングといった複雑な作業をサービス側に任せ、顧客がコアビジネスに集中できるようにするという当社の使命と合致している。また、強く型付けされたAPIによってサービスとやり取りできるようにもしている。

私たちは、GPT-4oモデルやOpenAIのo3モデルなどを含む要約タスク向けのベースモデルを継続的にアップデートし、常に最良のパフォーマンスを提供できるよう取り組んでいる。この移行が大きなメリットをもたらすと確信しており、サービスをさらに改善していく中でのフィードバックを心待ちにしている。

これがあなたに与える影響

  • パフォーマンス向上: ファインチューニングされたPhi-3.5-miniモデルによって、本番環境におけるパフォーマンスが9%向上。主なポイントとして、より強化された常識的推論による理解能力や、よりスムーズで信頼性の高い要約生成が挙げられる。

  • リソース最適化: コンパクトながら強力なPhi-3.5-miniを活用することで、品質と可用性を維持しながらリソースをより有効に活用可能になり、コンテナーでも利用しやすくなる

  • エンタープライズおよびコンプライアンス機能の強化: ハルシネーションを大幅に削減し、より強固な責任あるAIを実現し、拡張されたスケーリングをサポートするなどの機能が追加された。特に、新しい本番モデルではハルシネーションが78%削減された。

要約タスク全体への移行とサービスのさらなる強化に向け、引き続き情報をお待ちいただきたい。

この進歩を活用する方法

  • クラウドで使用する場合: 特別な操作をする必要はない。ドキュメントとテキストの抽象的要約リクエストは、ファインチューニングされたPhi-3.5-miniモデルによって処理される。

  • コンテナーで使用する場合: mcr.microsoft.comコンテナレジストリシンジケートから最新バージョンをダウンロードする必要がある。完全修飾コンテナーイメージ名は `mcr.microsoft.com/azure-cognitive-services/textanalytics/summarization`。

当社の製品を引き続き信頼してくれることに感謝し、今後もサービスを継続的に向上させるためにフィードバックを歓迎する。

より詳しい情報やリソースについては、以下のリンクを参照:


いいなと思ったら応援しよう!