
2024年1月~2025年1月 AIツールアップデート時系列レポート
本レポートでは、2024年1月から2025年1月までの期間において、主要なAIツール(ChatGPT、Perplexity、Gemini、Claude、検索AI「Felo」、Genspark、NotebookLM、図解生成AI Napkin、動画生成AI NoLang、マインドマップ生成AI Mapify)のバージョンアップや新機能導入の情報を、企業公式発表、業界ニュース、技術カンファレンス発表などの情報をもとに時系列順にまとめ、各アップデートの概要と影響について解説します。
1. 2024年1月~2月: 早期アップグレードとAIのリブランディング
1.1 ChatGPT – Teamプラン & GPTストア (2024年1月10日)
概要
ChatGPT Teamプラン: 組織向けに共有のChatGPTワークスペースと管理ツールを提供。GPT-4やDALL·E 3などの高度なモデルにアクセス可能で、ユーザーデータは学習に使用されない。
GPTストア: ユーザーが他者によってカスタマイズされた「GPTs」を発見・利用できる仕組みを導入。
影響
Teamプランにより、企業内でのコラボレーションが促進される。
GPTストアにより、専門分野に特化したAIアシスタントが広く共有され、ユーザー同士のエコシステムが形成された。
1.2 ChatGPT – Long-Term Memory (2024年2月)
概要
ChatGPTが複数セッションにまたいで情報を保持できるMemory機能をテスト開始。
ユーザーが「覚えてほしい情報」「忘れてほしい情報」を指定可能。
4月下旬にはPersistent MemoryがPlusユーザー全体に展開。
影響
対話の継続性が向上し、ユーザーごとのパーソナライズが強化された。
1.3 Google GeminiがBardを置き換え (2024年2月)
概要
Bardチャットボットがリブランディングされ、Gemini 1.0として再登場。
有料プラン「AI Premium」を導入し、Gemini Advanced (Ultra 1.0) にアクセス可能。
Gemini Proモデルが従来のPaLM2を上回る性能を実現。
影響
Geminiの導入により、Bardの性能が大幅に強化され、ユーザーはより正確で文脈に富んだ応答を享受。
Googleはマルチモーダル対応など次世代機能を前面に打ち出し、OpenAIとの競争が激化。
1.4 Anthropic Claude 3のローンチ (2024年3月4日)
概要
AnthropicがClaude 3モデルファミリー(Opus、Sonnet、Haiku)を発表。
フラッグシップのClaude 3 Opusは多くのベンチマークでGPT-4やGemini 1.0 Ultraを上回る性能を示す。
マルチモーダル解析機能が追加され、画像やグラフの解析が可能に。
影響
Claude 3の高度な推論能力とマルチモーダル機能により、企業での長文分析や複雑なタスクへの利用が促進。
APIおよびパートナー経由で世界中に展開され、安全性を重視するユーザー層から注目を集めた。
2. 2024年3月~5月: 新たなAIツールの台頭と進化
2.1 NoLang – リアルタイム動画生成 (2024年3月26日)
概要
東京発のスタートアップMavericksが、テキストやウェブコンテンツを即座に短い解説動画に変換するNoLangをリリース。
入力された記事やPDF、URLからナレーション付きの動画を数秒で生成。
「video thread」機能により、追加入力で動画を段階的に拡張可能。
影響
長文のコンテンツを動的な動画に変換することで、教育やコンテンツ制作での利用が拡大。
ユーザーは短時間で視覚的に内容を把握できるため、情報の理解促進に大きく貢献。
2.2 OpenAI – GPT-4 Turbo (GPT-4o) (2024年5月)
概要
OpenAIは、GPT-4の最適化版であるGPT-4oを発表。
GPT-4oはテキスト、音声、画像解析などの多方面で高速かつ高性能な応答を実現。
PlusおよびEnterpriseユーザー向けに提供され、メッセージ制限も大幅に向上。
同時にデータ分析ツールが強化され、クラウドストレージと連携してインタラクティブなグラフ・表を生成可能に。
影響
GPT-4oにより、応答速度と精度が向上し、コーディングや研究、コンテンツ制作などの生産性が大幅に改善。
データ分析機能の拡張は、ChatGPTを業務用の強力な分析ツールへと進化させた。
2.3 Perplexity AI – “Pages”機能 (2024年5月30日)
概要
Perplexityは、ユーザーの複雑な質問に対し、構造化された記事やレポート(Perplexity Pages)を自動生成する機能を追加。
ユーザーは生成された記事の文体や構成をカスタマイズ可能。
影響
検索結果を編集可能なコンテンツとして提示できるため、研究者や学生などが瞬時に下書きを得られる。
従来のQ&Aエンジンから、より実用的な情報生成プラットフォームへと進化。
3. 2024年6月~7月: AIアシスタントの対話機能がさらに進化
3.1 XmindのMapify – マインドマップ生成 (2024年6月)
概要
Xmindが、買収したChatmindを統合し、AI搭載のMapifyをリリース。
PDF、Word、PowerPoint、YouTube文字起こしなど多様なコンテンツから、自動でマインドマップを生成。
影響
膨大な情報を視覚的に整理できるため、学習やビジネスでの理解と記憶の促進に大きく貢献。
手動でマインドマップを作成する手間が大幅に削減され、情報共有が容易に。
3.2 GenSpark – AIエージェント検索のローンチ (2024年6~7月)
概要
GenSparkが、複数のAIエージェントによるリサーチを実現するAI検索エンジンを公開。
従来のリンクリストではなく、SparkPagesという編集可能なページ形式で検索結果を提示。
7月にはAI Parallel SearchとAutopilot Agent、さらに専門のTravel Copilot機能を追加。
影響
マルチエージェント方式により、各専門分野に特化した回答が同時に得られ、深い分析が可能に。
従来の検索エンジンを超えた統合的な情報提供により、利用者の意思決定支援が向上。
3.3 NoLang 2.0 – リッチなAI動画機能 (2024年7月8日)
概要
NoLangがバージョン2.0をリリース。新たにゆっくりナレーション、TikTok/Instagram向けの縦長動画対応、テキストから音声合成するボイスオーバー機能、さらにカスタムアバター統合を実現。
全動画は商用利用可能となる。
影響
動画生成がさらに多彩かつ高品質になり、ソーシャルメディアや教育用コンテンツの制作が劇的に効率化。
ユーザーはスタイルや長さを自在に調整でき、目的に合わせた動画作成が容易に。
3.4 OpenAI – GPT-4 “mini”モデル (2024年7月18日)
概要
OpenAIは、コスト効率と高速応答を重視したGPT-4o miniモデルを発表。
性能はGPT-3.5を上回り、マルチ言語・基本的なマルチモーダル推論にも対応。
影響
小規模なシステムや大量利用が求められるアプリケーション向けに、低遅延で高性能なAIを提供。
開発者や中小企業でも先端AI技術を手軽に活用できるようになった。
4. 2024年8月~9月: マルチモーダル化とグローバル展開
4.1 ChatGPT Vision & DALL·E 3無料開放 (2024年8月)
概要
OpenAIは、ChatGPTの画像生成機能(DALL·E 3)を無料プランにも開放。8月8日から1日2枚まで利用可能。
同時にGPT-4の画像理解機能も一般公開される。
影響
無料ユーザーにも高品質なビジュアル生成機能が提供され、教育やデザイン、プレゼンテーションでの利用が促進。
ChatGPTのマルチモーダル能力が強化され、従来のテキスト中心の対話を超えた応用が可能に。
4.2 Napkin – AI図解生成の正式リリース (2024年8月7日)
概要
スタートアップNapkin.aiが、入力された文章から自動でダイアグラムや図表を生成するツールを正式リリース。
30種類以上のグラフィックをサポートし、Google DocsやPowerPoint、Notionと連携可能。
影響
説明用グラフィック作成の手間が大幅に削減され、ビジネスや教育現場での情報共有が効率化。
バーチャルなグラフィックデザイナーとして、迅速な資料作成が可能に。
4.3 Felo AI – マルチリンガル検索の導入 (2024年9月4日)
概要
日本発のFelo AIが、複数言語横断検索と自動翻訳を実現するマルチリンガル検索エンジンとして登場。
リアルタイムのAIエージェントブラウジング、検索結果のマインドマップ生成、ワンクリックでAI生成スライド出力などの機能を追加。
影響
言語の壁を低減し、グローバルな情報収集が容易に。検索結果をそのまま学習やプレゼンに利用できるため、知識の即時活用が可能に。
ユーザーは多言語の情報を統合して視覚化でき、より効果的な情報整理が実現された。
4.4 Google NotebookLM – 一般公開 (2024年9月18日)
概要
GoogleのAIノートアシスタントNotebookLMが正式に製品化され、Google Workspaceの追加サービスとして提供開始。
100以上の言語に対応し、ユーザーがアップロードしたドキュメントから要約、質問、音声出力(Audio Overviews)などが可能。
影響
個人や企業が文書管理や学習資料の活用を効率化。特に社内ナレッジベースのクエリが容易となり、情報抽出の時間が大幅に短縮された。
GoogleはAIアシスタントを検索だけでなく、生産性ツールとしての展開を強化した。
5. 2024年10月~11月: 特化機能の充実と高度アシスタント化
5.1 Perplexity AI – ファイナンス&ショッピング機能 (2024年10~11月)
概要
2024年10月、Perplexityが金融関連機能を追加。リアルタイム株価、決算概要、簡易財務分析をチャット上で提供開始。
11月18日には、ショッピングハブ機能を導入し、商品カード(価格、購入リンク付き)を提示できるようにした。
影響
ユーザーは投資判断や製品購入の際、AIが整理された情報と具体的な選択肢を提示するため、意思決定が迅速化。
検索エンジンから行動支援まで、AIがユーザーのライフスタイルに深く浸透する一歩となった。
5.2 Anthropic Claude – コーディング&推論能力の強化 (2024年11月)
概要
Claude 3のローンチ後、Anthropicはさらなる改良を実施。内部的にはClaude 3.5/3.7に相当する推論能力の向上を達成。
同時に有料プランClaude Proを開始し、使用量上限や優先アクセスが改善。外部ツール連携によるコード実行機能も実験段階に導入。
影響
Claudeは高負荷のコーディングや複雑なマルチステップ問題に対応可能となり、エンタープライズ用途での競争力が向上。
長文や大規模データを扱う分野で、企業ユーザーからの評価が高まり、安全性と信頼性を重視する選択肢としての地位を確立した。
5.3 ChatGPT – 音声&ビジョン機能のウェブ対応 (2024年11月)
概要
OpenAIはChatGPTのウェブ版に音声対話モードを追加。ブラウザ上でリアルタイム音声会話が可能に。
同時に、画像アップロードと解析によるビジョン機能を正式に一般公開。
影響
ChatGPTはテキストにとどまらず、「見て」「聞いて」「話す」多感覚型のアシスタントへ進化。これにより、学習、支援、アクセシビリティなど多様な用途で利用可能に。
ユーザーは音声や画像を活用し、より直感的でインタラクティブな体験を得られるようになった。
6. 2024年12月~2025年1月: 年末の大きな飛躍
6.1 Google Gemini 2.0 – 次世代マルチモーダルAI (2024年12月11日)
概要
Google DeepMindが、最新のGemini 2.0を発表。従来のモデルを凌駕する高性能マルチモーダルAIとして、画像や音声の生成・理解、さらにはツール連携を自律的に実行できる。
開発者向け実験版「Gemini 2.0 Flash」もリリースされ、2025年初頭の一般展開が予定される。
影響
Gemini 2.0は、エージェント的な行動能力を持つ次世代AIとして、タスクの自律実行や複数モーダルの統合において大きな進展を示す。
Googleのエコシステム内で、検索、ウェブ、アプリ連携など、様々な用途への統合が進むことが期待され、業界全体の競争基準が引き上げられた。
6.2 ChatGPT “Canvas”とProject Tools (2024年12月)
概要
OpenAIはChatGPTにCanvas機能を導入。これにより、コードの作成・実行、長文コンテンツの作成、チャート・HTMLのレンダリングが可能なプロジェクト指向のワークスペースを提供。
同時に、ChatGPT Projects機能が追加され、関連チャットやファイル、カスタム指示を一元管理できるようになった。
影響
ユーザーは単なる対話から、複数セッションにまたがるプロジェクト管理へと利用範囲を拡大。これにより、研究や開発プロジェクトでの継続的な協働が実現。
AIがプロジェクト全体の文脈を保持することで、より深い支援が可能となり、業務効率が大幅に向上。
6.3 Festive AI – ChatGPT Santaと音声チャット (2024年12月12日)
概要
ホリデーシーズンに合わせ、ChatGPTに**“Santa”ボイス**が追加され、遊び心ある音声対話機能が実装された。
同時に、モバイルアプリでリアルタイムの音声チャットと画面共有機能も追加され、より対話が双方向で行えるようになった。
影響
「Santa」機能はエンターテインメント性を高める一方、音声チャット+画面共有機能は実用性が非常に高く、例えばトラブルシューティングや説明支援などで活用される。
これにより、AIが音声と映像を使った総合的なアシスタントとしての役割を強化し、ユーザーの利便性が向上。
6.4 OpenAI – スケジュールされたタスク (2025年1月14日)
概要
OpenAIはChatGPTにScheduled Tasks機能をベータ版として導入。ユーザーは未来の特定日時や定期タスクを設定し、ChatGPTが自動実行するように指示可能となった。
影響
ChatGPTが自律的にタスクを遂行することで、日常業務や定期的なリマインド、情報収集などが自動化され、ユーザーの負担が大幅に軽減された。
これにより、AIが単なる対話ツールではなく、プロアクティブなバーチャルアシスタントとしての進化が示された。
6.5 カスタムの個性と指示 (2025年1月17日)
概要
OpenAIはChatGPTのCustom Instructions機能をさらに拡張し、ユーザーが希望する口調、スタイル、ロール(例:「ソクラテス風の教師」「カジュアルなフレンドリーな会話」)をデフォルトで設定できるようにした。
影響
ユーザーごとにAIアシスタントのパーソナリティを固定できるため、より一貫した対話が可能となり、業務やプライベートの用途に応じた最適な応答が得られるようになった。
長期的な利用において、ユーザー固有のニーズに合わせたAI体験の向上が図られた。
いいなと思ったら応援しよう!
