
Googleアラート×OpenAI APIで情報収集をよりパーソナライズ化するデスクトップアプリ!
2022年から生成AIを活用して、プログラミング知識ゼロでアプリケーションを作成しています。これまで作成したものも含めてNoteに投稿していきます。
プログラミング知識ゼロ、経験ゼロ!『ド素人の、ド素人による、ド素人のため』の実践体験です。
プログラミングの勉強は一切したことはありません。
プログラミング知識ゼロ、経験ゼロでもこんなアプリケーションを自作できたという自己満足の内容になっていますので、悪しからずご容赦ください。
Googleアラートって何?という方は下記の記事を読んでください。
日々の情報収集においてとても便利なGoogleのサービスです。
Googleアラートで情報収集すると直面する課題
みなさん、Googleアラートって使ってますか?
私は必ず始業時にGoogleアラートから届く最新情報を欠かさずチェックしています。これは私が社会人になってから15年以上、仕事の日の始業時はほぼ欠かさずにやってきたルーティンです。
でも問題があって、アラートの数が増えれば増えるほど、届くフィードの量が半端じゃないってことです! フィードには様々な種類の記事が含まれているので、本当は技術動向を知りたいのに、フィードの中にはセミナーや企業のPR等の記事もあったりして、記事開いたあとに「あー、これ知りたい情報じゃないな...」とガッカリしながら閉じる作業がよくあります。
フィードのURLを1つずつポチポチ開いて中身を確認するのにもうウンザリ…
もっと自分に必要な情報だけを自動的に抽出できたらいいのになぁ…
そうだ!自分で作っちゃおう!(プログラミングできないけど)
自分で理想のアプリを作ってみた!
Googleアラート・パーソナライズ化アプリ
"Smart Digest"の神機能を大公開!
GoogleアラートのRSSフィードから記事を取得し、ChatGPTを使って自動的に要約してくれるSmart Digestアプリを開発しました。
アプリの特徴
登録したGoogleアラートのRSSフィードから最新の記事を自動的に取得
OpenAIのAPIを使用して、各記事の要点を3つのポイントにまとめて要約
ユーザーの興味に基づいて、記事をフィルタリング
要約されたコンテンツをテキストファイルにエクスポート
デモンストレーション
主な機能の説明
記事の要約
登録されたRSSフィードから最新の記事を取得し、OpenAIのAPIを使って各記事を要約します。
Title: 記事のタイトル
Point1〜3: 記事の要点を3つのポイントでまとめたもの
Insight: 記事の重要性や背景に関する洞察
Category: 記事のカテゴリ(技術動向、事例紹介、専門知見など)
有益性: 記事の有益性をS〜Dの5段階で評価

RSSフィードの管理
RSSフィードのURLとタイトルを登録することができます。
登録されたフィードは一覧で表示され、必要に応じて追加・削除することもできます。

フィルタリング機能
ユーザーは自分の"興味のあるカテゴリ"と"有益性のレベル”を設定することができます。設定に基づいて、関連性の高い記事だけを表示することができます。ChatGPTが記事の内容から"カテゴリ"と"有益性"を判定し、フィルター条件に合致したものだけが結果に表示されるという仕組みです。

エクスポート機能
要約されたコンテンツは、テキストファイルにエクスポートすることができます。
アプリの効果
このアプリのおかげで、私のGoogleアラートライフは一変しました。
もう不要な情報に振り回されることなく、自分に必要な情報だけをサクッと収集できるようになったんです。時間も節約できるし、ストレスも軽減。
これまで1時間くらいかけていた日々の情報収集が10分くらいで完了できるようになりました。
OpenAI APIを使うため、トークン使用料が発生するようにはなりましたが、自分で1つずつURLをポチポチして内容を確認するよりも早いし、常に一定の基準で記事を選別して要約してくれるので、情報収集という作業の品質も安定したと感じています。
ソースコード
こちらが、実際のソースコードです。
※OpenAI APIを利用しますので、トークン使用料が発生します。(使いすぎ注意)
ここから先は
¥ 100
この記事が気に入ったらチップで応援してみませんか?