AIチャットの中でランダムなニュースを取得する
# main.py
import os
from datetime import datetime
import openai
from chat import chat
os.environ["OPENAI_API_KEY"] = "******************************************"
os.environ["TAVILY_API_KEY"] = "***********************************"
system_content = f"""あなたは優秀なAIアシスタントです。質問に答えてください。
function, 'get_news' で最新のランダムなニュースを取得できます。最後に引用元の出版社を必ず明記してください。
現在時刻は{datetime.now()}です。"""
tools = [
{"type": "function",
"function": {
"name": "get_news",
"description": "Get the latest one news and answer the question.",
"parameters": {
"type": "object",
"properties": {
"news_text": {
"type": "string",
"description": "one news text",
},
},
"required": ["news_text"]
}
}
},
{"type": "function",
"function": {
"name": "web_search_and_answer",
"description": "Answer the given question by referring to the results of web search.",
"parameters": {
"type": "object",
"properties": {
"question": {
"type": "string",
"description": "question",
},
"results": {
"type": "string",
"description": "results of search",
},
},
"required": ["results"]
}
}
},
]
client = openai.OpenAI()
messages = []
print("あなたの友達に挨拶しましょう(chatbot 4o-mini)")
while True:
u = input("You: ")
if u == "":
break
messages.append({"role": "user", "content": u})
a = chat(messages, tools, client)
print(" chatbot: " + a)
messages.append({"role": "assistant", "content": a})
# chat.py
import json
import feedparser
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnablePassthrough
from langchain_openai import ChatOpenAI
from langchain_community.tools.tavily_search import TavilySearchResults
import random
def web_search_and_answer(question):
"""Answer the given question by referring to the results of web search."""
model = ChatOpenAI(model_name="gpt-4o-mini", temperature=0.7,max_tokens=160)
search = TavilySearchResults(max_results=1)
template = """contextに従って回答してください:
{context}
指示:最後に必ず引用元を明記してください。
質問: {question}
"""
prompt = ChatPromptTemplate.from_template(template)
chain = (
{"context": search, "question": RunnablePassthrough()}
| prompt
| model
| StrOutputParser()
)
results = chain.invoke(question)
return json.dumps({"results": results})
def get_news():
"""Get the latest one news from Google News."""
# GoogleニュースのRSSフィードURL
feed_url = "https://news.google.com/rss/topics/CAAqKAgKIiJDQkFTRXdvSkwyMHZNR1ptZHpWbUVnSnFZUm9DU2xBb0FBUAE?hl=ja&gl=JP&ceid=JP:ja"
# フィードを解析する
feed = feedparser.parse(feed_url)
news_list = []
# 各ニュース項目をループしてタイトルを抽出する
for entry in feed.entries:
news_list.append(entry.title)
# ニュースリストからランダムに1つを選択
selected_news = random.sample(news_list, 1)
# 選択されたニュースのタイトルを出力
news = web_search_and_answer(selected_news[0])
news = json.loads(news)["results"]
news += "\n\n指示:上記のニュースの要約とコメントを出力し、最後に引用元を明記してください。"
return json.dumps({"news_text": news})
def chat(messages, tools, client):
resp = client.chat.completions.create(
model="gpt-4o-mini",
messages=messages,
tools=tools,
tool_choice="auto",
)
resp_mess = resp.choices[0].message
tool_calls = resp_mess.tool_calls
# Step 2: check if the model wanted to call a function
if tool_calls:
# Step 3: call the function
# Note: the JSON response may not always be valid; be sure to handle errors
available_functions = {
"get_news": get_news,
} # only one function in this example, but you can have multiple
messages.append(resp_mess) # extend conversation with assistant's reply
# Step 4: send the info for each function call and function response to the model
for tool_call in tool_calls:
function_name = tool_call.function.name
if function_name == "get_news":
function_to_call = available_functions[function_name]
function_args = json.loads(tool_call.function.arguments)
function_response = function_to_call(
)
messages.append(
{
"tool_call_id": tool_call.id,
"role": "tool",
"name": function_name,
"content": function_response,
}
) # extend conversation with function response
elif function_name == "web_search_and_answer":
function_to_call = available_functions[function_name]
function_args = json.loads(tool_call.function.arguments)
function_response = function_to_call(
question=function_args.get("question"),
)
messages.append(
{
"tool_call_id": tool_call.id,
"role": "tool",
"name": function_name,
"content": function_response,
}
) # extend conversation with function response
second_resp = client.chat.completions.create(
model="gpt-4o-mini",
messages=messages,
) # get a new response from the model where it can see the function response
a = second_resp.choices[0].message.content
return a
a = resp.choices[0].message.content
return a
チャットスクリプトで会話の中からランダムなニュースを取得してもらい、それをオウム返しで返答してもらいます。最初にRSSでgoogleの科学などのトピックを取得。その後、あらためて検索してもらいます。詳しくはコードを見てください。
追記(2024/07/22):llmに自分の言葉でコメントをすることをプロンプトで設定しました。また、まだうまく行ってませんが、引用元を明記することもこれから実装、テストしていきたいです。(スクレイピング違反対策)