myGPTReader 是一个 Slack 机器人,可以阅读任何网页、电子书、视频(YouTube)或文件,并通过 chatGPT 进行总结。它还可以通过语音与你交谈。
现在加入这个拥有超过 5000 多名成员的 slack 频道,免费体验所有这些功能,不仅能使用 chatGPT 的全部功能,还能围观他人的对话,学习如何与 chatGPT 更好的对话。
使用 myGPTReader 快速阅读,通过对话了解任何网页内容,甚至包括视频(目前仅支持 YouTube 有字幕的视频)。
使用 myGPTReader 快速阅读任何文件的内容,支持电子书、PDF、DOCX、TXT 与 Markdown。
通过用你的声音与 myGPTReader 对话来练习外语,它可以是你的私人外教,支持中文、英语、德语与日语。
内置大量 prompt
模板,使用这些模板与 chatGPT 更好的对话。
每天 myGPTReader 会发送最新的热榜新闻并自动生成摘要,方便你快速了解今日热点。
依赖:
基于 openai,llama-index,flask,pyPDF2,docx2txt,youtube-transcript等依赖开发。
llama-index介绍过,将问题字符串转为向量节省token,这样可以发送大量内容,比如pdf文献总结实现
flask搭建简单的api服务
docx2txt,pdf,youtube等实现从word,pdf,youtube等多源加载字问题。
slack应用 创建一个slack应用,https://api.slack.com/apps ,创建一个bot,生成 token,那接下来就可以在web api项目中接收slack消息,并回复。。
bot flask项目 python flask项目,无数据库,可以dockerfile部署。
["gunicorn", "app.server:app"]
flask 定时任务,每日 1:30 触发:
@scheduler.task('cron', id='daily_news_task', hour=1, minute=30)
def schedule_news():
logging.info("=====> Start to send daily news!")
all_news_blocks = build_all_news_block()
send_daily_news(slack_app.client, all_news_blocks)
从以下信息源api获取数据,并调用 openai 进行分析每条链接:
zhihu_news = executor.submit(build_zhihu_hot_news_blocks)
v2ex_news = executor.submit(build_v2ex_hot_news_blocks)
onepoint3acres_news = executor.submit(build_1point3acres_hot_news_blocks)
reddit_news = executor.submit(build_reddit_news_hot_news_blocks)
hackernews_news = executor.submit(build_hackernews_news_hot_news_blocks)
producthunt_news = executor.submit(build_producthunt_news_hot_news_blocks)
xueqiu_news = executor.submit(build_xueqiu_news_hot_news_blocks)
jisilu_news = executor.submit(build_jisilu_news_hot_news_blocks)
通过多线程返回各数据源热门新闻后,保存为 zhihu_news, v2ex_news 等 list 数据:
rss = rss_urls[news_key]['rss']['hot']
hot_news = get_post_urls_with_title(rss['url'])
hot_news_blocks = build_slack_blocks(
rss['name'], hot_news)
这里 get_post_urls_with_title 传入url,对每个url进行分析:
updated_post['summary'] = get_description(entry)
...
gpt_answer = get_summary_from_gpt(entry.link)
调用 get_description,即 get_summary_from_gpt 通过openai获取总结:
news_summary_prompt = '请用中文简短概括这篇文章的内容。'
gpt_response, total_llm_model_tokens, total_embedding_model_tokens = get_answer_from_llama_web([news_summary_prompt], [url])
调用查询,返回结果:
answer = index.query(dialog_messages, llm_predictor=llm_predictor, text_qa_template=prompt)
最后调用slask发送推送:
for news_item in news:
try:
r = client.chat_postMessage(
channel=schedule_channel,
text="🔥🔥🔥 Daily Hot News 🔥🔥🔥",
blocks=news_item,
reply_broadcast=True,
unfurl_links=False,
)
可以发现,每个数据源都发送一条消息。
比如发送一个url链接,先获取url内容,转换为llama-index向量,发送到openai:
发送slack消息: