README.md 5.6 KB

🧐 关于 myGPTReader

   myGPTReader 是一个 Slack 机器人,可以阅读任何网页、电子书、视频(YouTube)或文件,并通过 chatGPT 进行总结。它还可以通过语音与你交谈。

🏁 如何开始

现在加入这个拥有超过 5000 多名成员的 slack 频道,免费体验所有这些功能,不仅能使用 chatGPT 的全部功能,还能围观他人的对话,学习如何与 chatGPT 更好的对话。

🔥 主要功能

📖 快速了解网页内容

使用 myGPTReader 快速阅读,通过对话了解任何网页内容,甚至包括视频(目前仅支持 YouTube 有字幕的视频)。 Web read with myGPTReader

📚 阅读文件内容

使用 myGPTReader 快速阅读任何文件的内容,支持电子书、PDF、DOCX、TXT 与 Markdown。

Document read with myGPTReader

🗣️ 直接使用语音对话 myGPTReader

通过用你的声音与 myGPTReader 对话来练习外语,它可以是你的私人外教,支持中文、英语、德语与日语。

Voice chat with myGPTReader

💬 与 myGPTReader 对话

内置大量 prompt 模板,使用这些模板与 chatGPT 更好的对话。

Ask myGPTReader anything

🔥 今日热点

每天 myGPTReader 会发送最新的热榜新闻并自动生成摘要,方便你快速了解今日热点。

Hot News Today

如何安装

源码分析

依赖:

基于 openai,llama-index,flask,pyPDF2,docx2txt,youtube-transcript等依赖开发。

llama-index介绍过,将问题字符串转为向量节省token,这样可以发送大量内容,比如pdf文献总结实现

flask搭建简单的api服务

docx2txt,pdf,youtube等实现从word,pdf,youtube等多源加载字问题。

slack应用 创建一个slack应用,https://api.slack.com/apps ,创建一个bot,生成 token,那接下来就可以在web api项目中接收slack消息,并回复。。

bot flask项目 python flask项目,无数据库,可以dockerfile部署。

["gunicorn", "app.server:app"]

每日新闻推送分析:

flask 定时任务,每日 1:30 触发:

@scheduler.task('cron', id='daily_news_task', hour=1, minute=30)
def schedule_news():
    logging.info("=====> Start to send daily news!")
    all_news_blocks = build_all_news_block()
    send_daily_news(slack_app.client, all_news_blocks)

从以下信息源api获取数据,并调用 openai 进行分析每条链接:

        zhihu_news = executor.submit(build_zhihu_hot_news_blocks)
        v2ex_news = executor.submit(build_v2ex_hot_news_blocks)
        onepoint3acres_news = executor.submit(build_1point3acres_hot_news_blocks)
        reddit_news = executor.submit(build_reddit_news_hot_news_blocks)
        hackernews_news = executor.submit(build_hackernews_news_hot_news_blocks)
        producthunt_news = executor.submit(build_producthunt_news_hot_news_blocks)
        xueqiu_news = executor.submit(build_xueqiu_news_hot_news_blocks)
        jisilu_news = executor.submit(build_jisilu_news_hot_news_blocks)

通过多线程返回各数据源热门新闻后,保存为 zhihu_news, v2ex_news 等 list 数据:

    rss = rss_urls[news_key]['rss']['hot']
    hot_news = get_post_urls_with_title(rss['url'])
    hot_news_blocks = build_slack_blocks(
        rss['name'], hot_news)

这里 get_post_urls_with_title 传入url,对每个url进行分析:

        updated_post['summary'] = get_description(entry)
        
        ...
        gpt_answer = get_summary_from_gpt(entry.link)

调用 get_description,即 get_summary_from_gpt 通过openai获取总结:

    news_summary_prompt = '请用中文简短概括这篇文章的内容。'
    gpt_response, total_llm_model_tokens, total_embedding_model_tokens = get_answer_from_llama_web([news_summary_prompt], [url])

调用查询,返回结果:

    answer = index.query(dialog_messages, llm_predictor=llm_predictor, text_qa_template=prompt)

最后调用slask发送推送:

    for news_item in news:
        try:
            r = client.chat_postMessage(
                channel=schedule_channel,
                text="🔥🔥🔥 Daily Hot News 🔥🔥🔥",
                blocks=news_item,
                reply_broadcast=True,
                unfurl_links=False,
            )

可以发现,每个数据源都发送一条消息。

阅读文档

比如发送一个url链接,先获取url内容,转换为llama-index向量,发送到openai:

发送slack消息: