## 🧐 关于 myGPTReader
myGPTReader 是一个 Slack 机器人,可以阅读任何网页、电子书、视频(YouTube)或文件,并通过 chatGPT 进行总结。它还可以通过语音与你交谈。
## 🏁 如何开始
现在加入这个拥有超过 5000 多名成员的[ slack 频道](https://slack-redirect.i365.tech/),免费体验所有这些功能,不仅能使用 chatGPT 的全部功能,还能围观他人的对话,学习如何与 chatGPT 更好的对话。

## 🔥 主要功能
### 📖 快速了解网页内容
使用 myGPTReader 快速阅读,通过对话了解任何网页内容,甚至包括视频(目前仅支持 YouTube 有字幕的视频)。

### 📚 阅读文件内容
使用 myGPTReader 快速阅读任何文件的内容,支持电子书、PDF、DOCX、TXT 与 Markdown。

### 🗣️ 直接使用语音对话 myGPTReader
通过用你的声音与 myGPTReader 对话来练习外语,它可以是你的私人外教,支持中文、英语、德语与日语。

### 💬 与 myGPTReader 对话
内置大量 `prompt` 模板,使用这些模板与 chatGPT 更好的对话。


### 🔥 今日热点
每天 myGPTReader 会发送最新的热榜新闻并自动生成摘要,方便你快速了解今日热点。

### 如何安装
- 可参考 [@nigdaemon](./docs/how-to-install/nigdaemon.md) 的安装记录。
- 可参考[MyGPTReader 部署到 Fly.io 教程完整记录(全部功能) - GPT4AllPro](https://gpt4all.pro/chatgpt-in-slack-mygptreader-deployment-to-fly-io-tutorial-complete-documentation-all-features/)
- 如果想使用 Docker 部署也可参考 [@polly3d](./docs/how-to-install/docker.md) 的安装记录。
## 源码分析
**依赖:**
基于 openai,llama-index,flask,pyPDF2,docx2txt,youtube-transcript等依赖开发。
llama-index介绍过,将问题字符串转为向量节省token,这样可以发送大量内容,比如pdf文献总结实现
flask搭建简单的api服务
docx2txt,pdf,youtube等实现从word,pdf,youtube等多源加载字问题。
**slack应用**
创建一个slack应用,https://api.slack.com/apps ,创建一个bot,生成 token,那接下来就可以在web api项目中接收slack消息,并回复。。
**bot flask项目**
python flask项目,无数据库,可以dockerfile部署。
```
["gunicorn", "app.server:app"]
```
### 每日新闻推送分析:
flask 定时任务,每日 1:30 触发:
```
@scheduler.task('cron', id='daily_news_task', hour=1, minute=30)
def schedule_news():
logging.info("=====> Start to send daily news!")
all_news_blocks = build_all_news_block()
send_daily_news(slack_app.client, all_news_blocks)
```
从以下信息源api获取数据,并调用 openai 进行分析每条链接:
```
zhihu_news = executor.submit(build_zhihu_hot_news_blocks)
v2ex_news = executor.submit(build_v2ex_hot_news_blocks)
onepoint3acres_news = executor.submit(build_1point3acres_hot_news_blocks)
reddit_news = executor.submit(build_reddit_news_hot_news_blocks)
hackernews_news = executor.submit(build_hackernews_news_hot_news_blocks)
producthunt_news = executor.submit(build_producthunt_news_hot_news_blocks)
xueqiu_news = executor.submit(build_xueqiu_news_hot_news_blocks)
jisilu_news = executor.submit(build_jisilu_news_hot_news_blocks)
```
通过多线程返回各数据源热门新闻后,保存为 zhihu_news, v2ex_news 等 list 数据:
```
rss = rss_urls[news_key]['rss']['hot']
hot_news = get_post_urls_with_title(rss['url'])
hot_news_blocks = build_slack_blocks(
rss['name'], hot_news)
```
这里 get_post_urls_with_title 传入url,对每个url进行分析:
```
updated_post['summary'] = get_description(entry)
...
gpt_answer = get_summary_from_gpt(entry.link)
```
调用 get_description,即 get_summary_from_gpt 通过openai获取总结:
```
news_summary_prompt = '请用中文简短概括这篇文章的内容。'
gpt_response, total_llm_model_tokens, total_embedding_model_tokens = get_answer_from_llama_web([news_summary_prompt], [url])
```
调用查询,返回结果:
```
answer = index.query(dialog_messages, llm_predictor=llm_predictor, text_qa_template=prompt)
```
最后调用slask发送推送:
```
for news_item in news:
try:
r = client.chat_postMessage(
channel=schedule_channel,
text="🔥🔥🔥 Daily Hot News 🔥🔥🔥",
blocks=news_item,
reply_broadcast=True,
unfurl_links=False,
)
```
可以发现,每个数据源都发送一条消息。
### 阅读文档
比如发送一个url链接,先获取url内容,转换为llama-index向量,发送到openai:
发送slack消息:
```
```