Chat-with-Github-Repo:基于GitHub仓库的AI聊天机器人
Chat-with-Github-Repo项目演示如何使用Streamlit、OpenAI GPT-3.5-turbo及Activeloop Deep Lake,基于GitHub仓库数据创建智能聊天应用,为技术交流和学习提供实践案例。
直达下载
回到上一页 介绍
Chat-with-Github-Repo是一个开源项目,展示了如何结合Streamlit、OpenAI GPT-3.5-turbo和Activeloop的Deep Lake,基于GitHub仓库中的数据创建一个智能聊天机器人。这个项目为开发者提供了一个实践例子,演示如何通过处理和分析Git仓库中的文本数据,构建一个能够理解和响应用户输入的聊天应用。
核心文件
- src/utils/process.py:该脚本克隆Git仓库,处理文本文档,使用OpenAIEmbeddings计算嵌入,并将嵌入存储在DeepLake实例中。
- src/utils/chat.py:此脚本创建了一个Streamlit网页应用,通过与DeepLake实例交互,使用OpenAI GPT-3.5-turbo生成聊天机器人的响应。
- src/main.py:包含命令行界面(CLI),允许运行聊天应用。
设置指南
在开始之前,需要注册Activeloop和OpenAI账号并创建API密钥。按照以下步骤设置和运行项目:
克隆仓库并导航至项目目录:
git clone https://github.com/peterw/Chat-with-Git-Repo.git cd Chat-with-Git-Repo
使用pip安装所需包:
pip install -r requirements.txt
开发依赖可以通过以下命令安装:
pip install -r dev-requirements.txt
设置环境变量,复制
.env.example
文件:cp .env.example .env
并填写API密钥和用户名:
OPENAI_API_KEY=your_openai_api_key ACTIVELOOP_TOKEN=your_activeloop_api_token ACTIVELOOP_USERNAME=your_activeloop_username
使用CLI运行聊天应用。可以处理Git仓库或使用现有数据集启动聊天应用。 完整的CLI指令可通过运行
python src/main.py --help
获得。处理Git仓库,使用
process
子命令:python src/main.py process --repo-url https://github.com/username/repo_name
还可以指定附加选项,如包含的文件扩展名、Activeloop数据集的名称或克隆仓库的目的地:
python src/main.py process --repo-url https://github.com/username/repo_name --include-file-extensions .md .txt --activeloop-dataset-name my-dataset --repo-destination repos
使用现有数据集启动聊天应用,使用
chat
子命令:python src/main.py chat --activeloop-dataset-name my-dataset
这个项目给了我很多启发,比如如何更有效地组织和检索信息,以及如何利用最新的AI技术来提高工作效率。如果你对AI有兴趣,或是想探索一下GitHub上那些有趣的项目,那么我强烈推荐你尝试一下。
×
直达下载