ChatGPT Crawler:一个开源的网页抓取工具
GPT Crawler是一个开源的网页抓取工具,旨在通过自动化配置帮助用户轻松收集网页文本信息,并生成文本文件。这些文件可用于上传至OpenAI,辅助构建自定义的AI Assistant,支持创建多种基于AI的集成应用。GPT Crawler的简便操作和灵活配置,使其成为数据收集和AI应用开发的理想选择。
直达下载
回到上一页 介绍
GPT Crawler是一个开源项目,它通过简单配置,能够自动抓取网页文本信息,生成文本文件。这些文件可以上传至OpenAI,用于自定义Assistant,实现多种集成应用。本文将详细介绍如何使用GPT Crawler,包括安装、配置、启动爬虫,并结合OpenAI进行应用。
安装教程
克隆仓库
首先,需要安装Node.js(版本≥16),然后执行以下命令以克隆GPT Crawler仓库:
git clone https://github.com/builderio/gpt-crawler
安装依赖
在克隆的仓库中,运行以下命令安装所需依赖:
npm i
# 安装 Playwright
npx playwright install
配置爬虫
GPT Crawler的核心在于配置,主要包括目标网站的起始网址、继续抓取的页面链接的URL规则、以及页面中提取文本信息的CSS选择器。
配置CSS选择器
以下是一个示例配置,用于抓取阮一峰老师的TypeScript教程:
export const config: Config = {
url: "https://wangdoc.com/typescript/",
match: "https://wangdoc.com/typescript/**",
selector: `body > section > div > div:nth-child(1) > div.column.is-8.is-6-widescreen.is-offset-1-widescreen > article`,
maxPagesToCrawl: 50,
outputFileName: "output1.json",
};
启动爬虫
完成配置后,运行以下命令以启动爬虫:
npm start
程序将在项目根目录生成output.json
文件。
将您的数据上传到 OpenAI
要将生成的文本文件用于自定义Assistant,首先需要一个OpenAI账户。上传output.json
文件至OpenAI后,可以创建一个Assistant,并通过OpenAI的API集成至自己的系统。
实际案例
以创建一个自定义Assistant为例,操作步骤如下:
- 访问OpenAI的自定义Assistants页面。
- 创建一个新的Assistant。
- 上传
output.json
文件。 - 根据需要配置其他选项。
完成以上步骤后,就可以开始测试Assistant了。
GPT Crawler是一个功能强大且易于使用的工具,可以快速从网页抓取文本信息,为自定义AI Assistant提供知识库。通过结合OpenAI的API,可以实现多种创新应用,如自动化客服、个性化信息提供等。这个项目为开发者提供了一个简便的方式来扩展和定制他们的AI应用,是值得探索和利用的资源。
×
直达下载