crawler-lib
v0.2.5
Published
crawler framework for nodejs
Downloads
1
Readme
Nodejs 的爬虫框架
一个快速,简单,易用的 node.js 爬虫框架.
WARNING: 当前仍处于开发阶段,任何存在的特性都可能会更改或者移除
特性
- [x] 访问频率限制
- [x] 暂停和恢复爬取
- [x] 连接上一次记录续爬
- [x] 内置的 jQuery 选择器
- [x] 内置的资源下载工具
- [x] IP 代理设置
- [ ] 数据统计
- [x] 自定义 HTTP 方法、请求体
- [x] 错误重试
快速开始
npm install @axetroy/crawler
import { Crawler, Provider, Response } from "@axetroy/crawler";
class MyProvider implements Provider {
name = "scrapinghub";
urls = ["https://blog.scrapinghub.com"];
async parse($: Response) {
const $nextPage = $("a.next-posts-link").eq(0);
if ($nextPage) {
$.follow($nextPage.prop("href"));
}
return $(".post-header>h2")
.map((_, el) => $(el).text())
.get();
}
}
const config: Options = {
timeout: 1000 * 5,
retry: 3
};
new Crawler(MyProvider, config)
.on("data", (articles: string[]) => {
for (const article of articles) {
process.stdout.write(article + "\n");
}
})
.on("error", (err, task) => {
console.log(`request fail on ${task.url}: ${err.message}`);
})
.start();
API Reference
Example
如何运行 demo?
> npx ts-node examples/basic.ts
这里有相关的例子
License
The Anti 996 License