网站爬虫,网站页面提交,提取链接,批量抓取页面 | 木头分享社

只需一个插件一件提取筛选整个网站页面

很多时候,如果你是一个网站的站长,除了XML,你想批量提交百度、360、搜狗、神马、Google的链接,让爬虫爬取,如果会点PYTHON爬虫当然这个也不是一个问题。

也可以利用批量链接用迅雷批量下载。

Link Grabber 可以批量提取、筛选网页里各种链接,可以在GOOGLE商店下载插件。

有了他除了可以批量提交网页链接,有利于收录。

我就拿我自己的博客做个演示好了

扩展装好之后,可以去重,显示被阻止的链接,域名分组,隐藏相同的域名。

 Chrome 商店 下载链接,如需fq,博客有链接。fq合集:https://share.earnrmb.us/591.html/

Google镜像站:

 镜像站  1

 镜像站 2 

 

 

本文由 木头分享社 作者:yamakuchi 发表,其版权均为 木头分享社 所有,文章内容系作者个人观点,不代表 木头分享社 对观点赞同或支持。如需转载,请注明文章来源。

3

发表评论