.net core 下的爬虫利器 -凯发k8官方网
爬虫大家或多或少的都应该接触过的,爬虫有风险,抓数需谨慎。
本着研究学习的目的,记录一下在 .net core 下抓取数据的实际案例。爬虫代码一般具有时效性,当我们的目标发生改版升级,规则转换后我们写的爬虫代码就会失效,需要重新应对。抓取数据的主要思路就是去分析目标网站的页面逻辑,利用xpath、正则表达式等知识去解析网页拿到我们想要的数据。
本篇主要简单介绍三个组件的使用,htmlagilitypack、anglesharp、puppeteersharp,前两个可以处理传统的页面,无法抓取单页应用,如果需要抓取单页应用可以使用puppeteersharp。
关于这三个组件库的实际应用可以参考一下定时任务最佳实战系列文章。
新建一个控制台项目,抓取几个站点的数据来试试,先做准备工作,添加一个ihotnews的接口。
using system.collections.generic; using system.threading.tasks;namespace spiderdemo {public interface ihotnews{taskhotnews模型,包含标题和链接
namespace spiderdemo {public class hotnews{public string title { get; set; }public string url { get; set; }} }最终我们通过依赖注入的方式,将抓取到的数据展示到控制台中。
htmlagilitypack
https://html-agility-pack.net/
https://github.com/zzzprojects/html-agility-pack
在项目中安装htmlagilitypack组件
install-package htmlagilitypack这里以博客园为抓取目标,我们抓取凯发k8官方网首页的文章标题和链接。
using htmlagilitypack; using system.collections.generic; using system.linq; using system.threading.tasks;namespace spiderdemo {public class hotnewshtmlagilitypack : ihotnews{public async task添加hotnewshtmlagilitypack.cs实现ihotnews接口,访问博客园网址,拿到html数据后,使用xpath语法解析html,这里主要是拿到a标签即可。
通过查看网页分析可以得到这个xpath://*[@id='post_list']/article/p/div/a。
然后在program.cs中注入ihotnews,循环遍历看看效果。
using microsoft.extensions.dependencyinjection; using system; using system.linq; using system.threading.tasks;namespace spiderdemo {class program{static async task main(string[] args){iservicecollection service = new servicecollection();service.addsingletonanglesharp
https://anglesharp.github.io/
https://github.com/anglesharp/anglesharp
在项目中安装anglesharp组件
install-package anglesharp同样的,新建一个hotnewsanglesharp.cs也实现ihotnews接口,这次使用anglesharp抓取。
using anglesharp; using system.collections.generic; using system.threading.tasks;namespace spiderdemo {public class hotnewsanglesharp : ihotnews{public async taskanglesharp解析数据和htmlagilitypack的方式有所不同,anglesharp可以利用css规则去获取数据,用起来也是挺方便的。
在program.cs中注入ihotnews,循环遍历看看效果。
using microsoft.extensions.dependencyinjection; using system; using system.linq; using system.threading.tasks;namespace spiderdemo {class program{static async task main(string[] args){iservicecollection service = new servicecollection();service.addsingletonpuppeteersharp
https://www.puppeteersharp.com/
https://github.com/hardkoded/puppeteer-sharp
puppeteersharp是基于puppeteer的,puppeteer 是一个google 开源的nodejs 库,它提供了一个高级api 来通过devtools协议控制chromium 浏览器。puppeteer 默认以无头(headless) 模式运行,但是可以通过修改配置运行“有头”模式。
puppeteersharp可以干很多事情,不光可以用来抓取单页应用,还可以用来生成页面pdf或者图片,可以做自动化测试等。
在项目中安装puppeteersharp组件
install-package puppeteersharp使用puppeteersharp第一次会帮我们在项目根目录中下载浏览器执行程序,这个取决于当前网速的快慢,建议手动下载后放在指定位置即可。
using puppeteersharp; using system.threading.tasks;namespace spiderdemo {class program{static async task main(string[] args){// 下载浏览器执行程序await new browserfetcher().downloadasync(browserfetcher.defaultrevision);// 创建一个浏览器执行实例using var browser = await puppeteer.launchasync(new launchoptions{headless = true,args = new string[] { "--no-sandbox" }});// 打开一个页面using var page = await browser.newpageasync();// 设置页面大小await page.setviewportasync(new viewportoptions{width = 1920,height = 1080});}} }上面这段代码是初始化puppeteersharp必要的代码,可以根据实际开发需要进行修改,下面以"https://juejin.im"为例,演示几个常用操作。
获取单页应用html
... var url = "https://juejin.im"; await page.gotoasync(url, waituntilnavigation.networkidle0); var content = await page.getcontentasync(); console.writeline(content);可以看到页面上的html全部被获取到了,这时候就可以利用规则解析html,拿到我们想要的数据了。
保存为图片
... var url = "https://juejin.im/"; await page.gotoasync(url, waituntilnavigation.networkidle0);await page.screenshotasync("juejin.png");保存为pdf
var url = "https://juejin.im/"; await page.gotoasync(url, waituntilnavigation.networkidle0);await page.pdfasync("juejin.pdf");puppeteersharp的功能还有很多,比如页面注入html、执行js代码等,使用的时候可以参考凯发k8官方网官网示例。
总结
以上是凯发k8官方网为你收集整理的.net core 下的爬虫利器的全部内容,希望文章能够帮你解决所遇到的问题。
- 上一篇:
- 下一篇: