1.爬虫的定义
向网站发起请求,获取资源后分析并提取有用数据的程序
2.爬虫的用处
所谓的上网便是由用户端计算机发送请求给目标计算机,将目标计算机的数据下载到本地的过程。 只不过,用户获取网络数据的方式是: 浏览器提交请求->下载网页代码->解析/渲染成页面。
而爬虫程序要做的就是: 模拟浏览器发送请求->下载网页代码->只提取有用的数据->存放于数据库或文件中
3.总结爬虫
如果我们把互联网比作一张大的蜘蛛网,那一台计算机上的数据便是蜘蛛网上的一个猎物,而爬虫程序就是一只小蜘蛛,沿着蜘蛛网抓取自己想要的猎物/数据。
(推荐操作系统:windows7系统、Python 3.9.1,DELL G3电脑。)
转载自:python学习网 https://www.py.cn/
发表评论
还没有评论,快来抢沙发吧!