首先我们要清晰一点是,所有的网页我们能看到的不管是文字还是图片还是动画,都是以html标记的,然后浏览器把这些标记可视化的美观的展示给我们,如果我们要做网络爬虫,那么我们的爬虫是没有视觉的,只有逻辑,在爬虫眼里只有html标签,其他的样式在爬虫眼里都是浮云,所以爬虫其实就是读取html标签(这里涉及一个知识点就是要能得到html标签,需要用到一个库是request库,通过网络请求拿到html元素),然后把html标签中自己想要的东西给提取出来,这个就是一个网络爬虫了。
逻辑就这么简单。
如果有python使用经验的,建议使用爬虫框架scrapy
python爬虫我们都知道是可以在网上任意搜索的脚本程序,主要是帮助我们再也不用鼠标一条一条的从网页上拷贝信息。
省去我们的行为相当于下面的步骤:在写之前先看一下逻辑问题,希望每个小伙伴都养成这个好习惯,整理逻辑后在开始写代码:了解了上面逻辑关系,下面我们以组件:unllib2为例创建一个test01.py,输入的代码如下:可以看到获取一个url的信息代码只需要4行代码。
执行的时候代码如下:结果如下:我们在浏览页上打开你爬的主页,右键选择“查看源代码”,我们会发现,跟刚刚打印出来的是一样的。
这说明成功啦!成功帮我们把网页首页的全部代码爬下来了。
以上全部步骤就是爬虫的过程,出于认真负责的态度。
解释一下这4行代码的作用:这一步是把组件urllib2引入进来,给我们提供使用。
这里是调用组件urllib2库中的urlopen方法,这个方法就是接受一个url地址,网址你可以随便填写你要爬的网址就可以了。
然后请求后得到的回应封装到一个response对象中。
这里是调用response对象的read()方法,把请求回应的内容以字符串的形式给html变量。
这里是将字符串打出来而已。
以上可知python代码对于一个基本的url请求是非常简单的。



