栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

爬虫基础打卡第二天

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

爬虫基础打卡第二天

今天呢是我们爬虫基础打卡的第二天。那么今天所学到的东西,总结起来分三块。环境与工具的基础学习、request的get请求、request的post请求。

环境与工具的基础学习

首先是关于环境与基础工具的学习,没问题的部分就不写出来了,重点来写我遇到的问题及解决方案:
在打开jupyter创建文件时,出现以下状况:



这里我们给出如下解决方案:
在命令行中加上服务器地址:jupyter notebook --ip=x.x.x.x(写上自己的ip)
那么问题又来了,有的小白可能跟我一样不知道怎么查看ip,解决方法如下:

还有一个问题,就是我们在jupyter中检查requets的安装是否成功时,注意指令之间不该有的空格千万不能有,别问我怎么知道的


尝试好多解决方案后才发现我复制的时候指令多了一个空格。

requests的get请求

那首先我就用get请求返回了图虫网站的源码

import requests 
r = requests.get('https://tuchong.com/') 
print(r.text)


至于下面的一些简单的参数添加我就先不一一展示了,毕竟这还很简单,不过我不太明白哪些参数如params的实质性作用究竟是什么,这还有待深入的学习和探讨。

requests的post请求

总结

简单的操作就是这些,我认为get和post最基本的作用和语法我都能掌握,唯一不理解的就是表头以及参数这些东西,使用他们的目的究竟在哪里,我还需要进一步学习。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/487678.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号