Python Selenium.WebDriver 对Cookies的处理及应用『模拟登录』
模拟登录微博是实现微博网页爬虫的第一步,现在的微博网页版有个sina visit system,只有登录过后才能获取更多微博内容。本文使用selenium通过预登陆保存cookie到本地,之后重复登录只需要提取本地cookie即可免去每次扫码或者输密码登录。............
在以前的文章中实现了向服务器发送POST请求模拟登录的操作【发送post请求】,但遇到验证码等情况时该方法就没用了。但我们可以使用当前登录账号的cookie信息,以实现下次访问该网站时自动登录。
可以利用抓包或F12,在Network页面中找到当前登录的cookies信息,但这个方法获取的cookies值不一定可以直接使用。在这里学习中提供了两种自动获取cookies并使用cookies状态实现登录的方法。
使用Session对象获取cookies
使用request模块中的Session对象..
由于HTTP协议是无状态协议,所以服务器与客户端通过http协议通讯时,服务器不能记录客户端的信息。
为了解决这个问题,通过 Cookie 和 Session 技术来实现。
Cookie保存在客户端中
Session保存在服务器中
cookie的属性
一般cookie所具有的属性,包括:
Domain:域,表示当前cookie所属于哪个域或子域下面。
对于服务器返回的Set-Cookie中,如果没有指定Domain的值,那么其Domain的值是默认为当前所提交的http的请求所对应的主域名的。比如访问 http://www.example.com,返回一个cookie,没有指名dom
进过两天的研究终于实现了cookie的免密登录,其实就是session。特别开心,因为在Python爬虫群里问那些大佬,可是他们的回答令我寒心,自己琢磨!!!
靠谁比如靠自己,为此我总结下经验,以免入门的小白再次踩这样的吭。其实网上很多博客写的都比较不详细甚
首先问题自己思考,不懂得去群里问问,然后最重要的要理解事物的本质,只有理解后才能运用它;最后在百度一下把所有相关的博客都点开,一条一条的看一遍总结下规律,比较喽的就舍弃,这样基本上都能得到启发作用。比如selenium的本质就是操作浏览器的,那么操作cookie也是操作浏览器的,并且用selenium打开浏览器时什么都没有,如果进入某个网
Selenium Python 提供了一个简单的API 便于我们使用 Selenium WebDriver编写 功能/验收测试。 通过Selenium Python的API,你可以直观地使用所有的 Selenium WebDriver 功能 。Selenium Python提供了一个很方便的接口来驱动 Selenium WebDriver , 例如Firefox、Chrome、Ie,以及Remote,目前支持的python版本有2.7或3.2以上.
selenium 可以自动化测试、抢票、爬虫等工作。初次了解,现在模拟登录百度——即自动打开浏览器、自动输入账号密码并提交进行登录。
工作需要实
import pickle
# cookie.pkl文件
pickle.dump(self.driver.get_cookies(), open('cookies.pkl', 'wb'))
下次访问就可以加载之前保存的cookie.pkl文件
#先访问网站
self.driver.get(target_url)
#再加载cookie
cookies = pickle.load(open('cookies.pkl', rb))
for co
1. 打开登录页面并输入账号密码,然后点击登录按钮。
2. 在登录成功后,使用Selenium的get_cookies()方法获取当前页面的cookie。
3. 将获取到的cookie保存到一个变量中。
4. 关闭当前页面,重新打开一个新的页面。
5. 使用Selenium的add_cookie()方法将保存的cookie添加到新页面中。
6. 刷新页面,即可实现免验证码登录。
需要注意的是,获取到的cookie需要在一定时间内有效,否则需要重新获取。另外,不同网站的cookie格式可能不同,需要根据实际情况进行处理。