Python3中将cookie内容保存到txt文档中

有些时候,为了方便多次使用同一个cookie的进行会话,需要将cookie保存下来,以便下次使用,这时就需要我们创建一个带有cookie的opener,在访问登录的url时,将登录后的cookie保存下来,然后利用这个cookie来操作。

当保存cookie到文件中后,我们可以直接从文件导入cookie进行会话,不用再频繁地登录请求了。

#!/usr/bin/env python
# -*- coding: utf-8 -*-

import urllib.request, urllib.parse, urllib.error
import http.cookiejar

login_url = 'http://www.a.com/login.php'
get_url = 'http://www.b.com/'  # 利用cookie请求访问另一个网址

values = {'user': '*****', 'pass': '*****'}
postdata = urllib.parse.urlencode(values).encode()

headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/44.0.2403.157 Safari/537.36'}

cookie_filename = 'cookie_jar.txt'
cookie_jar = http.cookiejar.MozillaCookieJar(cookie_filename)
handler = urllib.request.HTTPCookieProcessor(cookie_jar)
opener = urllib.request.build_opener(handler)

request = urllib.request.Request(login_url, postdata, headers)
try:
    response = opener.open(request)
    # print(response.read().decode())
except urllib.error.URLError as e:
    print(e.code, ':', e.reason)

cookie_jar.save(ignore_discard=True, ignore_expires=True)  # 保存cookie到cookie_jar.txt中
for item in cookie_jar:
    print('Name = ' + item.name)
    print('Value = ' + item.value)

get_request = urllib.request.Request(get_url, headers=headers)
get_response = opener.open(get_request)

print('<title>YES</title>' in get_response.read().decode())

我要评论!

想一个你喜欢的昵称。
给一个你的常用邮箱。
想和萌萌哒的TA们说点啥。
  • 有时候我们需要得到一份某区域的IP段,例如防火墙上使用。通过APNIC的地址库得到数据,会比较准确权威,且IP库每天都在更新中。 import os import sys import socket import math import urllib import urllib2 import st...
  • 很多时候因网络的问题,导致在进行pip命令安装模块时会有下载慢甚至是失败的可能,且可能性较大。为了解决国内的网络问题,我们很多时候会选择国内的镜像平台做为源,而在pip中如何自定义源呢? 首先我们看下官方的文档,如https://pip.pypa.io/en/latest/user_guide/#c...
  • pip类似RedHat里面的yum,安装Python包非常方便。 python -m pip install --upgrade pip
  • urllib提供了一系列用于操作URL的功能,而urllib的request模块可以非常方便地抓取URL内容,也就是发送一个GET请求到指定的页面,然后返回HTTP的响应。 基本的网络请求示例 import urllib.request #请求百度网页 resu = urllib.request.u...
  • 有的网站需要登陆才能抓取到网站的数据,那么光模拟浏览器请求网站内容是还不够了,还需要能够模拟用户登陆网站,然后保留登陆状态,获取网站相关的内容。 想要成功模拟真实用户登陆,重点要找到登录时候提交表单都包含了哪些真实的数据。然后使用Python生成这些数据,携带在请求头信息当中,这样服务器就能当做正常...
微信扫一扫即可带走我!