站長資訊網
最全最豐富的資訊網站

Python3 爬蟲帶上 cookie

Python3 爬蟲帶上 cookie

Cookie的英文原意是“點心”,它是在客戶端訪問Web服務器時,服務器在客戶端硬盤上存放的信息,好像是服務器發送給客戶的“點心”。服務器可以根據Cookie來跟蹤客戶狀態,這對于需要區別客戶的場合(如電子商務)特別有用。

當客戶端首次請求訪問服務器時,服務器先在客戶端存放包含該客戶的相關信息的Cookie,以后客戶端每次請求訪問服務器時,都會在HTTP請求數據中包含Cookie,服務器解析HTTP請求中的Cookie,就能由此獲得關于客戶的相關信息。

下面我們就來看一下python3爬蟲帶上cookie的方法:

1、直接將Cookie寫在header頭部

# coding:utf-8 import requests from bs4 import BeautifulSoup cookie = '''cisession=19dfd70a27ec0eecf1fe3fc2e48b7f91c7c83c60;CNZZDATA1000201968=181584 6425-1478580135-https%253A%252F%252Fwww.baidu.com%252F%7C1483922031;Hm_lvt_f805f7762a9a2 37a0deac37015e9f6d9=1482722012,1483926313;Hm_lpvt_f805f7762a9a237a0deac37015e9f6d9=14839 26368''' header = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Geck o) Chrome/53.0.2785.143 Safari/537.36', 'Connection': 'keep-alive', 'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8', 'Cookie': cookie} url = 'https://www.jb51.net/article/191947.htm' wbdata = requests.get(url,headers=header).text soup = BeautifulSoup(wbdata,'lxml') print(soup)

2、使用requests插入Cookie

# coding:utf-8 import requests from bs4 import BeautifulSoup cookie = { "cisession":"19dfd70a27ec0eecf1fe3fc2e48b7f91c7c83c60", "CNZZDATA100020196":"1815846425-1478580135-https%253A%252F%252Fwww.baidu.com%252F%7C1483 922031", "Hm_lvt_f805f7762a9a237a0deac37015e9f6d9":"1482722012,1483926313", "Hm_lpvt_f805f7762a9a237a0deac37015e9f6d9":"1483926368" } url = 'https://www.jb51.net/article/191947.htm' wbdata = requests.get(url,cookies=cookie).text soup = BeautifulSoup(wbdata,'lxml') print(soup)

實例擴展:

使用cookie登錄哈工大ACM站點

獲取站點登錄地址

http://acm.hit.edu.cn/hoj/system/login

查看要傳送的post數據
user和password

Code:

#!/usr/bin/env python # -*- coding: utf-8 -*- """ __author__ = 'pi' __email__ = 'pipisorry@126.com'  """ import urllib.request, urllib.parse, urllib.error import http.cookiejar  LOGIN_URL = 'http://acm.hit.edu.cn/hoj/system/login' values = {'user': '******', 'password': '******'} # , 'submit' : 'Login' postdata = urllib.parse.urlencode(values).encode() user_agent = r'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/44.0.2403.157 Safari/537.36' headers = {'User-Agent': user_agent, 'Connection': 'keep-alive'}  cookie_filename = 'cookie.txt' cookie = http.cookiejar.MozillaCookieJar(cookie_filename) handler = urllib.request.HTTPCookieProcessor(cookie) opener = urllib.request.build_opener(handler)  request = urllib.request.Request(LOGIN_URL, postdata, headers) try:   response = opener.open(request)   page = response.read().decode()   # print(page) except urllib.error.URLError as e:   print(e.code, ':', e.reason)  cookie.save(ignore_discard=True, ignore_expires=True) # 保存cookie到cookie.txt中 print(cookie) for item in cookie:   print('Name = ' + item.name)   print('Value = ' + item.value)  get_url = 'http://acm.hit.edu.cn/hoj/problem/solution/?problem=1' # 利用cookie請求訪問還有一個網址 get_request = urllib.request.Request(get_url, headers=headers) get_response = opener.open(get_request) print(get_response.read().decode()) # print('You have not solved this problem' in get_response.read().decode())

推薦教程:《Python教程》

贊(0)
分享到: 更多 (0)
網站地圖   滬ICP備18035694號-2    滬公網安備31011702889846號
久久精品国产一区二区三| 无码国模国产在线无码精品国产自在久国产 | 国产精品日韩深夜福利久久| 动漫精品一区二区三区3d| 久久99热久久99精品| 在线精品自偷自拍无码中文| 久久精品人人槡人妻人人玩AV | 久久精品a亚洲国产v高清不卡| 久久久国产精品福利免费| 国产亚洲精品激情都市| freesexvideos精品老师毛多| 日韩中文字幕一在线| 日韩亚洲不卡在线视频中文字幕在线观看| 国产精品日韩专区| 精品国产一区二区二三区在线观看 | 国产精品186在线观看在线播放| 91精品国产福利尤物| 久久久久99精品成人片| 国产精品一区二区久久精品无码| 午夜三级国产精品理论三级 | 日韩成人大屁股内射喷水| 国产精品V亚洲精品V日韩精品 | 久久精品国产乱子伦| 亚洲精品美女在线观看| 911精品国产亚洲日本美国韩国| 一本大道久久a久久精品综合| 久久9精品久久久| 亚洲国产精品自在在线观看| 久久久久成人精品免费播放动漫 | 色一乱一伦一图一区二区精品| 久久精品国产99久久| 久久亚洲伊人中字综合精品| 久久精品*5在热| 麻豆亚洲AV永久无码精品久久| 久9热免费精品视频在线观看| 久久夜色精品国产亚洲AV动态图 | 日韩一卡2卡3卡4卡新区亚洲| 日韩在线一区二区三区免费视频| 日韩欧精品无码视频无删节| 日韩精品久久久久久久电影蜜臀| 日韩精品一区二区三区中文3d |