1. 程式人生 > >模擬登陸知乎,2016/10/23可用

模擬登陸知乎,2016/10/23可用

登入這東西,目前理解的還是比較淺,就是說想辦法搞到cookie就好。最簡單就是自己用瀏覽器登入上,從開發者工具裡把cookie複製。。。

今天說的呢,既然是模擬登陸,就少不了賬號密碼這些環節。

首先開啟知乎https://www.zhihu.com/#signin,開發者工具(博主用的360chrome),network,選中preserve log,不選的話之前的資訊會被清空的。

登入一下看看情況

這裡我選擇的是email登入,真正的url已經找到


繼續向下form表單也有了,只有四條資料,簡單偽造一下。xsrf應該是知乎每隔一段時間變化一次的,網上也有很多獲取的方法,容我偷個懶。

from http.cookiejar import CookieJar
from urllib.request import build_opener, HTTPCookieProcessor, Request
from urllib.parse import urlencode

#請求
header={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.102 Safari/537.36'}
parms = urlencode({
'_xsrf':'259637179ccaf663b980251f49b03356',
'password':'XXX',#自己的密碼
'remember_me':'true',
'email':'
[email protected]
'}).encode('utf-8') #email url = "https://www.zhihu.com/login/email" req = Request(url,parms,header) #print(urllib.request.urlopen(req).read().decode('utf-8')) ##getcookie cj = CookieJar() opener = build_opener(HTTPCookieProcessor(cj)) r = opener.open(req) #執行完這裡,cookie已儲存在程式中 link = "https://www.zhihu.com" #目標連結 req = (link) code = opener.open(req) print(code.read().decode('utf-8')) #ending


相關推薦

模擬登陸2016/10/23可用

登入這東西,目前理解的還是比較淺,就是說想辦法搞到cookie就好。最簡單就是自己用瀏覽器登入上,從開發者工具裡把cookie複製。。。 今天說的呢,既然是模擬登陸,就少不了賬號密碼這些環節。 首先開啟知乎https://www.zhihu.com/#signin,開發者工

使用OKHttp模擬登陸兼談OKHttp中Cookie的使用!

本文主要是想和大家探討技術,讓大家學會Cookie的使用,切勿做違法之事!很多Android初學者在剛開始學習的時候,或多或少都想自己搞個應用出來,把自己學的十八般武藝全都用在這個APP上,其實這個想法很好,專案驅動學習,效率更高,這是大學老師教給我的。可是一個APP,如果純

最新最新!selenium模擬登陸

md知乎的程式猿是幹什麼的我不知道,反爬真不一般,深受其害!!! 試了一千萬種方法,哎,終於呀(千萬不要被知乎的程式猿看到了,要不然就又要涼涼了),其他方法特別是用request的好像都失效了(哪位大神要是還能用告訴兄弟一聲) 算是半手動吧,selenium裡面的js模組

用selenium模擬登陸賬號處理登陸介面隨機出現驗證碼視窗的問題

import requests from selenium import webdriver from bs4 import BeautifulSoup import time while True: #option = webdriver.Chr

python爬蟲模擬登陸

自從暑假學了大概一個月左右的爬蟲,開學之後就沒怎麼搞爬蟲了,當時也就學到scrapy框架就放下了,大致瞭解了一下框架,不是太理解,但是在這之前本人的爬蟲水平也僅僅侷限於爬取簡單頁面,爬取動態頁面也稍微瞭解下,但是一直沒有學模擬登陸,因為當時怎麼也搞不懂模擬登陸是

Scrapy 模擬登陸--抓取熱點話題

折騰了將近兩天,中間數次想要放棄,還好硬著頭皮搞下去了,在此分享出來,希望有同等需求的各位能少走一些彎路。 原始碼放在了github上, 歡迎前往檢視。 若是幫你解決了問題,或者給了你啟發,不要吝嗇給加一星。 工具準備 在開始之前,請確保 scrpay 正確安裝,手頭有一款簡潔

爬取糗事百科圖片(截止至2016/10/23可用

區分開頭像和圖片所在資料夾就好 頭像 <div class="article block untagged mb15" id='qiushi_tag_117810314'> <di

Python爬蟲之模擬登陸

在chrome瀏覽器下抓取登陸過程的包(注意把Preserve log勾上): 表單的結構主要包括_xsrf, password, phone_num 我們要找到_xsrf的值,重新載入zhihu.

【scrapy】模擬登陸

這個網上有個通用的教程,然而為這個教程已經花費了太多時間進行除錯,和知乎上的朋友交流,很多人也是這個地方遇到了問題,最後的結果。。是放棄了crawlspider。。 先貼下 這個連結。。。http://ju.outofmemory.cn/entry/105646 謹慎。。

利用python requests庫模擬登陸

當初搜模擬登陸的時候在知乎上也找到一些內容。 以下是程式碼 import requests import time import json import os import re import sys import subprocess from bs4 import Be

selenium 模擬登入和微博

sleep https epo element select selenium clas .com -c pip install selenium __author__ = ‘admin‘ __date__ = 2017 / 11 / 3 from selenium im

做了一個模擬登陸的程序以後再來看看你的缺點

模擬 div global user word don 賬號登錄 else lob jindong_user ="xiong"jingdong_password = "ok"weixing_user = "abc"weixing_password = "123"pass_l

通過抓包實現Python模擬登陸各網站原理分析!

瀏覽器中 cda class 登陸 驗證 查詢 圖片 自動化 cap 一、教程簡介 1.1 基本介紹 通過分析登陸流程並使用 Python 實現模擬登陸到一個實驗提供的網站,在實驗過程中將學習並實踐 Python 的網絡編程,Python 實現模擬登陸的方法,使

scrapy 登陸

參考 https://github.com/zkqiang/Zhihu-Login # -*- coding: utf-8 -*- import scrapy import time import re import base64 import hmac import hashlib import jso

爬蟲入門到精通-headers的詳細講解(模擬登入

直接開始案例吧。 本次我們實現如何模擬登陸知乎。 1.抓包 首先開啟知乎登入頁 知乎 - 與世界分享你的知識、經驗和見解 注意開啟開發者工具後點擊“preserve log”,密碼記得故意輸入錯誤,然後點選登入   我們很簡單的就找到了 我們需要的請

python 爬蟲 如何通過scrapy簡單模擬登陸豆瓣網手動進行圖形驗證碼的驗證

1.建立scrapy爬蟲程式,在terminal命令列輸入’scrapy startproject douban_login’ 2.建立爬蟲主程式,主要步驟都在這裡實現,以douban_login.py命名 程式程式碼如下: import scrapy from

selenium模擬登入

Selenium是一個用於Web應用程式測試的工具。Selenium測試直接執行在瀏覽器中,就像真正的使用者在操作一樣。支援的瀏覽器包括IE(7, 8, 9, 10, 11),Mozilla Firefox,Safari,Google Chrome,Opera等。這個工具的主

幣圈大戰投資人:“推廣虛擬貨幣的都是騙子不要臉。”

最近幣圈不好過,一批區塊鏈微信大號被封,連知乎也掀起一場對“幣圈”的討伐群戰,戰況激烈,好不精彩。 事件的發展始末究竟是怎樣的?歡迎各位小夥伴跟我們一起來吃瓜嗑劇情。 大V自爆被“重點內容割韭菜” 事件的導火索來源於一位名叫李雷的知乎大V,在知乎上擁有近二

抖音和為什麼總讓你無法自拔?

社交網路,已經走了太多路。從最開始電子郵件引起的點對點的網路社交,到如今鋪天蓋地的社交網路平臺,

Python 爬蟲-模擬登入-爬取拉勾網職位資訊

用Python寫爬蟲是很方便的,最近看了xlzd.me的文章,他的文章寫的很到位,提供了很好的思路。因為他的文章部分程式碼省略了。下面是基於他的文章的三個程式碼片段: 基於Python3,Python2的話需要修改下input輸入函式和print的用法。 爬取豆瓣電影top250 爬取拉勾網職位資訊 模擬