在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Python爬蟲繞過登錄的小技巧

馬哥Linux運維 ? 來源:lq ? 2019-05-07 16:08 ? 次閱讀

前言

很多時候我們做 Python 爬蟲時或者自動化測試時需要用到 selenium 庫,我們經(jīng)常會卡在登錄的時候,登錄驗證碼是最頭疼的事情,特別是如今的文字驗證碼和圖形驗證碼。文字和圖形驗證碼還加了干擾線,本文就來講講怎么繞過登錄頁面。

登錄頁面的驗證,比如以下的圖形驗證碼。

還有我們基本都看過的 12306 的圖形驗證碼。

繞過登錄方法

繞過登錄基本有兩種方法,第一種方法是登錄后查看網(wǎng)站的 cookie,請求 url 的時候把 cookie 帶上,第二種方法是啟動瀏覽器帶上瀏覽器的全部信息,包括添加的書簽和訪問網(wǎng)頁的 cookie 信息。

第一種 cookie 方法我們要分析別人網(wǎng)站的 cookie 值,找出相應(yīng)的值然后添加進去,對于我們不熟的網(wǎng)站,他們可能也會做加密或者動態(tài)處理,所以有些網(wǎng)站也不是那么好操作。如果是自己公司的網(wǎng)站需要測試,我們可以詢問對應(yīng)的開發(fā)那個 cookie 值是區(qū)分獨立用的值,拿出來放在請求里面就行。

添加 cookie 繞過登錄

比如我們登錄百度賬號比較費勁,每次都需要登錄也比較繁瑣,我們 F12 打開頁面調(diào)試工具,登錄后找到 www.baidu.com 文件,在 cookie 中,我們發(fā)現(xiàn)很多值,其中圖中圈起來的就是我們要找的值。

我們在訪問 baidu 鏈接的時候加上這個 cookie 值,這樣就是直接登錄后的百度賬號了。

下載瀏覽器驅(qū)動

我們要 selenium 啟動瀏覽器時,需要下載后對應(yīng)的驅(qū)動文件并放在 Python 安裝的根目錄下,比如我會用到谷歌 Chrome 瀏覽器和 Firefox 火狐瀏覽器。

谷歌瀏覽器驅(qū)動下載地址:

http://chromedriver.storage.googleapis.com/index.html

火狐瀏覽器驅(qū)動下載地址:

https://github.com/mozilla/geckodriver/releases/

啟動 Chrome 瀏覽器繞過登錄

我們每次打開瀏覽器做相應(yīng)操作時,對應(yīng)的緩存和 cookie 會保存到瀏覽器默認(rèn)的路徑下,我們先查看個人資料路徑,以 chrome 為例,我們在地址欄輸入 chrome://version/

圖中的個人資料路徑就是我們需要的,我們?nèi)サ艉竺娴?Default,然后在路徑前加上「–user-data-dir=」就拼接出我們要的路徑了。

profile_directory=r'--user-data-dir=C:UsersxxxAppDataLocalGoogleChromeUserData'

接下來,我們啟動瀏覽器的時候采用帶選項時的啟動,這種方式啟動瀏覽器需要注意,運行代碼前需要關(guān)閉所有的正在運行 chrome 程序,不然會報錯。全部代碼如下。

selenium 自動化啟動瀏覽器后我們會發(fā)現(xiàn)我之前保存的書簽完整在瀏覽器上方,baidu 賬號也是登錄的狀態(tài)。

啟動 Firfox 瀏覽器繞過登錄

Firfox 火狐瀏覽也可以這樣啟動它,設(shè)置略有不同。

首先,查看配置文件的存儲路徑,查看方法:幫助–故障排除信息–配置文件夾,把里面的路徑復(fù)制過來就行。

同樣,我們把路徑放在變量中。

profile_path=r'C:UsersguixianyangAppDataRoamingMozillaFirefoxProfilesdvm6wqam.default'

我們也在火狐瀏覽器中登錄好百度的賬號,用 selenium 自動化啟動帶配置文件的火狐瀏覽器,也會發(fā)現(xiàn)啟動時已經(jīng)啟動了瀏覽器安裝的插件和登錄好的百度賬號。

繞過圖形驗證碼的網(wǎng)站

文中第一個圖是簡書登錄時的圖形驗證碼,我們登錄簡書后(cookie 有一定的時效,貌似有 10 天半個月左右),把上面代碼中的鏈接換成簡書的,再用上面的方法覺可以實現(xiàn)繞過登錄頁的圖形驗證碼。

比如我直接打開我的簡書個人主頁

https://www.jianshu.com/u/52353ffa8b86

自動化啟動后也是保留了登錄的狀態(tài)。

網(wǎng)站的登錄大門已被打開,接下來就可以做自己想做的事情了,比如爬蟲、自動化測試驗證之類的。

PS:以上技巧對有些網(wǎng)站可能不管用,但是對大部分網(wǎng)站還有適用的,覺得本文小技巧有用的自己趕緊試試吧。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 瀏覽器
    +關(guān)注

    關(guān)注

    1

    文章

    1036

    瀏覽量

    35554
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4811

    瀏覽量

    85076
  • 爬蟲
    +關(guān)注

    關(guān)注

    0

    文章

    82

    瀏覽量

    7023

原文標(biāo)題:講講Python爬蟲繞過登錄的小技巧

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    Python數(shù)據(jù)爬蟲學(xué)習(xí)內(nèi)容

    ,利用爬蟲,我們可以解決部分?jǐn)?shù)據(jù)問題,那么,如何學(xué)習(xí)Python數(shù)據(jù)爬蟲能?1.學(xué)習(xí)Python基礎(chǔ)知識并實現(xiàn)基本的爬蟲過程一般獲取數(shù)據(jù)的過
    發(fā)表于 05-09 17:25

    Python爬蟲與Web開發(fā)庫盤點

    Python爬蟲和Web開發(fā)均是與網(wǎng)頁相關(guān)的知識技能,無論是自己搭建的網(wǎng)站還是爬蟲爬去別人的網(wǎng)站,都離不開相應(yīng)的Python庫,以下是常用的Pyth
    發(fā)表于 05-10 15:21

    0基礎(chǔ)入門Python爬蟲實戰(zhàn)課

    學(xué)習(xí)資料良莠不齊爬蟲是一門實踐性的技能,沒有實戰(zhàn)的課程都是騙人的!所以這節(jié)Python爬蟲實戰(zhàn)課,將幫到你!課程從0基礎(chǔ)入門開始,受眾人群廣泛:如畢業(yè)大學(xué)生、轉(zhuǎn)行人群、對Python
    發(fā)表于 07-25 09:28

    Python爬蟲簡介與軟件配置

    Python爬蟲練習(xí)一、爬蟲簡介1. 介紹2. 軟件配置二、爬取南陽理工OJ題目三、爬取學(xué)校信息通知四、總結(jié)五、參考一、爬蟲簡介1. 介紹網(wǎng)絡(luò)爬蟲
    發(fā)表于 01-11 06:32

    python網(wǎng)絡(luò)爬蟲概述

    提交一些關(guān)鍵字才能獲取的Web頁面,如登錄或注冊后訪問的頁面。應(yīng)用場景爬蟲技術(shù)在科學(xué)研究、Web安全、產(chǎn)品研發(fā)、輿情監(jiān)控等領(lǐng)域可以做很多事情。在數(shù)據(jù)挖掘、機器學(xué)習(xí)、圖像處理等科學(xué)研究領(lǐng)域,如果沒有
    發(fā)表于 03-21 16:51

    詳細(xì)用Python寫網(wǎng)絡(luò)爬蟲

    詳細(xì)用Python寫網(wǎng)絡(luò)爬蟲
    發(fā)表于 09-07 08:40 ?32次下載
    詳細(xì)用<b class='flag-5'>Python</b>寫網(wǎng)絡(luò)<b class='flag-5'>爬蟲</b>

    完全自學(xué)指南Python爬蟲BeautifulSoup詳解

    完全自學(xué)指南Python爬蟲BeautifulSoup詳解
    發(fā)表于 09-07 08:55 ?39次下載
    完全自學(xué)指南<b class='flag-5'>Python</b><b class='flag-5'>爬蟲</b>BeautifulSoup詳解

    WebSpider——多個python爬蟲項目下載

    此文檔包含多個python爬蟲項目
    發(fā)表于 03-26 09:29 ?3次下載

    python爬蟲入門教程之python爬蟲視頻教程分布式爬蟲打造搜索引擎

    本文檔的主要內(nèi)容詳細(xì)介紹的是python爬蟲入門教程之python爬蟲視頻教程分布式爬蟲打造搜索引擎
    發(fā)表于 08-28 15:32 ?29次下載

    python爬蟲框架有哪些

    本視頻主要詳細(xì)介紹了python爬蟲框架有哪些,分別是Django、CherryPy、Web2py、TurboGears、Pylons、Grab、BeautifulSoup、Cola。
    的頭像 發(fā)表于 03-22 16:13 ?6863次閱讀

    Python爬蟲:使用哪種協(xié)議的代理IP最佳?

    網(wǎng)絡(luò)大數(shù)據(jù)要抓取信息,大多需要經(jīng)過python爬蟲工作,爬蟲能夠幫助我們將頁面的信息抓取下來。
    的頭像 發(fā)表于 06-28 16:25 ?2003次閱讀

    python實現(xiàn)簡單爬蟲的資料說明

    本文檔的主要內(nèi)容詳細(xì)介紹的是python實現(xiàn)簡單爬蟲的資料說明。
    發(fā)表于 11-02 17:53 ?21次下載
    <b class='flag-5'>python</b>實現(xiàn)簡單<b class='flag-5'>爬蟲</b>的資料說明

    Python寫網(wǎng)絡(luò)爬蟲

    Python寫網(wǎng)絡(luò)爬蟲的方法說明。
    發(fā)表于 06-01 11:55 ?21次下載

    利用Python編寫簡單網(wǎng)絡(luò)爬蟲實例

    利用 Python編寫簡單網(wǎng)絡(luò)爬蟲實例2 實驗環(huán)境python版本:3.3.5(2.7下報錯
    發(fā)表于 02-24 11:05 ?14次下載

    如何解決Python爬蟲中文亂碼問題?Python爬蟲中文亂碼的解決方法

    如何解決Python爬蟲中文亂碼問題?Python爬蟲中文亂碼的解決方法 在Python爬蟲過程
    的頭像 發(fā)表于 01-12 15:11 ?2586次閱讀
    主站蜘蛛池模板: 久久国模 | 四虎影在永久地址在线观看 | 69日本xxxhd| 日本高清色视频在线观看免费 | 日本黄色免费一级片 | 全国男人的天堂网站 | 99精品免费视频 | 国产精品高清一区二区三区不卡 | 日本亚洲在线 | 欧美一区二区高清 | 天天摸天天躁天天添天天爽 | 一区二区影视 | 天天艹天天操 | 大香伊在人线免费 | 黄页网站在线 | 男人天堂网在线播放 | 特级片免费看 | 色天天综合久久久久综合片 | 性瘾高h姚蕊全文免费阅读 性做久久久久 | 亚洲欧美日韩动漫 | 97理论三级九七午夜在线观看 | 亚洲男同tv | 午夜久久久久久网站 | 爱搞逼综合 | 国产人免费人成免费视频 | 天天做人人爱夜夜爽2020 | 婷婷激情小说 | 成人网中文字幕色 | 美女在线看永久免费网址 | 给我免费播放片黄色 | 亚洲黄色天堂 | 色偷偷男人天堂 | 在线网站 看片 网站 | 日本a级影院| 奇米影视欧美 | a亚洲| 成熟妇女毛耸耸性视频 | 在线午夜视频 | 91天天干| 色综合天天综一个色天天综合网 | 俄罗斯一级特黄黄大片 |