在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Python網絡爬蟲Selenium的簡單使用

冬至子 ? 來源:宓海 ? 作者:宓海 ? 2023-11-14 14:44 ? 次閱讀

Python網絡爬蟲-Selenium

想要學習爬蟲,如果比較詳細的了解web開發的前端知識會更加容易上手,時間不夠充裕,僅僅了解html的相關知識也是夠用的。

準備工作:

使用它肯定先要安裝它,對于Selenium的安裝推薦使用pip,十分方便。因為我使用的是谷歌瀏覽器,使用前需要先配置相應的ChromeDriver,在此放出對應谷歌瀏覽器對應的80版本的ChromeDriver。地址 :點擊下載提取碼:sz2s
至于如何去安裝配置,網絡上有很多教程,在此不做贅述。

簡要功能:

使用Selenium可以驅動瀏覽器執行特定操作,如點擊,下拉等等,同時也能直接抓取網頁源代碼,即做到可見即可爬。

1.訪問頁面

通過下面這幾行代碼可以實現瀏覽器的驅動并獲取網頁源碼,非常便捷。

from selenium import webdriver

browser = webdriver.Chrome()  #聲明瀏覽器對象
browser.get('https://www.baidu.com')
print(browser.page_source)  #打印網頁源碼
browser.close()			#關閉瀏覽器

2.查找節點

selenium可以驅動瀏覽器完成各種操作,但進行模擬點擊,填寫表單時,我們總要知道這些輸入框,點擊按鈕在哪里,所以需要獲取相對的節點??偣灿衅渲袑ふ夜濣c的方法,在此給出一個非常全面的學習查找節點的教程。

=單個節點=
下面以百度首頁為例。通過查找源碼,我們可以發現對應搜索文本框的class,name,id等屬性名。

圖片

from selenium import webdriver

browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
input = browser.find_element_by_id('kw')		#獲取搜索框位置
input.send_keys('Python')    	#輸入內容

運行代碼得到如下內容,此時我們只是輸入,并未進行其他操作。

圖片

=多個節點=

如果查找目標在網頁中只有一個,使用find_element()方法就可了。如果有多個,舉個例子,如查找多個滿足條件的節點,通過html基本知識我們可以知道元素對應的id名是唯一的,像是其他的class等可以多次出現,其中對應的滿足條件的倘若還用一開始的方法便只能得到第一個節點的內容,后面就不能得到,因此可以使用find_elements()。

3.節點交互

意思就是讓瀏覽器模擬執行一些動作,常用的有:輸入文字用send_keys(),清空文字用clear(),點擊用click()。放個小實例。

from selenium import webdriver
import time

browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
input = browser.find_element_by_id('kw')
input.send_keys('Python')
time.sleep(1)		#等待時間設置為1秒,方便查看
input.clear()		#清空搜索框
input.send_keys('LOL')
button = browser.find_element_by_id('su')
button.click()		#模擬點擊

4.獲取節點信息

因為selenium的page_source屬性可以直接獲取網頁源碼,接著就可以直接使用解析庫(如正則表達式,Beautiful Soup等)直接提取信息,不過Selenium已經直接提供了選擇節點的方法了,返回的是WebElement類型,它也有相關的方法提取節點信息,如文本,屬性等。這也是使用它進行一點簡單的爬蟲非常方便的原因,代碼十分簡潔。

=提取屬性=

使用get_attribute()方法,但前提需要先選中節點,同樣以百度首頁為實例,打印出百度logo的屬性。

from selenium import webdriver

browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
input = browser.find_element_by_id('s_lg_img')
print(input)
print(input.get_attribute("class"))

'''打印結果
< selenium.webdriver.remote.webelement.WebElement (session="6013549f22f653cf081e0564da8315da", element="a924de49-358c-42e1-8c29-09bf0dd8d3c3") >
index-logo-src
'''

=獲取文本值=

每個WebElement節點都有text屬性,直接調用這個屬性就可以獲得節點內的內容,這相當于Beautiful Soup中的get_text()方法。這里打開百度首頁,獲取搜索按鈕的百度一下文本。

from selenium import webdriver

browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
input = browser.find_element_by_id('su')
print(input.text)

=獲取id、位置、標簽名和大小=

id屬性獲取節點id
location屬性可以獲取該節點在頁面中的相對位置
tag_name屬性獲取標簽名稱
size屬性獲取節點大小,就是寬高

5.延時等待

當我們進行網絡爬蟲時,請求的東西或許不會第一時間出現,此時就會拋出時間異常,因此我們需要加上延時等待避免程序中斷。這里面分為顯式等待和隱式等待,具體詳細教程參考鏈接: link.

6.異常處理

進行爬蟲難免會遇到異常,如超時,節點未找到等錯誤,此時用try except語句捕獲異常,可以避免程序因此中斷。

關于Selenium其他的函數如對網頁節點進行拖拽,切換標簽頁,前進與后退,選項卡管理以及對cookies相關的操作等不做詳細說明,上面的知識足以進行簡單的爬蟲了,像是各大網頁的文本值都可以很簡單的抓取下來,可以做一點簡單的數據分析。當然這僅對初學者是這樣的,后期稍微深入會遇到需要這些函數的操作,對于小白這些就夠了。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • python
    +關注

    關注

    56

    文章

    4811

    瀏覽量

    85076
  • 異常中斷
    +關注

    關注

    0

    文章

    9

    瀏覽量

    1248
收藏 人收藏

    評論

    相關推薦

    深度學習入門:簡單神經網絡的構建與實現

    深度學習中,神經網絡是核心模型。今天我們用 Python 和 NumPy 構建一個簡單的神經網絡。 神經網絡由多個神經元組成,神經元之間通過
    的頭像 發表于 01-23 13:52 ?123次閱讀

    IP地址數據信息和爬蟲攔截的關聯

    IP地址數據信息和爬蟲攔截的關聯主要涉及到兩方面的內容,也就是數據信息和爬蟲。IP 地址數據信息的內容豐富,包括所屬地域、所屬網絡運營商、訪問時間序列、訪問頻率等。 從IP地址信息中可以窺見
    的頭像 發表于 12-23 10:13 ?108次閱讀

    如何使用Python構建LSTM神經網絡模型

    構建一個LSTM(長短期記憶)神經網絡模型是一個涉及多個步驟的過程。以下是使用Python和Keras庫構建LSTM模型的指南。 1. 安裝必要的庫 首先,確保你已經安裝了Python和以下庫
    的頭像 發表于 11-13 10:10 ?588次閱讀

    Python編程:處理網絡請求的代理技術

    網絡編程中,代理技術扮演著至關重要的角色,尤其在處理網絡請求時。通過代理服務器,我們可以實現請求的轉發、緩存、負載均衡以及安全控制等功能。Python作為一種功能強大的編程語言,為提供了豐富的工具和庫,以便敏捷地實現和處理
    的頭像 發表于 11-12 07:23 ?231次閱讀

    海外爬蟲IP的合法邊界:合規性探討與實踐

    海外爬蟲IP的合法邊界主要涉及合規性探討與實踐。
    的頭像 發表于 10-12 07:56 ?280次閱讀

    如何利用海外爬蟲IP進行數據抓取

    利用海外爬蟲IP進行數據抓取需要綜合考慮多個方面。
    的頭像 發表于 10-12 07:54 ?264次閱讀

    詳細解讀爬蟲多開代理IP的用途,以及如何配置!

    爬蟲多開代理IP是一種在爬蟲開發中常用的技術策略,主要用于提高數據采集效率、避免IP被封禁以及獲取地域特定的數據。
    的頭像 發表于 09-14 07:55 ?563次閱讀

    使用Python進行Ping測試

    )請求包,然后等待目標主機返回響應包,從而測量網絡的延遲和丟包情況。隨著Python編程語言的廣泛應用,越來越多的網絡工程師開始使用Python進行自動化
    的頭像 發表于 08-12 17:56 ?610次閱讀
    使用<b class='flag-5'>Python</b>進行Ping測試

    使用Python批量連接華為網絡設備

    隨著網絡規模的擴大和設備數量的增加,手動配置和管理每臺網絡設備變得越來越不現實。因此,自動化工具和腳本變得尤為重要。Python語言以其簡潔性和強大的第三方庫支持,成為了網絡自動化領域
    的頭像 發表于 08-12 17:48 ?551次閱讀

    網絡爬蟲,Python和數據分析

    電子發燒友網站提供《網絡爬蟲,Python和數據分析.pdf》資料免費下載
    發表于 07-13 09:27 ?2次下載

    用pycharm進行python爬蟲的步驟

    以下是使用PyCharm進行Python爬蟲的步驟: 安裝PyCharm和Python 首先,您需要安裝PyCharm和Python。PyCharm是一個流行的
    的頭像 發表于 07-11 10:11 ?966次閱讀

    tensorflow簡單的模型訓練

    TensorFlow開始,然后介紹如何構建和訓練一個簡單的神經網絡模型。 1. 安裝TensorFlow 首先,我們需要安裝TensorFlow。TensorFlow支持多種編程語言,包括Python、C++
    的頭像 發表于 07-05 09:38 ?797次閱讀

    如何使用Python進行神經網絡編程

    。 為什么使用Python? Python是一種廣泛使用的高級編程語言,以其易讀性和易用性而聞名。Python擁有強大的庫,如TensorFlow、Keras和PyTorch,這些庫提供了構建和訓練神經
    的頭像 發表于 07-02 09:58 ?459次閱讀

    常見的數據采集工具的介紹

    Scraping) 網絡爬蟲是一種自動化的程序,用于從互聯網上提取信息。它們可以訪問網頁,解析HTML內容,并從中提取所需的數據。 Scrapy : 一個快速且強大的Python框架,用于抓取網站數據。 Beautiful S
    的頭像 發表于 07-01 14:51 ?1046次閱讀

    全球新聞網封鎖OpenAI和谷歌AI爬蟲

    分析結果顯示,至2023年底,超半數(57%)的傳統印刷媒體如《紐約時報》等已關閉OpenAI爬蟲,反之電視廣播以及數字原生媒體相應地分別為48%和31%。而對于谷歌人工智能爬蟲,32%的印刷媒體采取相同措施,電視廣播和數字原生媒體的比率分別為19%和17%。
    的頭像 發表于 02-27 15:31 ?941次閱讀
    主站蜘蛛池模板: 欧美又粗又长又湿又黄的视频 | 午夜影视啪啪免费体验区入口 | 亚洲精品美女久久久 | 六月丁香深爱六月综合激情 | 国产一级特黄老妇女大片免费 | 男人边吃奶边爱边做视频日韩 | 国产精品1区2区3区 国产精品1区2区3区在线播放 | 黄色成人毛片 | 老汉色视频| 老色皮| 国产亚洲精品在天天在线麻豆 | 亚洲国产视频网 | 国产v69 | 一级特黄aa大片 | 无遮挡很爽很污很黄在线网站 | 国产精品免费久久久免费 | 最新大黄网站免费 | 噜噜噜久久久 | 38pao强力打造永久免费高清视频 | 性做久久久久久久免费看 | 亚洲国产精品第一区二区 | 日日夜夜天天人人 | 色播图片 | 日本www色视频 | 色噜噜狠狠狠狠色综合久 | 国产欧美在线一区二区三区 | 网全大全黄 | 久久99精品国产麻豆宅宅 | 日韩精品另类天天更新影院 | 日日噜噜夜夜狠狠tv视频免费 | 激情五月激情综合网 | 999www成人免费视频 | 久久国产乱子伦精品免费午夜 | 日本免费一区二区三区视频 | 四虎国产精品免费视 | 玖玖草在线观看 | 直接黄91麻豆网站 | 日韩免费观看视频 | 欧美xxxxbbbb在线播放 | 免费网址视频在线看 | 色老头在线视频 |