在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Python爬蟲之Beautiful Soup模塊

電子設(shè)計(jì) ? 來(lái)源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-12-10 21:56 ? 次閱讀

模塊安裝

pip3 install beautifulsoup4

模塊導(dǎo)入

from bs4 import BeautifulSoup

示例html內(nèi)容

獲取html內(nèi)容代碼

import requests

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36 115Browser/9.0.0"
}
response = requests.get("https://www.xbiquge6.com/xbqgph.html",headers=headers)
response.encoding = "utf-8"
html = response.text
print(html)

獲取的html內(nèi)容


小說(shuō)排行榜列表

構(gòu)建BeautifulSoup對(duì)象

常用四種解釋器

解釋器 標(biāo)識(shí) 特點(diǎn)
Python標(biāo)準(zhǔn)庫(kù) html.parser Python內(nèi)置,執(zhí)行速度中
lxml的HTML解釋器 lxml 速度快
lxml的XML解釋器 xml 唯一支持XML解析
html5lib html5lib 容錯(cuò)性最好,以瀏覽器方式解析
soup = BeautifulSoup(html, 'html.parser')

還可以解析本地html文件

soup1 = BeautifulSoup(open('index.html'))

.prettify()格式化輸出節(jié)點(diǎn)

通過(guò) . 獲取節(jié)點(diǎn)

title = soup.head.title
print(type(title))
print(title)

結(jié)果是

對(duì)于名稱唯一的節(jié)點(diǎn),可以省略層級(jí)

title = soup.title
print(type(title))
print(title)

結(jié)果同樣是

名稱不唯一的節(jié)點(diǎn),直接獲取只會(huì)獲取第一個(gè)匹配的節(jié)點(diǎn)

li = soup.li
print(li)

結(jié)果是

find_all根據(jù)條件獲取節(jié)點(diǎn)

find_all( name , attrs , recursive , text , **kwargs )
name :查找所有名字為 name 的tag,字符串對(duì)象會(huì)被自動(dòng)忽略掉;
attrs:根據(jù)屬性查詢,使用字典類型;
text :可以搜搜文檔中的字符串內(nèi)容.與 name 參數(shù)的可選值一樣, text 參數(shù)接受 字符串 , 正則表達(dá)式 , 列表, True ;
recursive:調(diào)用tag的 find_all() 方法時(shí),Beautiful Soup會(huì)檢索當(dāng)前tag的所有子孫節(jié)點(diǎn),如果只想搜索tag的直接子節(jié)點(diǎn),可以使用參數(shù) recursive=False ;
limit:find_all() 方法返回全部的搜索結(jié)構(gòu),如果文檔樹很大那么搜索會(huì)很慢.如果我們不需要全部結(jié)果,可以使用 limit 參數(shù)限制返回結(jié)果的數(shù)量.效果與SQL中的limit關(guān)鍵字類似,當(dāng)搜索到的結(jié)果數(shù)量達(dá)到 limit 的限制時(shí),就停止搜索返回結(jié)果;
class_ :通過(guò) class_ 參數(shù)搜索有指定CSS類名的tag,class_ 參數(shù)同樣接受不同類型的 過(guò)濾器 ,字符串,正則表達(dá)式,方法或 True。

根據(jù)標(biāo)簽名字

lis = soup.find_all(nam)
for item in lis:
    print(item)

結(jié)果是

根據(jù)標(biāo)簽屬性

屬性和值以字典形式傳入

lis = soup.find_all(attrs={"class":"s2"})
for item in lis:
    print(item)

結(jié)果是
作品名稱
我能舉報(bào)萬(wàn)物
女戰(zhàn)神的黑包群
花崗巖之怒
超神機(jī)械師
無(wú)量真途
我的細(xì)胞監(jiān)獄
前任無(wú)雙
元陽(yáng)道君
逆成長(zhǎng)巨星
承包大明

限制搜索范圍

find_all 方法會(huì)搜索當(dāng)前標(biāo)簽的所有子孫節(jié)點(diǎn),如果只想搜索直接子節(jié)點(diǎn),可以使用參數(shù) recursive=False

遍歷獲取子節(jié)點(diǎn)

.contents獲取所有子節(jié)點(diǎn)

以列表形式返回所有子節(jié)點(diǎn),要注意,列表里面還會(huì)摻雜 '/n'

ul = soup.ul
print(ul)
print(ul.contents)

結(jié)果是
['/n',

.children獲取所有子節(jié)點(diǎn)

返回一個(gè)list生成器對(duì)象

ul = soup.ul
print(ul.children)
print(list(ul.children))

結(jié)果是
['/n', 

.descendants遍歷所有子孫節(jié)點(diǎn)

ul = soup.ul
for item in ul.descendants:
    print(item)

結(jié)果是(中間很多'/n'空行我刪掉了)
首頁(yè) 首頁(yè) 永久書架 永久書架 玄幻奇幻 玄幻奇幻 武俠仙俠 武俠仙俠 都市言情 都市言情 歷史軍事 歷史軍事 科幻靈異 科幻靈異 網(wǎng)游競(jìng)技 網(wǎng)游競(jìng)技 女頻頻道 女頻頻道 完本小說(shuō) 完本小說(shuō) 排行榜單 排行榜單 臨時(shí)書架 臨時(shí)書架

獲取其父節(jié)點(diǎn)

a = soup.li.a
print(a)
p = a.parent
print(p)

結(jié)果是
首頁(yè)

提取節(jié)點(diǎn)信息

節(jié)點(diǎn)名稱

感覺(jué)沒(méi)什么用

title = soup.title
print(title.name)

結(jié)果是
title

節(jié)點(diǎn)屬性

a = soup.li.a
print(a)
print(a.attrs)    # 獲取所有屬性,返回字典形式
print(a['href'])# 獲取a節(jié)點(diǎn)的href屬性值

結(jié)果是
首頁(yè)
{'href': '/'}
/

節(jié)點(diǎn)文本

a = soup.li.a
print(type(a.string)) # 節(jié)點(diǎn)內(nèi)文本的類型
print(a.string) # 獲取節(jié)點(diǎn)內(nèi)的文本內(nèi)容
print(a.get_text())    # 也是獲取節(jié)點(diǎn)內(nèi)的文本內(nèi)容
結(jié)果是

首頁(yè)

注意!!!如果節(jié)點(diǎn)內(nèi)文本是注釋,則用string取出文本時(shí)會(huì)自動(dòng)去除注釋標(biāo)記
注釋的類型:,可以通過(guò)類型判斷

遍歷獲取所有子孫節(jié)點(diǎn)中的文本

for string in soup.stripped_strings:  # 去除多余空白內(nèi)容
    print(repr(string))
想進(jìn)一步了解編程開發(fā)相關(guān)知識(shí),與我一同成長(zhǎng)進(jìn)步,請(qǐng)關(guān)注我的公眾號(hào)“松果倉(cāng)庫(kù)”,共同分享宅&程序員的各類資源,謝謝!!!

審核編輯 黃昊宇
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • JAVA
    +關(guān)注

    關(guān)注

    20

    文章

    2986

    瀏覽量

    107060
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48788

    瀏覽量

    246960
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4825

    瀏覽量

    86286
  • 爬蟲
    +關(guān)注

    關(guān)注

    0

    文章

    83

    瀏覽量

    7394
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    爬蟲數(shù)據(jù)獲取實(shí)戰(zhàn)指南:從入門到高效采集

    爬蟲數(shù)據(jù)獲取實(shí)戰(zhàn)指南:從入門到高效采集 ? ? 在數(shù)字化浪潮中,數(shù)據(jù)已成為驅(qū)動(dòng)商業(yè)增長(zhǎng)的核心引擎。無(wú)論是市場(chǎng)趨勢(shì)洞察、競(jìng)品動(dòng)態(tài)追蹤,還是用戶行為分析,爬蟲技術(shù)都能助你快速捕獲目標(biāo)信息。然而,如何既
    的頭像 發(fā)表于 03-24 14:08 ?522次閱讀

    運(yùn)行OVModelForCausalLM Python模塊時(shí)出錯(cuò)了,怎么解決?

    創(chuàng)建了一個(gè)自定義 Python* 代碼,類似于遵循 240-dolly-2-instruction 的 Jupyter 筆記本。 OVModelForCausalLM Python* 模塊運(yùn)行時(shí)出錯(cuò)。
    發(fā)表于 03-05 06:44

    IP地址數(shù)據(jù)信息和爬蟲攔截的關(guān)聯(lián)

    IP地址數(shù)據(jù)信息和爬蟲攔截的關(guān)聯(lián)主要涉及到兩方面的內(nèi)容,也就是數(shù)據(jù)信息和爬蟲。IP 地址數(shù)據(jù)信息的內(nèi)容豐富,包括所屬地域、所屬網(wǎng)絡(luò)運(yùn)營(yíng)商、訪問(wèn)時(shí)間序列、訪問(wèn)頻率等。 從IP地址信息中可以窺見(jiàn)
    的頭像 發(fā)表于 12-23 10:13 ?325次閱讀

    Python常用函數(shù)大全

    Python 世界里,有一些寶藏函數(shù)和模塊,它們可以讓你編程更輕松、代碼更高效。這篇文章將帶你一一認(rèn)識(shí)這些神器,讓你的開發(fā)生活瞬間輕松不少!
    的頭像 發(fā)表于 10-27 17:20 ?818次閱讀

    全球視野下的海外爬蟲IP:趨勢(shì)、機(jī)遇與風(fēng)險(xiǎn)

    在全球視野下,海外爬蟲IP的使用呈現(xiàn)出一系列趨勢(shì),同時(shí)也伴隨著機(jī)遇與風(fēng)險(xiǎn)。
    的頭像 發(fā)表于 10-15 07:54 ?490次閱讀

    海外爬蟲IP的合法邊界:合規(guī)性探討與實(shí)踐

    海外爬蟲IP的合法邊界主要涉及合規(guī)性探討與實(shí)踐。
    的頭像 發(fā)表于 10-12 07:56 ?544次閱讀

    如何利用海外爬蟲IP進(jìn)行數(shù)據(jù)抓取

    利用海外爬蟲IP進(jìn)行數(shù)據(jù)抓取需要綜合考慮多個(gè)方面。
    的頭像 發(fā)表于 10-12 07:54 ?535次閱讀

    詳細(xì)解讀爬蟲多開代理IP的用途,以及如何配置!

    爬蟲多開代理IP是一種在爬蟲開發(fā)中常用的技術(shù)策略,主要用于提高數(shù)據(jù)采集效率、避免IP被封禁以及獲取地域特定的數(shù)據(jù)。
    的頭像 發(fā)表于 09-14 07:55 ?752次閱讀

    pytorch和python的關(guān)系是什么

    在當(dāng)今的人工智能領(lǐng)域,Python已經(jīng)成為了最受歡迎的編程語(yǔ)言之一。Python的易學(xué)易用、豐富的庫(kù)和框架以及強(qiáng)大的社區(qū)支持,使其成為了數(shù)據(jù)科學(xué)、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)等領(lǐng)域的首選語(yǔ)言。而在深度學(xué)習(xí)領(lǐng)域
    的頭像 發(fā)表于 08-01 15:27 ?3112次閱讀

    EtherCAT運(yùn)動(dòng)控制器上位機(jī)Python+Qt(一):鏈接與單軸運(yùn)動(dòng)

    PC上位機(jī)Python+Qt混合編程,助力智能制造高效開發(fā)。
    的頭像 發(fā)表于 07-31 09:43 ?783次閱讀
    EtherCAT運(yùn)動(dòng)控制器上位機(jī)<b class='flag-5'>之</b><b class='flag-5'>Python</b>+Qt(一):鏈接與單軸運(yùn)動(dòng)

    如何實(shí)現(xiàn)Python復(fù)制文件操作

    Python 中有許多“開蓋即食”的模塊(比如 os,subprocess 和 shutil)以支持文件 I/O 操作。在這篇文章中,你將會(huì)看到一些用 Python 實(shí)現(xiàn)文件復(fù)制的特殊方法。下面我們開始學(xué)習(xí)這九種不同的方法來(lái)實(shí)現(xiàn)
    的頭像 發(fā)表于 07-18 14:53 ?717次閱讀

    網(wǎng)絡(luò)爬蟲,Python和數(shù)據(jù)分析

    電子發(fā)燒友網(wǎng)站提供《網(wǎng)絡(luò)爬蟲,Python和數(shù)據(jù)分析.pdf》資料免費(fèi)下載
    發(fā)表于 07-13 09:27 ?2次下載

    python訓(xùn)練出的模型怎么調(diào)用

    使用pickle模塊 pickle 是Python的一個(gè)內(nèi)置模塊,用于序列化和反序列化Python對(duì)象結(jié)構(gòu)。使用 pickle 可以方便地保存和加載模型。 import pickle
    的頭像 發(fā)表于 07-11 10:15 ?3233次閱讀

    用pycharm進(jìn)行python爬蟲的步驟

    以下是使用PyCharm進(jìn)行Python爬蟲的步驟: 安裝PyCharm和Python 首先,您需要安裝PyCharm和Python。PyCharm是一個(gè)流行的
    的頭像 發(fā)表于 07-11 10:11 ?1358次閱讀

    常見(jiàn)的數(shù)據(jù)采集工具的介紹

    Scraping) 網(wǎng)絡(luò)爬蟲是一種自動(dòng)化的程序,用于從互聯(lián)網(wǎng)上提取信息。它們可以訪問(wèn)網(wǎng)頁(yè),解析HTML內(nèi)容,并從中提取所需的數(shù)據(jù)。 Scrapy : 一個(gè)快速且強(qiáng)大的Python框架,用于抓取網(wǎng)站數(shù)據(jù)。 Beautiful
    的頭像 發(fā)表于 07-01 14:51 ?1654次閱讀
    主站蜘蛛池模板: 日本免费黄色录像 | 日本黄色一级大片 | 一级片观看 | 亚洲伊人久久综合影院2021 | 国产精品乱码高清在线观看 | 国产一级特黄的片子 | 日本三级日本三级日本三级极 | 四虎影视免费看 | 天天爱天天干天天 | 天天干天天操天天做 | 丁香花在线视频 | 调教r18车肉高h男男 | 91中文在线 | 精品久久久久国产免费 | 一级做a爰片久久毛片免费 一级做a爰片久久毛片免费看 | 免费黄视频在线观看 | 给我免费播放片黄色 | 精品国产乱码久久久久久浪潮 | 狠狠色丁香婷婷综合久久来 | 午夜免费视频福利集合100 | 欧美一区二区三区综合色视频 | 日韩午夜 | 日本aaaa| 精品久久香蕉国产线看观看亚洲 | 泰国一级毛片aaa下面毛多 | 精品久久久久久国产免费了 | 国产精品久久久久久久久免费hd | 精品黄色片 | 亚洲国产成人久久三区 | 四虎永久地址4hu紧急入口 | 亚洲天天做夜夜做天天欢人人 | 国产精品无码永久免费888 | 欧美另类69xxxxxhd | 久久久鲁 | 色综合天天综合网国产人 | 亚洲精品国产自在久久出水 | 久久人人爽爽爽人久久久 | 奇米在线 | 亚洲欧洲无码一区二区三区 | 3p高h文| 四虎影院欧美 |