在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Python爬蟲速成指南讓你快速的學會寫一個最簡單的爬蟲

馬哥Linux運維 ? 來源:未知 ? 作者:易水寒 ? 2018-06-10 09:57 ? 次閱讀

本文主要內容:以最短的時間寫一個最簡單的爬蟲,可以抓取論壇的帖子標題和帖子內容。

本文受眾:沒寫過爬蟲的萌新。

入門

0.準備工作

需要準備的東西: Python、scrapy、一個IDE或者隨便什么文本編輯工具。

1.技術部已經研究決定了,你來寫爬蟲。

隨便建一個工作目錄,然后用命令行建立一個工程,工程名為miao,可以替換為你喜歡的名字。

scrapy startproject miao

隨后你會得到如下的一個由scrapy創建的目錄結構

Python爬蟲速成指南讓你快速的學會寫一個最簡單的爬蟲

在spiders文件夾中創建一個python文件,比如miao.py,來作為爬蟲的腳本。

內容如下:

import scrapyclass NgaSpider(scrapy.Spider): name = "NgaSpider" host = "http://bbs.ngacn.cc/" # start_urls是我們準備爬的初始頁 start_urls = [ "http://bbs.ngacn.cc/thread.php?fid=406", ] # 這個是解析函數,如果不特別指明的話,scrapy抓回來的頁面會由這個函數進行解析。 # 對頁面的處理和分析工作都在此進行,這個示例里我們只是簡單地把頁面內容打印出來。 def parse(self, response): print response.body

2.跑一個試試?

如果用命令行的話就這樣:

cd miao scrapy crawl NgaSpider

你可以看到爬蟲君已經把你壇星際區第一頁打印出來了,當然由于沒有任何處理,所以混雜著html標簽和js腳本都一并打印出來了。

解析

接下來我們要把剛剛抓下來的頁面進行分析,從這坨html和js堆里把這一頁的帖子標題提煉出來。

其實解析頁面是個體力活,方法多的是,這里只介紹xpath。

0.為什么不試試神奇的xpath呢

看一下剛才抓下來的那坨東西,或者用chrome瀏覽器手動打開那個頁面然后按F12可以看到頁面結構。

每個標題其實都是由這么一個html標簽包裹著的。舉個例子:

[合作模式] 合作模式修改設想

可以看到href就是這個帖子的地址(當然前面要拼上論壇地址),而這個標簽包裹的內容就是帖子的標題了。

于是我們用xpath的絕對定位方法,把class='topic'的部分摘出來。

1.看看xpath的效果

在最上面加上引用:

from scrapy import Selector

把parse函數改成:

def parse(self, response): selector = Selector(response) # 在此,xpath會將所有class=topic的標簽提取出來,當然這是個list # 這個list里的每一個元素都是我們要找的html標簽 content_list = selector.xpath("http://*[@class='topic']") # 遍歷這個list,處理每一個標簽 for content in content_list: # 此處解析標簽,提取出我們需要的帖子標題。 topic = content.xpath('string(.)').extract_first() print topic # 此處提取出帖子的url地址。 url = self.host + content.xpath('@href').extract_first() print url

再次運行就可以看到輸出你壇星際區第一頁所有帖子的標題和url了。

遞歸

接下來我們要抓取每一個帖子的內容。

這里需要用到python的yield。

yield Request(url=url, callback=self.parse_topic)

此處會告訴scrapy去抓取這個url,然后把抓回來的頁面用指定的parse_topic函數進行解析。

至此我們需要定義一個新的函數來分析一個帖子里的內容。

完整的代碼如下:

import scrapyfrom scrapy import Selectorfrom scrapy import Requestclass NgaSpider(scrapy.Spider): name = "NgaSpider" host = "http://bbs.ngacn.cc/" # 這個例子中只指定了一個頁面作為爬取的起始url # 當然從數據庫或者文件或者什么其他地方讀取起始url也是可以的 start_urls = [ "http://bbs.ngacn.cc/thread.php?fid=406", ] # 爬蟲的入口,可以在此進行一些初始化工作,比如從某個文件或者數據庫讀入起始url def start_requests(self): for url in self.start_urls: # 此處將起始url加入scrapy的待爬取隊列,并指定解析函數 # scrapy會自行調度,并訪問該url然后把內容拿回來 yield Request(url=url, callback=self.parse_page) # 版面解析函數,解析一個版面上的帖子的標題和地址 def parse_page(self, response): selector = Selector(response) content_list = selector.xpath("http://*[@class='topic']") for content in content_list: topic = content.xpath('string(.)').extract_first() print topic url = self.host + content.xpath('@href').extract_first() print url # 此處,將解析出的帖子地址加入待爬取隊列,并指定解析函數 yield Request(url=url, callback=self.parse_topic) # 可以在此處解析翻頁信息,從而實現爬取版區的多個頁面 # 帖子的解析函數,解析一個帖子的每一樓的內容 def parse_topic(self, response): selector = Selector(response) content_list = selector.xpath("http://*[@class='postcontent ubbcode']") for content in content_list: content = content.xpath('string(.)').extract_first() print content # 可以在此處解析翻頁信息,從而實現爬取帖子的多個頁面

到此為止,這個爬蟲可以爬取你壇第一頁所有的帖子的標題,并爬取每個帖子里第一頁的每一層樓的內容。

爬取多個頁面的原理相同,注意解析翻頁的url地址、設定終止條件、指定好對應的頁面解析函數即可。

Pipelines——管道

此處是對已抓取、解析后的內容的處理,可以通過管道寫入本地文件、數據庫。

0.定義一個Item

在miao文件夾中創建一個items.py文件。

from scrapy import Item, Fieldclass TopicItem(Item): url = Field() title = Field() author = Field() class ContentItem(Item): url = Field() content = Field() author = Field()

此處我們定義了兩個簡單的class來描述我們爬取的結果。

1. 寫一個處理方法

在miao文件夾下面找到那個pipelines.py文件,scrapy之前應該已經自動生成好了。

我們可以在此建一個處理方法。

from scrapy import Item, Fieldclass TopicItem(Item): url = Field() title = Field() author = Field() class ContentItem(Item): url = Field() content = Field() author = Field()

2.在爬蟲中調用這個處理方法。

要調用這個方法我們只需在爬蟲中調用即可,例如原先的內容處理函數可改為:

def parse_topic(self, response): selector = Selector(response) content_list = selector.xpath("http://*[@class='postcontent ubbcode']") for content in content_list: content = content.xpath('string(.)').extract_first() ## 以上是原內容 ## 創建個ContentItem對象把我們爬取的東西放進去 item = ContentItem() item["url"] = response.url item["content"] = content item["author"] = "" ## 略 ## 這樣調用就可以了 ## scrapy會把這個item交給我們剛剛寫的FilePipeline來處理 yield item

3.在配置文件里指定這個pipeline

找到settings.py文件,在里面加入

ITEM_PIPELINES = { 'miao.pipelines.FilePipeline': 400, }

這樣在爬蟲里調用

yield item

的時候都會由經這個FilePipeline來處理。后面的數字400表示的是優先級。

可以在此配置多個Pipeline,scrapy會根據優先級,把item依次交給各個item來處理,每個處理完的結果會傳遞給下一個pipeline來處理。

可以這樣配置多個pipeline:

ITEM_PIPELINES = { 'miao.pipelines.Pipeline00': 400, 'miao.pipelines.Pipeline01': 401, 'miao.pipelines.Pipeline02': 402, 'miao.pipelines.Pipeline03': 403, ## ... }

Middleware——中間件

通過Middleware我們可以對請求信息作出一些修改,比如常用的設置UA、代理、登錄信息等等都可以通過Middleware來配置。

0.Middleware的配置

與pipeline的配置類似,在setting.py中加入Middleware的名字,例如

DOWNLOADER_MIDDLEWARES = { "miao.middleware.UserAgentMiddleware": 401, "miao.middleware.ProxyMiddleware": 402, }

1.破網站查UA, 我要換UA

某些網站不帶UA是不讓訪問的。

在miao文件夾下面建立一個middleware.py

import randomagents = [ "Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/532.5 (KHTML, like Gecko) Chrome/4.0.249.0 Safari/532.5", "Mozilla/5.0 (Windows; U; Windows NT 5.2; en-US) AppleWebKit/532.9 (KHTML, like Gecko) Chrome/5.0.310.0 Safari/532.9", "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US) AppleWebKit/534.7 (KHTML, like Gecko) Chrome/7.0.514.0 Safari/534.7", "Mozilla/5.0 (Windows; U; Windows NT 6.0; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/9.0.601.0 Safari/534.14", "Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/10.0.601.0 Safari/534.14", "Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.20 (KHTML, like Gecko) Chrome/11.0.672.2 Safari/534.20", "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/534.27 (KHTML, like Gecko) Chrome/12.0.712.0 Safari/534.27", "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/13.0.782.24 Safari/535.1",]class UserAgentMiddleware(object): def process_request(self, request, spider): agent = random.choice(agents) request.headers["User-Agent"] = agent

這里就是一個簡單的隨機更換UA的中間件,agents的內容可以自行擴充。

2.破網站封IP,我要用代理

比如本地127.0.0.1開啟了一個8123端口的代理,同樣可以通過中間件配置讓爬蟲通過這個代理來對目標網站進行爬取。

同樣在middleware.py中加入:

class ProxyMiddleware(object): def process_request(self, request, spider): # 此處填寫你自己的代理 # 如果是買的代理的話可以去用API獲取代理列表然后隨機選擇一個 proxy = "http://127.0.0.1:8123" request.meta["proxy"] = proxy

很多網站會對訪問次數進行限制,如果訪問頻率過高的話會臨時禁封IP。

如果需要的話可以從網上購買IP,一般服務商會提供一個API來獲取當前可用的IP池,選一個填到這里就好。

一些常用配置

在settings.py中的一些常用配置

# 間隔時間,單位秒。指明scrapy每兩個請求之間的間隔。DOWNLOAD_DELAY = 5# 當訪問異常時是否進行重試RETRY_ENABLED = True# 當遇到以下http狀態碼時進行重試RETRY_HTTP_CODES = [500, 502, 503, 504, 400, 403, 404, 408]# 重試次數RETRY_TIMES = 5# Pipeline的并發數。同時最多可以有多少個Pipeline來處理itemCONCURRENT_ITEMS = 200# 并發請求的最大數CONCURRENT_REQUESTS = 100# 對一個網站的最大并發數CONCURRENT_REQUESTS_PER_DOMAIN = 50# 對一個IP的最大并發數CONCURRENT_REQUESTS_PER_IP = 50

我就是要用Pycharm

如果非要用Pycharm作為開發調試工具的話可以在運行配置里進行如下配置:

Configuration頁面:

Script填你的scrapy的cmdline.py路徑,比如我的是

/usr/local/lib/python2.7/dist-packages/scrapy/cmdline.py

然后在Scrpit parameters中填爬蟲的名字,本例中即為:

crawl NgaSpider

最后是Working diretory,找到你的settings.py文件,填這個文件所在的目錄。

示例:

Python爬蟲速成指南讓你快速的學會寫一個最簡單的爬蟲

按小綠箭頭就可以愉快地調試了。

參考

這里提供了對scrapy非常詳細的介紹。

http://scrapy-chs.readthedocs.io/zh_CN/0.24/

以下是幾個比較重要的地方:

scrapy的架構:

http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/architecture.html

xpath語法:

http://www.w3school.com.cn/xpath/xpath_syntax.asp

Pipeline管道配置:

http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/item-pipeline.html

Middleware中間件的配置:

http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/downloader-middleware.html

settings.py的配置:

http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/settings.html

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • IDE
    IDE
    +關注

    關注

    0

    文章

    346

    瀏覽量

    47369
  • python
    +關注

    關注

    56

    文章

    4822

    瀏覽量

    85896
  • 爬蟲
    +關注

    關注

    0

    文章

    83

    瀏覽量

    7288

原文標題:從零開始的 Python 爬蟲速成指南

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    Python數據爬蟲學習內容

    ,利用爬蟲,我們可以解決部分數據問題,那么,如何學習Python數據爬蟲能?1.學習Python基礎知識并實現基本的爬蟲過程
    發表于 05-09 17:25

    Python爬蟲與Web開發庫盤點

    的接口,般我們都是和正則結合使用,如果對速度有要求的話,建議用lmxp,它比bs4 速度要快很多。2.Scrapy爬蟲的世界里面有沒有懶人專用的框架,當然有啦,scrapy就是其中比較有名的,可以快速
    發表于 05-10 15:21

    Python 爬蟲:8 常用的爬蟲技巧總結!

    python也差不多年多了,python應用最多的場景還是web快速開發、爬蟲自動化運維:寫過簡單
    發表于 01-02 14:37

    什么是爬蟲?

    什么是爬蟲爬蟲的價值?最簡單python爬蟲爬蟲基本架構
    發表于 11-05 06:13

    0基礎入門Python爬蟲實戰課

    大數據時代,有兩種技能可以給自己增加競爭優勢。種是數據分析,旨在挖掘數據的價值,做出最佳決策;另種是數據獲取,即爬蟲。學會它,相當于在數據時代掌握了攫取能源的最有效方式。谷歌百度等
    發表于 07-25 09:28

    Python爬蟲簡介與軟件配置

    Python爬蟲練習、爬蟲簡介1. 介紹2. 軟件配置二、爬取南陽理工OJ題目三、爬取學校信息通知四、總結五、參考、
    發表于 01-11 06:32

    python網絡爬蟲概述

    、MySQL、MongoDB、Redis …關于爬蟲的合法性幾乎每個網站都有名為robots.txt的文檔,當然也有有些網站沒有設定。對于沒有設定robots.txt的網站可以通過網絡爬蟲
    發表于 03-21 16:51

    完全自學指南Python爬蟲BeautifulSoup詳解

    完全自學指南Python爬蟲BeautifulSoup詳解
    發表于 09-07 08:55 ?39次下載
    完全自學<b class='flag-5'>指南</b><b class='flag-5'>Python</b><b class='flag-5'>爬蟲</b>BeautifulSoup詳解

    Python爬蟲8常用的爬蟲技巧分析總結

    python也差不多年多了,python應用最多的場景還是web快速開發、爬蟲、自動化運維:寫過簡單
    的頭像 發表于 08-18 11:45 ?5233次閱讀

    python爬蟲入門教程之python爬蟲視頻教程分布式爬蟲打造搜索引擎

    本文檔的主要內容詳細介紹的是python爬蟲入門教程之python爬蟲視頻教程分布式爬蟲打造搜索引擎
    發表于 08-28 15:32 ?30次下載

    Python爬蟲 真的會寫爬蟲嗎?

    以為真的會寫爬蟲了嗎?快來看看真正的爬蟲架構!
    的頭像 發表于 05-02 17:02 ?4129次閱讀
    <b class='flag-5'>Python</b><b class='flag-5'>爬蟲</b> <b class='flag-5'>你</b>真的<b class='flag-5'>會寫</b><b class='flag-5'>爬蟲</b>嗎?

    python實現簡單爬蟲的資料說明

    本文檔的主要內容詳細介紹的是python實現簡單爬蟲的資料說明。
    發表于 11-02 17:53 ?21次下載
    <b class='flag-5'>python</b>實現<b class='flag-5'>簡單</b><b class='flag-5'>爬蟲</b>的資料說明

    Python寫網絡爬蟲

    Python寫網絡爬蟲的方法說明。
    發表于 06-01 11:55 ?21次下載

    利用Python編寫簡單網絡爬蟲實例

    利用 Python編寫簡單網絡爬蟲實例2 實驗環境python版本:3.3.5(2.7下報錯
    發表于 02-24 11:05 ?14次下載

    如何解決Python爬蟲中文亂碼問題?Python爬蟲中文亂碼的解決方法

    Python爬蟲中文亂碼問題。 、了解字符編碼 在解決亂碼問題之前,我們首先需要了解些基本的字符編碼知識。常見的字符編碼有ASCII、UTF-8和GBK等。 1. ASCII:是
    的頭像 發表于 01-12 15:11 ?2913次閱讀
    主站蜘蛛池模板: 狠狠色丁香久久综合五月 | 国产美女主播在线 | 国产香蕉视频在线观看 | 欧美猛交xxxx乱大交 | 免费国产h视频在线观看 | 女bbbbxxxx毛片视频0 | 一区二区三区四区欧美 | 日韩特黄 | 久久久久久夜精品精品免费 | 成年女人毛片免费观看97 | 久久综合九色综合欧美播 | 国产精品午夜国产小视频 | 人人公开免费超级碰碰碰视频 | 久久艹免费视频 | 亚洲网站一区 | 一级做a爰片久久毛片毛片 一级做a爰片久久毛片美女图片 | 添人人躁日日躁夜夜躁夜夜揉 | 国产精品入口免费视频 | 把小嫩嫩曰出白浆 | 美女黄页在线观看 | fc2 ppv sss级素人美女 | 欧美无遮挡一区二区三区 | 中文字幕在线第一页 | 天天玩夜夜操 | 伊人久久精品成人网 | 亚洲天天做日日做天天看2018 | 欧美成人伊人久久综合网 | 天天操天天摸天天爽 | 亚洲一区二区三区免费看 | 天天操夜夜艹 | 亚洲欧美日韩色图 | 丁香啪啪天堂激情婷婷 | 2021色噜噜狠狠综曰曰曰 | 国产单男 | 香港经典a毛片免费观看爽爽影院 | 99久久999久久久综合精品涩 | 亚洲三级小视频 | 伊人精品视频在线 | 免费人成黄页在线观看日本 | 一区二区不卡免费视频 | 欧美日韩高清一本大道免费 |