成人无码视频,亚洲精品久久久久av无码,午夜精品久久久久久毛片,亚洲 中文字幕 日韩 无码

資訊專欄INFORMATION COLUMN

Python即時(shí)網(wǎng)絡(luò)爬蟲項(xiàng)目: 內(nèi)容提取器的定義

KunMinX / 1954人閱讀

摘要:集搜客從文件讀取從字符串獲得通過接口獲得返回當(dāng)前提取方法,入?yún)⑹且粋€(gè)對(duì)象,返回是提取結(jié)果用法示例下面是一個(gè)示例程序,演示怎樣使用類提取官網(wǎng)的帖子列表。

1. 項(xiàng)目背景

在python 即時(shí)網(wǎng)絡(luò)爬蟲項(xiàng)目啟動(dòng)說明中我們討論一個(gè)數(shù)字:程序員浪費(fèi)在調(diào)測內(nèi)容提取規(guī)則上的時(shí)間,從而我們發(fā)起了這個(gè)項(xiàng)目,把程序員從繁瑣的調(diào)測規(guī)則中解放出來,投入到更高端的數(shù)據(jù)處理工作中。

2. 解決方案

為了解決這個(gè)問題,我們把影響通用性和工作效率的提取器隔離出來,描述了如下的數(shù)據(jù)處理流程圖:

圖中“可插拔提取器”必須很強(qiáng)的模塊化,那么關(guān)鍵的接口有:

標(biāo)準(zhǔn)化的輸入:以標(biāo)準(zhǔn)的HTML DOM對(duì)象為輸入

標(biāo)準(zhǔn)化的內(nèi)容提?。菏褂脴?biāo)準(zhǔn)的xslt模板提取網(wǎng)頁內(nèi)容

標(biāo)準(zhǔn)化的輸出:以標(biāo)準(zhǔn)的XML格式輸出從網(wǎng)頁上提取到的內(nèi)容

明確的提取器插拔接口:提取器是一個(gè)明確定義的類,通過類方法與爬蟲引擎模塊交互

3. 提取器代碼

可插拔提取器是即時(shí)網(wǎng)絡(luò)爬蟲項(xiàng)目的核心組件,定義成一個(gè)類: gsExtractor
python源代碼文件及其說明文檔請(qǐng)從 github 下載

使用模式是這樣的:

實(shí)例化一個(gè)gsExtractor對(duì)象

為這個(gè)對(duì)象設(shè)定xslt提取器,相當(dāng)于把這個(gè)對(duì)象配置好(使用三類setXXX()方法)

把html dom輸入給它,就能獲得xml輸出(使用extract()方法)

下面是這個(gè)gsExtractor類的源代碼

#!/usr/bin/python
# -*- coding: utf-8 -*-
# 模塊名: gooseeker
# 類名: gsExtractor
# Version: 2.0
# 說明: html內(nèi)容提取器
# 功能: 使用xslt作為模板,快速提取HTML DOM中的內(nèi)容。
# released by 集搜客(http://www.gooseeker.com) on May 18, 2016
# github: https://github.com/FullerHua/jisou/core/gooseeker.py

from urllib import request
from urllib.parse import quote
from lxml import etree
import time

class gsExtractor(object):
    def _init_(self):
        self.xslt = ""
    # 從文件讀取xslt
    def setXsltFromFile(self , xsltFilePath):
        file = open(xsltFilePath , "r" , encoding="UTF-8")
        try:
            self.xslt = file.read()
        finally:
            file.close()
    # 從字符串獲得xslt
    def setXsltFromMem(self , xsltStr):
        self.xslt = xsltStr
    # 通過GooSeeker API接口獲得xslt
    def setXsltFromAPI(self , APIKey , theme, middle=None, bname=None):
        apiurl = "http://www.gooseeker.com/api/getextractor?key="+ APIKey +"&theme="+quote(theme)
        if (middle):
            apiurl = apiurl + "&middle="+quote(middle)
        if (bname):
            apiurl = apiurl + "&bname="+quote(bname)
        apiconn = request.urlopen(apiurl)
        self.xslt = apiconn.read()
    # 返回當(dāng)前xslt
    def getXslt(self):
        return self.xslt
    # 提取方法,入?yún)⑹且粋€(gè)HTML DOM對(duì)象,返回是提取結(jié)果
    def extract(self , html):
        xslt_root = etree.XML(self.xslt)
        transform = etree.XSLT(xslt_root)
        result_tree = transform(html)
        return result_tree
4. 用法示例

下面是一個(gè)示例程序,演示怎樣使用gsExtractor類提取GooSeeker官網(wǎng)的bbs帖子列表。本示例有如下特征:

提取器所用的xslt模板提前放在文件中:xslt_bbs.xml

僅作為示例,實(shí)際使用場景中,xslt來源有多個(gè),最主流的來源是GooSeeker平臺(tái)上的api

在控制臺(tái)界面上打印出提取結(jié)果

下面是源代碼,都可從 github 下載

#-*_coding:utf8-*-
# 使用gsExtractor類的示例程序
# 訪問集搜客論壇,以xslt為模板提取論壇內(nèi)容
# xslt保存在xslt_bbs.xml中
from urllib import request
from lxml import etree
from gooseeker import gsExtractor

# 訪問并讀取網(wǎng)頁內(nèi)容
url = "http://www.gooseeker.com/cn/forum/7"
conn = request.urlopen(url)
doc = etree.HTML(conn.read())

# 生成xsltExtractor對(duì)象
bbsExtra = gsExtractor()
# 調(diào)用set方法設(shè)置xslt內(nèi)容
bbsExtra.setXsltFromFile("xslt_bbs.xml")
# 調(diào)用extract方法提取所需內(nèi)容
result = bbsExtra.extract(doc)
# 顯示提取結(jié)果
print(str(result))

提取結(jié)果如下圖所示:

5. 接下來閱讀

本文已經(jīng)說明了提取器的價(jià)值和用法,但是沒有說怎樣生成它,只有快速生成提取器才能達(dá)到節(jié)省開發(fā)者時(shí)間的目的,這個(gè)問題將在其他文章講解,請(qǐng)看《1分鐘快速生成用于網(wǎng)頁內(nèi)容提取的xslt》。

6. 集搜客GooSeeker開源代碼下載源

1.GooSeeker開源Python網(wǎng)絡(luò)爬蟲GitHub源

7. 文檔修改歷史

2016-05-26:V2.0,增補(bǔ)項(xiàng)目背景介紹和價(jià)值說明
2016-05-27:V2.1,實(shí)現(xiàn)了提取器類的從GooSeeker API接口獲取xslt的方法
2016-05-29:V2.2,增加第六章:源代碼下載源,并更換github源的網(wǎng)址
2016-06-03:V2.3,提取器代碼更新為2.0。支持同一主題下多規(guī)則或多整理箱的情況,通過API方式獲取xslt時(shí)可以傳入?yún)?shù)“規(guī)則編號(hào)”和“整理箱名稱”

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://m.hztianpu.com/yun/37966.html

相關(guān)文章

  • Python即時(shí)網(wǎng)絡(luò)爬蟲項(xiàng)目: 內(nèi)容提取器的定義(Python2.7版本)

    摘要:然而,和是有區(qū)別的,即時(shí)網(wǎng)絡(luò)爬蟲項(xiàng)目內(nèi)容提取器的定義一文的源碼無法在下使用,本文將發(fā)布一個(gè)的內(nèi)容提取器。 1. 項(xiàng)目背景 showImg(https://segmentfault.com/img/bVz5hX); 在Python即時(shí)網(wǎng)絡(luò)爬蟲項(xiàng)目啟動(dòng)說明中我們討論一個(gè)數(shù)字:程序員浪費(fèi)在調(diào)測內(nèi)容提取規(guī)則上的時(shí)間太多了(見上圖),從而我們發(fā)起了這個(gè)項(xiàng)目,把程序員從繁瑣的調(diào)測規(guī)則中解放出來,投...

    xuxueli 評(píng)論0 收藏0
  • Python即時(shí)網(wǎng)絡(luò)爬蟲:API說明

    摘要:用于數(shù)據(jù)分析和數(shù)據(jù)挖掘的網(wǎng)絡(luò)爬蟲程序中,內(nèi)容提取器是影響通用性的關(guān)鍵障礙,如果這個(gè)提取器是從獲得的,您的網(wǎng)絡(luò)爬蟲程序就能寫成通用的框架。,相關(guān)文檔,即時(shí)網(wǎng)絡(luò)爬蟲項(xiàng)目內(nèi)容提取器的定義,集搜客開源代碼下載源,開源網(wǎng)絡(luò)爬蟲源,文檔修改歷史, showImg(https://segmentfault.com/img/bVynLk); API說明——下載gsExtractor內(nèi)容提取器 1,接口...

    genefy 評(píng)論0 收藏0
  • 讓Scrapy的Spider更通用

    摘要:而分配任務(wù)的是會(huì)員中心的爬蟲羅盤,實(shí)現(xiàn)集中管理分布執(zhí)行。開源即時(shí)網(wǎng)絡(luò)爬蟲項(xiàng)目同樣也要盡量實(shí)現(xiàn)通用化。網(wǎng)址和提取規(guī)則本來應(yīng)該硬編碼到中的,現(xiàn)在隔離出來,由會(huì)員中心進(jìn)行管理,那么就很容易做通用了。 showImg(https://segmentfault.com/img/bVyEnS); 1,引言 《Scrapy的架構(gòu)初探》一文所講的Spider是整個(gè)架構(gòu)中最定制化的一個(gè)部件,Spider...

    MartinDai 評(píng)論0 收藏0
  • Python爬蟲實(shí)戰(zhàn)(1):爬取Drupal論壇帖子列表

    摘要:,引言在即時(shí)網(wǎng)絡(luò)爬蟲項(xiàng)目內(nèi)容提取器的定義一文我們定義了一個(gè)通用的網(wǎng)絡(luò)爬蟲類,期望通過這個(gè)項(xiàng)目節(jié)省程序員一半以上的時(shí)間。本文將用一個(gè)實(shí)例講解怎樣使用這個(gè)爬蟲類。我們將爬集搜客老版論壇,是一個(gè)用做的論壇。 showImg(https://segmentfault.com/img/bVxTdG); 1,引言 在《Python即時(shí)網(wǎng)絡(luò)爬蟲項(xiàng)目: 內(nèi)容提取器的定義》一文我們定義了一個(gè)通用的pyt...

    李文鵬 評(píng)論0 收藏0
  • Python爬蟲實(shí)戰(zhàn)(4):豆瓣小組話題數(shù)據(jù)采集—?jiǎng)討B(tài)網(wǎng)頁

    摘要:,引言注釋上一篇爬蟲實(shí)戰(zhàn)安居客房產(chǎn)經(jīng)紀(jì)人信息采集,訪問的網(wǎng)頁是靜態(tài)網(wǎng)頁,有朋友模仿那個(gè)實(shí)戰(zhàn)來采集動(dòng)態(tài)加載豆瓣小組的網(wǎng)頁,結(jié)果不成功。 showImg(https://segmentfault.com/img/bVzdNZ); 1, 引言 注釋:上一篇《Python爬蟲實(shí)戰(zhàn)(3):安居客房產(chǎn)經(jīng)紀(jì)人信息采集》,訪問的網(wǎng)頁是靜態(tài)網(wǎng)頁,有朋友模仿那個(gè)實(shí)戰(zhàn)來采集動(dòng)態(tài)加載豆瓣小組的網(wǎng)頁,結(jié)果不成功...

    blastz 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

閱讀需要支付1元查看
<