摘要:基輔特錦賽正在進(jìn)行,上班時(shí)候又不能看比賽,打開(kāi)游戲網(wǎng)站吧,也不太好,寫(xiě)了個(gè)小腳本抓取上的比分扳,看下比賽結(jié)果,也是極好的吧。。。
Dota2基輔特錦賽正在進(jìn)行,上班時(shí)候又不能看比賽,打開(kāi)游戲網(wǎng)站吧,也不太好,寫(xiě)了個(gè)小腳本抓取178上的比分扳,看下比賽結(jié)果,也是極好的吧。。。
比分扳的數(shù)據(jù)是js生成的,那就直接傳入?yún)?shù),獲取內(nèi)容
仔細(xì)一看這參數(shù)還挺多,Headers中參數(shù)標(biāo)簽
再窗口中直接打開(kāi)連接:
使用正則查找數(shù)據(jù)吧
from bs4 import BeautifulSoup import re import requests data={ "endpoint":"three", "ids":"100000282,100000930,100000924,100000918,100000843", "callback":"jQuery112408214716044557848_1493194419017", "_":"1493194419018" } web_data = requests.get("http://wxapi.178.com/vpgame_proxy.php",params=data) soup = BeautifulSoup(web_data.text,"lxml") event_list = str(soup).split("}]}}")[:-1] def get_events(strings): events_name = re.findall(r""tournamentName":"(.*?)"",strings) events_date = re.findall(r"(d{4}-d{2}-d{2})",strings) events_status = re.findall(r""status":"(w+)"",strings) l_teams = re.findall(r""leftTeam":"(.*?)"",strings) r_teams = re.findall(r""rightTeam":"(.*?)"",strings) l_scores = re.findall(r""leftTeamScore":"(d+)"",strings) r_scores = re.findall(r""rightTeamScore":"(d+)"",strings) print("|{0!s: ^37s}|{1!s: ^20s}|".format(events_name[0], events_date[0])) print("{:-^60}".format("-")) for events_statu,l_team,l_score,r_score,r_team in zip(events_status,l_teams,l_scores,r_scores,r_teams): print("|{0!s: ^8s}|{1!s: ^20}| {2!s: ^1s} - {3!s: ^1s} |{4!s: ^20s}|".format(events_statu,l_team,l_score,r_score, r_team)) for i in event_list: get_events(i) print("{:-^60}".format("-"))
執(zhí)行結(jié)果
寫(xiě)的比較粗糙,也沒(méi)有進(jìn)行排序,湊合用吧
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://m.hztianpu.com/yun/38618.html
摘要:獲取場(chǎng)次以及分?jǐn)?shù)合集比如比分對(duì)應(yīng)代碼表對(duì)應(yīng)對(duì)應(yīng)勝其他對(duì)應(yīng)平其他對(duì)應(yīng)負(fù)其他因此場(chǎng)次和比分結(jié)合為,場(chǎng)次信息比分標(biāo)題勝其他平其他負(fù)其他場(chǎng)次比分之后遍歷得到結(jié)果集如場(chǎng)次為位數(shù)字,第一個(gè)為主場(chǎng)比分,中間為冒號(hào),最后一個(gè)為客場(chǎng)比分平其他 #encoding:utf-8 import urllib2 from bs4 import BeautifulSoup website = http://ca...
摘要:極簡(jiǎn)爬蟲(chóng)攻防戰(zhàn)紀(jì)要爬蟲(chóng)是構(gòu)建搜索引擎的基礎(chǔ)負(fù)責(zé)抓取網(wǎng)頁(yè)信息并對(duì)網(wǎng)頁(yè)識(shí)別分類及過(guò)濾。爬蟲(chóng)方終于鎖定了第一場(chǎng)戰(zhàn)役的勝局由于斷崖式技術(shù)的出現(xiàn),反爬方在瀏覽器識(shí)別戰(zhàn)役上望風(fēng)披靡。經(jīng)過(guò)反爬方的精心運(yùn)作,逐漸有效削弱了敵方的攻勢(shì)。 極簡(jiǎn)爬蟲(chóng)攻防戰(zhàn)紀(jì)要 ? ??爬蟲(chóng)是構(gòu)建搜索引擎的基礎(chǔ), 負(fù)責(zé)抓取網(wǎng)頁(yè)信息并對(duì)網(wǎng)頁(yè)識(shí)別、分類及過(guò)濾。我們熟識(shí)的電商、搜索、新聞及各大門(mén)戶網(wǎng)站都有強(qiáng)大的爬蟲(chóng)集群在每...
摘要:所以我不得不做的就是把每天的賠率數(shù)據(jù)導(dǎo)入到我自己的數(shù)據(jù)庫(kù),根據(jù)一定的運(yùn)算法則,將可能性篩選出來(lái),然后我再做進(jìn)一步的判斷。 首先,我擁有這個(gè)導(dǎo)入賠率的需求,并且,我需要的是所有的數(shù)據(jù)賠率,我需要把某些臟賠率(極有可能不會(huì)出現(xiàn)的賠率,誤導(dǎo)彩迷的賠率)刪除,并且我需要知道這些賠率的比分,刪除這些賠率,可以逆推正確比分以及賠率的區(qū)間。 所以我不得不做的就是把每天的賠率數(shù)據(jù)導(dǎo)入到...
摘要:百度云搜索搜網(wǎng)盤(pán)淘寶券使用代理格式化,第一個(gè)參數(shù),請(qǐng)求目標(biāo)可能是或者對(duì)應(yīng)設(shè)置初始化將代理設(shè)置成全局當(dāng)使用請(qǐng)求時(shí)自動(dòng)使用代理引入隨機(jī)模塊文件格式化注意第一個(gè)參數(shù)可能是或者,對(duì)應(yīng)設(shè)置初始化將代理設(shè)置成全局當(dāng)使用請(qǐng)求時(shí)自動(dòng)使用代理請(qǐng)求 【百度云搜索:http://bdy.lqkweb.com】 【搜網(wǎng)盤(pán):http://www.swpan.cn】 【淘寶券:http://www.tbquan....
閱讀 1345·2021-09-22 15:18
閱讀 2676·2021-09-22 15:17
閱讀 2285·2019-08-30 15:55
閱讀 1625·2019-08-30 15:54
閱讀 1116·2019-08-30 13:12
閱讀 669·2019-08-30 13:12
閱讀 1729·2019-08-29 11:33
閱讀 1488·2019-08-26 17:04