摘要:基輔特錦賽正在進行,上班時候又不能看比賽,打開游戲網(wǎng)站吧,也不太好,寫了個小腳本抓取上的比分扳,看下比賽結(jié)果,也是極好的吧。。。
Dota2基輔特錦賽正在進行,上班時候又不能看比賽,打開游戲網(wǎng)站吧,也不太好,寫了個小腳本抓取178上的比分扳,看下比賽結(jié)果,也是極好的吧。。。
比分扳的數(shù)據(jù)是js生成的,那就直接傳入?yún)?shù),獲取內(nèi)容
仔細(xì)一看這參數(shù)還挺多,Headers中參數(shù)標(biāo)簽
再窗口中直接打開連接:
使用正則查找數(shù)據(jù)吧
from bs4 import BeautifulSoup import re import requests data={ "endpoint":"three", "ids":"100000282,100000930,100000924,100000918,100000843", "callback":"jQuery112408214716044557848_1493194419017", "_":"1493194419018" } web_data = requests.get("http://wxapi.178.com/vpgame_proxy.php",params=data) soup = BeautifulSoup(web_data.text,"lxml") event_list = str(soup).split("}]}}")[:-1] def get_events(strings): events_name = re.findall(r""tournamentName":"(.*?)"",strings) events_date = re.findall(r"(d{4}-d{2}-d{2})",strings) events_status = re.findall(r""status":"(w+)"",strings) l_teams = re.findall(r""leftTeam":"(.*?)"",strings) r_teams = re.findall(r""rightTeam":"(.*?)"",strings) l_scores = re.findall(r""leftTeamScore":"(d+)"",strings) r_scores = re.findall(r""rightTeamScore":"(d+)"",strings) print("|{0!s: ^37s}|{1!s: ^20s}|".format(events_name[0], events_date[0])) print("{:-^60}".format("-")) for events_statu,l_team,l_score,r_score,r_team in zip(events_status,l_teams,l_scores,r_scores,r_teams): print("|{0!s: ^8s}|{1!s: ^20}| {2!s: ^1s} - {3!s: ^1s} |{4!s: ^20s}|".format(events_statu,l_team,l_score,r_score, r_team)) for i in event_list: get_events(i) print("{:-^60}".format("-"))
執(zhí)行結(jié)果
寫的比較粗糙,也沒有進行排序,湊合用吧
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/38618.html
摘要:獲取場次以及分?jǐn)?shù)合集比如比分對應(yīng)代碼表對應(yīng)對應(yīng)勝其他對應(yīng)平其他對應(yīng)負(fù)其他因此場次和比分結(jié)合為,場次信息比分標(biāo)題勝其他平其他負(fù)其他場次比分之后遍歷得到結(jié)果集如場次為位數(shù)字,第一個為主場比分,中間為冒號,最后一個為客場比分平其他 #encoding:utf-8 import urllib2 from bs4 import BeautifulSoup website = http://ca...
摘要:極簡爬蟲攻防戰(zhàn)紀(jì)要爬蟲是構(gòu)建搜索引擎的基礎(chǔ)負(fù)責(zé)抓取網(wǎng)頁信息并對網(wǎng)頁識別分類及過濾。爬蟲方終于鎖定了第一場戰(zhàn)役的勝局由于斷崖式技術(shù)的出現(xiàn),反爬方在瀏覽器識別戰(zhàn)役上望風(fēng)披靡。經(jīng)過反爬方的精心運作,逐漸有效削弱了敵方的攻勢。 極簡爬蟲攻防戰(zhàn)紀(jì)要 ? ??爬蟲是構(gòu)建搜索引擎的基礎(chǔ), 負(fù)責(zé)抓取網(wǎng)頁信息并對網(wǎng)頁識別、分類及過濾。我們熟識的電商、搜索、新聞及各大門戶網(wǎng)站都有強大的爬蟲集群在每...
摘要:所以我不得不做的就是把每天的賠率數(shù)據(jù)導(dǎo)入到我自己的數(shù)據(jù)庫,根據(jù)一定的運算法則,將可能性篩選出來,然后我再做進一步的判斷。 首先,我擁有這個導(dǎo)入賠率的需求,并且,我需要的是所有的數(shù)據(jù)賠率,我需要把某些臟賠率(極有可能不會出現(xiàn)的賠率,誤導(dǎo)彩迷的賠率)刪除,并且我需要知道這些賠率的比分,刪除這些賠率,可以逆推正確比分以及賠率的區(qū)間。 所以我不得不做的就是把每天的賠率數(shù)據(jù)導(dǎo)入到...
摘要:百度云搜索搜網(wǎng)盤淘寶券使用代理格式化,第一個參數(shù),請求目標(biāo)可能是或者對應(yīng)設(shè)置初始化將代理設(shè)置成全局當(dāng)使用請求時自動使用代理引入隨機模塊文件格式化注意第一個參數(shù)可能是或者,對應(yīng)設(shè)置初始化將代理設(shè)置成全局當(dāng)使用請求時自動使用代理請求 【百度云搜索:http://bdy.lqkweb.com】 【搜網(wǎng)盤:http://www.swpan.cn】 【淘寶券:http://www.tbquan....
閱讀 1269·2021-09-22 15:18
閱讀 2599·2021-09-22 15:17
閱讀 2226·2019-08-30 15:55
閱讀 1573·2019-08-30 15:54
閱讀 1042·2019-08-30 13:12
閱讀 624·2019-08-30 13:12
閱讀 1676·2019-08-29 11:33
閱讀 1438·2019-08-26 17:04