国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

簡單爬蟲腳本:178上data2比分扳

AnthonyHan / 2386人閱讀

摘要:基輔特錦賽正在進行,上班時候又不能看比賽,打開游戲網(wǎng)站吧,也不太好,寫了個小腳本抓取上的比分扳,看下比賽結(jié)果,也是極好的吧。。。

Dota2基輔特錦賽正在進行,上班時候又不能看比賽,打開游戲網(wǎng)站吧,也不太好,寫了個小腳本抓取178上的比分扳,看下比賽結(jié)果,也是極好的吧。。。

比分扳的數(shù)據(jù)是js生成的,那就直接傳入?yún)?shù),獲取內(nèi)容


仔細(xì)一看這參數(shù)還挺多,Headers中參數(shù)標(biāo)簽

再窗口中直接打開連接:

使用正則查找數(shù)據(jù)吧

from bs4 import BeautifulSoup
import re
import requests

data={
    "endpoint":"three",
    "ids":"100000282,100000930,100000924,100000918,100000843",
    "callback":"jQuery112408214716044557848_1493194419017",
    "_":"1493194419018"
      }

web_data = requests.get("http://wxapi.178.com/vpgame_proxy.php",params=data)
soup = BeautifulSoup(web_data.text,"lxml")
event_list = str(soup).split("}]}}")[:-1]


def get_events(strings):
    events_name = re.findall(r""tournamentName":"(.*?)"",strings)
    events_date = re.findall(r"(d{4}-d{2}-d{2})",strings)
    events_status = re.findall(r""status":"(w+)"",strings)
    l_teams = re.findall(r""leftTeam":"(.*?)"",strings)
    r_teams = re.findall(r""rightTeam":"(.*?)"",strings)
    l_scores = re.findall(r""leftTeamScore":"(d+)"",strings)
    r_scores = re.findall(r""rightTeamScore":"(d+)"",strings)
    print("|{0!s: ^37s}|{1!s: ^20s}|".format(events_name[0], events_date[0]))
    print("{:-^60}".format("-"))
    
    for events_statu,l_team,l_score,r_score,r_team in zip(events_status,l_teams,l_scores,r_scores,r_teams):
        print("|{0!s: ^8s}|{1!s: ^20}| {2!s: ^1s} - {3!s: ^1s} |{4!s: ^20s}|".format(events_statu,l_team,l_score,r_score, r_team))

for i in event_list:
    get_events(i)
    print("{:-^60}".format("-"))

執(zhí)行結(jié)果

寫的比較粗糙,也沒有進行排序,湊合用吧

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/38618.html

相關(guān)文章

  • [No.003-1]爬蟲網(wǎng)易賠率數(shù)據(jù)并導(dǎo)入到mysql數(shù)據(jù)庫

    摘要:獲取場次以及分?jǐn)?shù)合集比如比分對應(yīng)代碼表對應(yīng)對應(yīng)勝其他對應(yīng)平其他對應(yīng)負(fù)其他因此場次和比分結(jié)合為,場次信息比分標(biāo)題勝其他平其他負(fù)其他場次比分之后遍歷得到結(jié)果集如場次為位數(shù)字,第一個為主場比分,中間為冒號,最后一個為客場比分平其他 #encoding:utf-8 import urllib2 from bs4 import BeautifulSoup website = http://ca...

    Warren 評論0 收藏0
  • 極簡爬蟲攻防戰(zhàn)紀(jì)要

    摘要:極簡爬蟲攻防戰(zhàn)紀(jì)要爬蟲是構(gòu)建搜索引擎的基礎(chǔ)負(fù)責(zé)抓取網(wǎng)頁信息并對網(wǎng)頁識別分類及過濾。爬蟲方終于鎖定了第一場戰(zhàn)役的勝局由于斷崖式技術(shù)的出現(xiàn),反爬方在瀏覽器識別戰(zhàn)役上望風(fēng)披靡。經(jīng)過反爬方的精心運作,逐漸有效削弱了敵方的攻勢。 極簡爬蟲攻防戰(zhàn)紀(jì)要 ? ??爬蟲是構(gòu)建搜索引擎的基礎(chǔ), 負(fù)責(zé)抓取網(wǎng)頁信息并對網(wǎng)頁識別、分類及過濾。我們熟識的電商、搜索、新聞及各大門戶網(wǎng)站都有強大的爬蟲集群在每...

    elliott_hu 評論0 收藏0
  • [No.003-0]爬蟲網(wǎng)易賠率數(shù)據(jù)并導(dǎo)入到mysql數(shù)據(jù)庫

    摘要:所以我不得不做的就是把每天的賠率數(shù)據(jù)導(dǎo)入到我自己的數(shù)據(jù)庫,根據(jù)一定的運算法則,將可能性篩選出來,然后我再做進一步的判斷。 首先,我擁有這個導(dǎo)入賠率的需求,并且,我需要的是所有的數(shù)據(jù)賠率,我需要把某些臟賠率(極有可能不會出現(xiàn)的賠率,誤導(dǎo)彩迷的賠率)刪除,并且我需要知道這些賠率的比分,刪除這些賠率,可以逆推正確比分以及賠率的區(qū)間。 所以我不得不做的就是把每天的賠率數(shù)據(jù)導(dǎo)入到...

    cikenerd 評論0 收藏0
  • 8、web爬蟲講解2—urllib庫爬蟲—ip代理—用戶代理和ip代理結(jié)合應(yīng)用

    摘要:百度云搜索搜網(wǎng)盤淘寶券使用代理格式化,第一個參數(shù),請求目標(biāo)可能是或者對應(yīng)設(shè)置初始化將代理設(shè)置成全局當(dāng)使用請求時自動使用代理引入隨機模塊文件格式化注意第一個參數(shù)可能是或者,對應(yīng)設(shè)置初始化將代理設(shè)置成全局當(dāng)使用請求時自動使用代理請求 【百度云搜索:http://bdy.lqkweb.com】 【搜網(wǎng)盤:http://www.swpan.cn】 【淘寶券:http://www.tbquan....

    mrcode 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<