国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

13、web爬蟲講解2—Scrapy框架爬蟲—Scrapy爬取百度新聞,爬取Ajax動態生成的信息

Blackjun / 2437人閱讀

摘要:百度云搜索,搜各種資料搜網盤,搜各種資料爬取百度新聞,爬取動態生成的信息,抓取百度新聞首頁的新聞地址有多網站,當你瀏覽器訪問時看到的信息,在源文件里卻找不到,由得信息還是滾動條滾動到對應的位置后才顯示信息,那么這種一般都是的動態請求生成的信

【百度云搜索,搜各種資料:http://www.bdyss.cn】
【搜網盤,搜各種資料:http://www.swpan.cn】

crapy爬取百度新聞,爬取Ajax動態生成的信息,抓取百度新聞首頁的新聞rul地址

有多網站,當你瀏覽器訪問時看到的信息,在html源文件里卻找不到,由得信息還是滾動條滾動到對應的位置后才顯示信息,那么這種一般都是 js 的?Ajax 動態請求生成的信息

我們以百度新聞為列:

1、分析網站

首先我們瀏覽器打開百度新聞,在網頁中間部分找一條新聞信息

然后查看源碼,看看在源碼里是否有這條新聞,可以看到源文件里沒有這條信息,這種情況爬蟲是無法爬取到信息的

那么我們就需要抓包分析了,啟動抓包軟件和抓包瀏覽器,前后有說過軟件了,就不在說了,此時我們經過抓包看到這條信息是通過Ajax動態生成的JSON數據,也就是說,當html頁面加載完成后才生成的,所有我們在源文件里無法找到,當然爬蟲也找不到

我們首先將這個JSON數據網址拿出來,到瀏覽器看看,我們需要的數據是不是全部在里面,此時我們看到這次請求里只有 17條信息,顯然我們需要的信息不是完全在里面,還得繼續看看其他js包

我們將抓包瀏覽器滾動條拉到底,以便觸發所有js請求,然后在繼續找js包,我們將所有js包都找完了再也沒看到新聞信息的包了

那信息就不在js包里了,我們回頭在看看其他類型的請求,此時我們看到很多get請求響應的是我們需要的新聞信息,說明只有第一次那個Ajax請求返回的JSON數據,后面的Ajax請求返回的都是html類型的字符串數據,

我們將Ajax請求返回的JSON數據的網址和Ajax請求返回html類型的字符串數據網址,拿來做一下比較看看是否能找到一定規律,

此時我們可以看到,JSON數據的網址和html類型的字符串數據網址是一個請求地址,

只是請求時傳遞的參數不一樣而已,那么說明無論返回的什么類型的數據,都是在一個請求地址處理的,只是根據不同的傳參返回不同類型的數據而已

http://news.baidu.com/widget?id=LocalNews&ajax=json&t=1501348444467???JSON數據的網址

http://news.baidu.com/widget?id=civilnews&t=1501348728134????????html類型的字符串數據網址

http://news.baidu.com/widget?id=InternationalNews&t=1501348728196????html類型的字符串數據網址

我們可以將html類型的字符串數據網址加上JSON數據的網址參數,那是否會返回JSON數據類型?試一試,果然成功了

http://news.baidu.com/widget?id=civilnews&ajax=json????????將html類型的字符串數據網址加上JSON數據的網址參數

http://news.baidu.com/widget?id=InternationalNews&ajax=json????將html類型的字符串數據網址加上JSON數據的網址參數

這下就好辦了,找到所有的html類型的字符串數據網址,按照上面的方法將其轉換成JSON數據的網址,然后循環的去訪問轉換后的JSON數據的網址,就可以拿到所有新聞的url地址了

crapy實現

#?-*-?coding:?utf-8?-*-
import?scrapy
from?scrapy.http?import?Request,FormRequest
import?re
import?json
from?adc.items?import?AdcItem
from?scrapy.selector?import?Selector

class?PachSpider(scrapy.Spider):????????????????????????????#定義爬蟲類,必須繼承scrapy.Spider
????name?=?"pach"???????????????????????????????????????????#設置爬蟲名稱
????allowed_domains?=?["news.baidu.com"]????????????????????#爬取域名
????start_urls?=?["http://news.baidu.com/widget?id=civilnews&ajax=json"]

????qishiurl?=?[????????????????????#的到所有頁面id
????????"InternationalNews",
????????"FinanceNews",
????????"EnterNews",
????????"SportNews",
????????"AutoNews",
????????"HouseNews",
????????"InternetNews",
????????"InternetPlusNews",
????????"TechNews",
????????"EduNews",
????????"GameNews",
????????"DiscoveryNews",
????????"HealthNews",
????????"LadyNews",
????????"SocialNews",
????????"MilitaryNews",
????????"PicWall"
????]

????urllieb?=?[]
????for?i?in?range(0,len(qishiurl)):????????????#構造出所有idURL
????????kaishi_url?=?"http://news.baidu.com/widget?id="?+?qishiurl[i]?+?"&ajax=json"
????????urllieb.append(kaishi_url)
????#?print(urllieb)

????def?parse(self,?response):??????????????????#選項所有連接
????????for?j?in?range(0,?len(self.urllieb)):
????????????a?=?"正在處理第%s個欄目:url地址是:%s"?%?(j,?self.urllieb[j])
????????????yield?scrapy.Request(url=self.urllieb[j],?callback=self.enxt)?????#每次循環到的url?添加爬蟲

????def?enxt(self,?response):
????????neir?=?response.body.decode("utf-8")
????????pat2?=?""m_url":"(.*?)""
????????url?=?re.compile(pat2,?re.S).findall(neir)??????#通過正則獲取爬取頁面?的URL
????????for?k?in?range(0,len(url)):
????????????zf_url?=?url[k]
????????????url_zf?=?re.sub("/",?"/",?zf_url)
????????????pduan?=?url_zf.find("http://")
????????????if?pduan?==?0:
????????????????print(url_zf)???????????????????????#輸出獲取到的所有url

【轉載自:http://www.lqkweb.com】

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/45075.html

相關文章

  • 首次公開,整理12年積累博客收藏夾,零距離展示《收藏夾吃灰》系列博客

    摘要:時間永遠都過得那么快,一晃從年注冊,到現在已經過去了年那些被我藏在收藏夾吃灰的文章,已經太多了,是時候把他們整理一下了。那是因為收藏夾太亂,橡皮擦給設置私密了,不收拾不好看呀。 ...

    Harriet666 評論0 收藏0
  • scrapy-redis分布式爬蟲框架詳解

    摘要:分布式爬蟲框架詳解隨著互聯網技術的發展與應用的普及,網絡作為信息的載體,已經成為社會大眾參與社會生活的一種重要信息渠道。下載器中間件位于引擎和下載器之間的框架,主要是處理引擎與下載器之間的請求及響應。 scrapy-redis分布式爬蟲框架詳解 隨著互聯網技術的發展與應用的普及,網絡作為信息的載體,已經成為社會大眾參與社會生活的一種重要信息渠道。由于互聯網是開放的,每個人都可以在網絡上...

    myeveryheart 評論0 收藏0
  • 11、web爬蟲講解2Scrapy框架爬蟲Scrapy使用

    摘要:百度云搜索,搜各種資料搜網盤,搜各種資料表達式表示向下查找層指定標簽,如表示查找所有標簽表示向下查找一層指定的標簽表示查找指定屬性的值可以連綴如屬性名稱屬性值表示查找指定屬性等于指定值的標簽可以連綴,如查找名稱等于指定名稱的標簽獲取標簽文本 【百度云搜索,搜各種資料:http://www.lqkweb.com】 【搜網盤,搜各種資料:http://www.swpan.cn】 xpath...

    trilever 評論0 收藏0
  • 10、web爬蟲講解2Scrapy框架爬蟲Scrapy安裝—Scrapy指令

    摘要:負責處理被提取出來的。典型的處理有清理驗證及持久化例如存取到數據庫知識庫項目的設置文件實現自定義爬蟲的目錄中間件是在引擎及之間的特定鉤子,處理的輸入和輸出及。 【百度云搜索:http://www.bdyss.com】 【搜網盤:http://www.swpan.cn】 Scrapy框架安裝 1、首先,終端執行命令升級pip: python -m pip install --upgrad...

    OnlyMyRailgun 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<