摘要:四爬蟲功能制作是來使用的庫,它的使用方法與差不多,我們通過它發起請求,在回調函數中輸出結果。第一步得到一個的實例第二步定義監聽事件的回調函數。
這篇文章主要介紹了NodeJS制作爬蟲的全過程,包括項目建立,目標網站分析、使用superagent獲取源數據、使用cheerio解析、使用eventproxy來并發抓取每個主題的內容等方面,有需要的小伙伴參考下吧。
npm install -g koa-generator
2. 生成一個koa2的項目koa2 -e node-spider -e表示使用ejs模板,具體參照koa生成器,一鍵生成koa和koa2項目
三、目標網站分析如圖,這是CNode首頁一部分div標簽,我們就是通過這一系列的id、class來定位我們需要的信息。
是ajax API來使用的Http庫,它的使用方法與jQuery差不多,我們通過它發起get請求,在回調函數中輸出結果。
var koa = require("koa"); var router = require("koa-router") var url = require("url"); //解析操作url var superagent = require("superagent"); //這三個外部依賴不要忘記npm install var cheerio = require("cheerio"); var eventproxy = require("eventproxy"); var targetUrl = "https://cnodejs.org/"; superagent.get(targetUrl) .end(function (err, res) { console.log(res); });
它的res結果為一個包含目標url信息的對象,網站內容主要在其text(string)里。
2. 使用cheerio解析cheerio充當服務器端的jQuery功能,我們先使用它的.load()來載入HTML,再通過CSS selector來篩選元素。
var $ = cheerio.load(res.text); //通過CSS selector來篩選數據 $("#topic_list .topic_title").each(function (idx, element) { console.log(element); });
其結果為一個個對象,調用 .each(function(index, element))函數來遍歷每一個對象,返回的是HTML DOM Elements。
輸出 console.log($element.attr("title"));的結果為
廣州2014年12月06日 NodeParty 之 UC 場之類的標題
輸出 console.log($element.attr("href"));的結果為
/topic/545c395becbcb78265856eb2之類的url。
再用NodeJS1的url.resolve()函數來補全完整的url。
superagent.get(tUrl) .end(function (err, res) { if (err) { return console.error(err); } var topicUrls = []; var $ = cheerio.load(res.text); // 獲取首頁所有的鏈接 $("#topic_list .topic_title").each(function (idx, element) { var $element = $(element); var href = url.resolve(tUrl, $element.attr("href")); console.log(href); //topicUrls.push(href); }); });3.使用eventproxy來并發抓取
教程上展示了深度嵌套(串行)方法和計數器方法的例子,eventproxy就是使用事件(并行)方法來解決這個問題。當所有的抓取完成后,eventproxy接收到事件消息自動幫你調用處理函數。
//第一步:得到一個 eventproxy 的實例 var ep = new eventproxy(); //第二步:定義監聽事件的回調函數。 //after方法為重復監聽 //params: eventname(String) 事件名,times(Number) 監聽次數, callback 回調函數 ep.after("topic_html", topicUrls.length, function(topics){ // topics 是個數組,包含了 40 次 ep.emit("topic_html", pair) 中的那 40 個 pair //.map topics = topics.map(function(topicPair){ //use cheerio var topicUrl = topicPair[0]; var topicHtml = topicPair[1]; var $ = cheerio.load(topicHtml); return ({ title: $(".topic_full_title").text().trim(), href: topicUrl, comment1: $(".reply_content").eq(0).text().trim() }); }); //outcome console.log("outcome:"); console.log(topics); }); //第三步:確定放出事件消息的 topicUrls.forEach(function (topicUrl) { superagent.get(topicUrl) .end(function (err, res) { console.log("fetch " + topicUrl + " successful"); ep.emit("topic_html", [topicUrl, res.text]); }); });
結果如下
獲取留言用戶名和積分
在文章頁面的源碼找到評論的用戶class名,classname為reply_author。console.log第一個元素 $(".reply_author").get(0)可以看到,我們需要獲取東西都在這里頭。
首先,我們先對一篇文章進行抓取,一次性把需要的都得到即可。
var userHref = url.resolve(tUrl, $(".reply_author").get(0).attribs.href); console.log(userHref); console.log($(".reply_author").get(0).children[0].data);
我們可以通過https://cnodejs.org/user/username抓取積分信息
$(".reply_author").each(function (idx, element) { var $element = $(element); console.log($element.attr("href")); });
在用戶信息頁面 $(".big").text().trim()即為積分信息。
使用cheerio的函數.get(0)為獲取第一個元素。
var userHref = url.resolve(tUrl, $(".reply_author").get(0).attribs.href); console.log(userHref);
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/79689.html
摘要:很基礎,不喜勿噴轉載注明出處爬蟲實戰項目之鏈家效果圖思路爬蟲究竟是怎么實現的通過訪問要爬取的網站地址,獲得該頁面的文檔內容,找到我們需要保存的數據,進一步查看數據所在的元素節點,他們在某方面一定是有規律的,遵循規律,操作,保存數據。 說明 作為一個前端界的小學生,一直想著自己做一些項目向全棧努力。愁人的是沒有后臺,搜羅之后且學會了nodejs和express寫成本地的接口給前端頁面調用...
摘要:很基礎,不喜勿噴轉載注明出處爬蟲實戰項目之鏈家效果圖思路爬蟲究竟是怎么實現的通過訪問要爬取的網站地址,獲得該頁面的文檔內容,找到我們需要保存的數據,進一步查看數據所在的元素節點,他們在某方面一定是有規律的,遵循規律,操作,保存數據。 說明 作為一個前端界的小學生,一直想著自己做一些項目向全棧努力。愁人的是沒有后臺,搜羅之后且學會了nodejs和express寫成本地的接口給前端頁面調用...
摘要:前提本項目地址如果需要,可以到本地打開可直接查看爬蟲數據目標爬取斗魚正在直播的主播數據房間號,在線人數,房間標題,主播名稱,直播分類等等依賴構建安裝包的應用程序框架小型漸進式客戶端請求庫,和模塊具有相同的,具有許多高級客戶端功能可以 前提 本項目github地址:https://github.com/janyin/dou...如果需要,可以clone到本地 $ npm install ...
摘要:年前無心工作,上班刷知乎發現一篇分享爬蟲的文章。另外攜帶的數據是用來告訴服務器當前請求是從哪個頁面請求過來的。 年前無心工作,上班刷知乎發現一篇分享python爬蟲的文章。 感覺他爬取的網站里的妹子都好好看哦,超喜歡這里的,里面個個都是美女。 無小意丶:自我發掘爬蟲實戰1:宅男女神網妹子圖片批量抓取,分類保存到本地和MongoDB數據庫 無奈python雖然入門過但太久沒用早已荒廢,最...
閱讀 3261·2021-11-18 10:02
閱讀 1463·2021-10-12 10:08
閱讀 1264·2021-10-11 10:58
閱讀 1279·2021-10-11 10:57
閱讀 1178·2021-10-08 10:04
閱讀 2133·2021-09-29 09:35
閱讀 783·2021-09-22 15:44
閱讀 1283·2021-09-03 10:30