摘要:大快搜索數(shù)據(jù)爬蟲(chóng)技術(shù)實(shí)例安裝教學(xué)篇爬蟲(chóng)安裝前準(zhǔn)備工作大快大數(shù)據(jù)平臺(tái)安裝完成等組件安裝啟動(dòng)成功。
大快搜索數(shù)據(jù)爬蟲(chóng)技術(shù)實(shí)例安裝教學(xué)篇
爬蟲(chóng)安裝前準(zhǔn)備工作:大快大數(shù)據(jù)平臺(tái)安裝完成、zookeeper、redis、elasticsearch、mysql等組件安裝啟動(dòng)成功。
1、修改爬蟲(chóng)安裝配置文件(最好在線下修改好后再上傳平臺(tái))
2、修改crawlerdkcrwjdbc.properties配置文件(只修改圖片里的內(nèi)容其他內(nèi)容默認(rèn)即可)
Hbase.zookeeper.quorum所填地址應(yīng)在DKM監(jiān)控平臺(tái)查看:
Redis相關(guān)配置看如下界面:
3、把已修改的crawlerdkcrw下的jdbc.properties配置文件替換到crawlerdkcrw-tomcat-7.0.56webappsROOTWEB-INFclasses下(這下面有一個(gè)沒(méi)有改好的直接替換)
修改好后把修改好的爬蟲(chóng)文件打壓成壓縮文件
4、上傳平臺(tái)主節(jié)點(diǎn)并解壓(這里就不介紹怎么上傳了的了,本次例子是上傳到root目錄下,安裝包上傳到任何目錄下都可以推選root目錄)
unzip 解壓命令,解壓唱功后會(huì)多了一個(gè) cuawler 的文件夾
使用cd crawler 命令進(jìn)入 crawler 文件夾下
使用mysql -uroot -p123456 < numysql.sql 命令添加numysql.sql數(shù)據(jù)庫(kù)
5、分發(fā)爬蟲(chóng)文件
每個(gè)節(jié)點(diǎn)都需要有dkcrw文件, dkcrw-tomcat-7.0.56文件只能放在一個(gè)節(jié)點(diǎn)上,不能放在主節(jié)點(diǎn)上(推選放在從節(jié)點(diǎn))
命令:
scp -r {要分發(fā)的文件名可填寫(xiě)多個(gè),如果不在要分發(fā)文件的目錄下請(qǐng)?zhí)砑勇窂絵 {分發(fā)到的服務(wù)器ip或名稱:分發(fā)到的路徑}
例如:
cd /opt/dkh
scp -r dkcrw dk2:/opt/dkh/
scp -r dkcrw dkcrw-tomcat-7.0.56/ dk2:/opt/dkh/
6、在分發(fā)了dkcrw-tomcat-7.0.56文件的節(jié)點(diǎn)上給文件添加權(quán)限
命令:
chmod -R 755 {需要給權(quán)限的文件等}
例如:
cd /opt/dkh
chmod -R 755 dkcrw dkcrw-tomcat-7.0.56/
7、啟動(dòng)爬蟲(chóng)界面
命令:
cd /opt/dkh/dkcrw-tomcat-7.0.56/bin/
./startup.sh
啟動(dòng)界面之后再瀏覽器中輸入啟動(dòng)界面節(jié)點(diǎn)的IP,來(lái)打開(kāi)爬蟲(chóng)界面看是否啟動(dòng)成功(賬號(hào)密碼是默認(rèn)的)
8、啟動(dòng)每個(gè)節(jié)點(diǎn)的dkcrw.jar
命令:
主節(jié)點(diǎn)運(yùn)行
cd /opt/dkh/dkcrw/
nohup java -jar dkcrw.jar master > dkcrw.log 2>&1 &
從節(jié)點(diǎn)運(yùn)行
cd /opt/dkh/dkcrw/
nohup java -jar dkcrw.jar slave > dkcrw.log 2>&1 &
注意:可以先使用前臺(tái)啟動(dòng)爬蟲(chóng),確定爬蟲(chóng)沒(méi)錯(cuò)誤。
前臺(tái)啟動(dòng)命令java -jar dkcrw.jar master/slave
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://m.specialneedsforspecialkids.com/yun/72015.html
摘要:作為搭建大數(shù)據(jù)處理平臺(tái)的重要基石,關(guān)于它的分析和講解的文章已經(jīng)有很多了。并且由于是開(kāi)源軟件,其安裝過(guò)程相對(duì)比較復(fù)雜。針對(duì)每個(gè)組建都要配置的這種情況,提供了自動(dòng)化安裝應(yīng)用來(lái)部署。這就大大縮短了的安裝時(shí)間,同時(shí)也簡(jiǎn)化了安裝的過(guò)程。 Hadoop作為搭建大數(shù)據(jù)處理平臺(tái)的重要基石,關(guān)于它的分析和講解的文章已經(jīng)有很多了。Hadoop本身是一分布式的系統(tǒng),因此在安裝的時(shí)候,需要多每一個(gè)節(jié)點(diǎn)進(jìn)行組建...
摘要:是在端的,是提前的,需要自己設(shè)置。如果在開(kāi)源大數(shù)據(jù)框架上部署大快的開(kāi)發(fā)框架,需要平臺(tái)的組件支持如下數(shù)據(jù)源與引擎數(shù)據(jù)采集數(shù)據(jù)處理模塊機(jī)器學(xué)習(xí)和模塊上傳服務(wù)器端包,直接支持搜索引擎模塊不獨(dú)立發(fā)布 hadoop是一個(gè)開(kāi)源軟件框架,可安裝在一個(gè)商用機(jī)器集群中,使機(jī)器可彼此通信并協(xié)同工作,以高度分布式的方式共同存儲(chǔ)和處理大量數(shù)據(jù)。最初,Hadoop 包含以下兩個(gè)主要組件:Hadoop Distr...
摘要:自然語(yǔ)言處理是計(jì)算機(jī)科學(xué)領(lǐng)域與人工智能領(lǐng)域中的一個(gè)重要方向。自然語(yǔ)言處理并不是一般地研究自然語(yǔ)言,而在于研制能有效地實(shí)現(xiàn)自然語(yǔ)言通信的計(jì)算機(jī)系統(tǒng),特別是其中的軟件系統(tǒng)。自然語(yǔ)言處理無(wú)可避免地成為信息科學(xué)技術(shù)中長(zhǎng)期發(fā)展的一個(gè)新的戰(zhàn)略制高點(diǎn)。 自然語(yǔ)言處理(NLP)是計(jì)算機(jī)科學(xué),人工智能,語(yǔ)言學(xué)關(guān)注計(jì)算機(jī)和人類(lèi)(自然)語(yǔ)言之間的相互作用的領(lǐng)域。自然語(yǔ)言處理是計(jì)算機(jī)科學(xué)領(lǐng)域與人工智能領(lǐng)域中的...
摘要:在不懂和等協(xié)議的情況下,我直接打個(gè)比方來(lái)解釋一下什么是請(qǐng)求,以瀏覽器為例,人在瀏覽器輸入,然后敲擊鍵,直到頁(yè)面出現(xiàn),整個(gè)過(guò)程,我們可以抽象為我們向百度服務(wù)器發(fā)起的一次請(qǐng)求。更專業(yè),更詳細(xì)的解釋,自己去百度學(xué)習(xí)吧。 前言 ??剛學(xué)完python基礎(chǔ),想學(xué)習(xí)爬蟲(chóng)的新手,這里有你想要的東西。??本文著重點(diǎn)在于教新手如何學(xué)習(xí)爬蟲(chóng),并且會(huì)以外行人的思維進(jìn)行形象地講解。最近我一兄弟想學(xué),我就想寫(xiě)個(gè)...
摘要:新手篇入門(mén)基礎(chǔ)教程關(guān)于的分享此前一直都是零零散散的想到什么就寫(xiě)什么,整體寫(xiě)的比較亂吧。上兩周寫(xiě)的五篇內(nèi)容,匯總到一起就算是新手入門(mén)的一個(gè)基礎(chǔ)性教程吧持續(xù)更新中。應(yīng)該在改版完成后就可以正常申請(qǐng)下載了。 Hadoop新手篇:hadoop入門(mén)基礎(chǔ)教程關(guān)于hadoop的分享此前一直都是零零散散的想到什么就寫(xiě)什么,整體寫(xiě)的比較亂吧。最近可能還算好的吧,畢竟花了兩周的時(shí)間詳細(xì)的寫(xiě)完的了hadoop...
閱讀 3895·2021-09-27 13:36
閱讀 4633·2021-09-22 15:12
閱讀 3073·2021-09-13 10:29
閱讀 1842·2021-09-10 10:50
閱讀 2377·2021-09-03 10:43
閱讀 530·2019-08-29 17:10
閱讀 454·2019-08-26 13:52
閱讀 3267·2019-08-23 14:37