国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

【蟲術】資深爬蟲師帶你爬取代理IP

PiscesYE / 3060人閱讀

摘要:返回結果如下,接下來我們便開始爬取西刺代理,首先我們打開瀏覽器查看網頁,并找到和端口元素的信息。爬取代理地址,代理的是西刺代理去掉可能重復的等待秒將要爬取頁數的爬取好后存入數組,然后再對其中的逐一測試。

有時候在網站看小說,會莫名跳出來一個“疑似機器惡意爬取,暫時無法訪問”這樣類似的網站提示,需要刷新一下或者輸入一個驗證碼才能重新進入,這樣的情況偶有發生,相信大家都有遇到過。出現這個現象的原因就是我們瀏覽的網頁采取了反爬蟲的措施,特別做爬蟲爬取網頁,在某個ip單位時間請求網頁次數過多時,服務器會拒絕服務,這種情況就是由于訪問頻率引起的封ip,這種情況靠解封不能很好的解決,所以我們就想到了偽裝本機ip去請求網頁,也就是我們今天要講的使用代理ip。

目前網上有許多代理ip,有免費的也有付費的,例如西刺代理,豌豆代理,快代理等等,免費的雖然不用花錢但有效的代理很少且不穩定,付費的可能會好一點,不過今天我只爬取免費的西刺代理并將檢測是否可用,將可用ip存入MongoDB,方便下次取出。

運行平臺:Windows

Python版本:Python3.6

IDE: Sublime Text

其他:Chrome瀏覽器

簡述流程為:

步驟1:了解requests代理如何使用

步驟2:從西刺代理網頁爬取到ip和端口

步驟3:檢測爬取到的ip是否可用

步驟4:將爬取的可用代理存入MongoDB

步驟5:從存入可用ip的數據庫里隨機抽取一個ip,測試成功后返回

對于requests來說,代理的設置比較簡單,只需要傳入proxies參數即可。

不過需要注意的是,這里我是在本機安裝了抓包工具Fiddler,并用它在本地端口8888創建了一個HTTP代理服務(用Chrome插件SwitchyOmega),即代理服務為:127.0.0.1:8888,我們只要設置好這個代理,就可以成功將本機ip切換成代理軟件連接的服務器ip了。

</>復制代碼

  1. import requests
  2. proxy = "127.0.0.1:8888"
  3. proxies = {
  4. "http":"http://" + proxy,
  5. "https":"http://" + proxy
  6. }
  7. try:
  8. response = requests.get("http://httpbin.org/get",proxies=proxies)
  9. print(response.text)
  10. except requests.exceptions.ConnectionError as e:
  11. print("Error",e.args)

這里我是用來http://httpbin.erg/get作為測...,我們訪問該網頁可以得到請求的有關信息,其中origin字段就是客戶端ip,我們可以根據返回的結果判斷代理是否成功。返回結果如下:

{

</>復制代碼

  1. "args":{},
  2. "headers":{
  3. "Accept":"*/*",
  4. "Accept-Encoding":"gzip, deflate",
  5. "Connection":"close",
  6. "Host":"httpbin.org",
  7. "User-Agent":"python-requests/2.18.4"
  8. },
  9. "origin":"xx.xxx.xxx.xxx",
  10. "url":"http://httpbin.org/get"

}

接下來我們便開始爬取西刺代理,首先我們打開Chrome瀏覽器查看網頁,并找到ip和端口元素的信息。

可以看到,西刺代理以表格存儲ip地址及其相關信息,所以我們用BeautifulSoup提取時很方便便能提取出相關信息,但是我們需要注意的是,爬取的ip很有可能出現重復的現象,尤其是我們同時爬取多個代理網頁又存儲到同一數組中時,所以我們可以使用集合來去除重復的ip。

</>復制代碼

  1. 27def scrawl_xici_ip(num):
  2. 28 """
  3. 29 爬取代理ip地址,代理的url是西刺代理
  4. 30 """
  5. 31 ip_list = []
  6. 32 for num_page in range(1,num):
  7. 33 url = url_ip + str(num_page)
  8. 34 response = requests.get(url,headers=headers)
  9. 35 if response.status_code == 200:
  10. 36 content = response.text
  11. 37 soup = BeautifulSoup(content,"lxml")
  12. 38 trs = soup.find_all("tr")
  13. 39 for i in range(1,len(trs)):
  14. 40 tr = trs[i]
  15. 41 tds = tr.find_all("td")
  16. 42 ip_item = tds[1].text + ":" + tds[2].text
  17. 43 # print(ip_item)
  18. 44 ip_list.append(ip_item)
  19. 45 ip_set = set(ip_list) # 去掉可能重復的ip
  20. 46 ip_list = list(ip_set)
  21. 47 time.sleep(count_time) # 等待5秒
  22. 48 return ip_list

將要爬取頁數的ip爬取好后存入數組,然后再對其中的ip逐一測試。

</>復制代碼

  1. 51def ip_test(url_for_test,ip_info):
  2. 52 """
  3. 53 測試爬取到的ip,測試成功則存入MongoDB
  4. 54 """
  5. 55 for ip_for_test in ip_info:
  6. 56 # 設置代理
  7. 57 proxies = {
  8. 58 "http": "http://" + ip_for_test,
  9. 59 "https": "http://" + ip_for_test,
  10. 60 }
  11. 61 print(proxies)
  12. 62 try:
  13. 63 response = requests.get(url_for_test,headers=headers,proxies=proxies,timeout=10)
  14. 64 if response.status_code == 200:
  15. 65 ip = {"ip":ip_for_test}
  16. 66 print(response.text)
  17. 67 print("測試通過")
  18. 68 write_to_MongoDB(ip)
  19. 69 except Exception as e:
  20. 70 print(e)
  21. 71 continue

這里就用到了上面提到的requests設置代理的方法,我們使用http://httpbin.org/ip作為測試...,它可以直接返回我們的ip地址,測試通過后再存入MomgoDB數據庫。

存入MongoDB的方法在上一篇糗事百科爬取已經提過了。連接數據庫然后指定數據庫和集合,再將數據插入就OK了。

</>復制代碼

  1. 74def write_to_MongoDB(proxies):
  2. 75 """
  3. 76 將測試通過的ip存入MongoDB
  4. 77 """
  5. 78 client = pymongo.MongoClient(host="localhost",port=27017)
  6. 79 db = client.PROXY
  7. 80 collection = db.proxies
  8. 81 result = collection.insert(proxies)
  9. 82 print(result)
  10. 83 print("存儲MongoDB成功")

最后運行查看一下結果吧

如果對Python編程、網絡爬蟲、機器學習、數據挖掘、web開發、人工智能、面試經驗交流。感興趣可以519970686,群內會有不定期的發放免費的資料鏈接,這些資料都是從各個技術網站搜集、整理出來的,如果你有好的學習資料可以私聊發我,我會注明出處之后分享給大家。

稍等,運行了一段時間后,難得看到一連三個測試通過,趕緊截圖保存一下,事實上是,畢竟是免費代理,有效的還是很少的,并且存活時間確實很短,不過,爬取的量大,還是能找到可用的,我們只是用作練習的話,還是勉強夠用的。現在看看數據庫里存儲的吧。

因為爬取的頁數不多,加上有效ip也少,再加上我沒怎么爬,所以現在數據庫里的ip并不多,不過也算是將這些ip給存了下來。現在就來看看怎么隨機取出來吧。

</>復制代碼

  1. 85
  2. 86def get_random_ip():
  3. 87 """
  4. 88 隨機取出一個ip
  5. 89 """
  6. 90 client = pymongo.MongoClient(host="localhost",port=27017)
  7. 91 db = client.PROXY
  8. 92 collection = db.proxies
  9. 93 items = collection.find()
  10. 94 length = items.count()
  11. 95 ind = random.randint(0,length-1)
  12. 96 useful_proxy = items[ind]["ip"].replace("
  13. ","")
  14. 97 proxy = {
  15. 98 "http": "http://" + useful_proxy,
  16. 99 "https": "http://" + useful_proxy,
  17. 100 }
  18. 101 response = requests.get(url_for_test,headers=headers,proxies=proxy,timeout=10)
  19. 102 if response.status_code == 200:
  20. 103 return useful_proxy
  21. 104 else:
  22. 105 print("此{ip}已失效".format(useful_proxy))
  23. 106 collection.remove(useful_proxy)
  24. 107 print("已經從MongoDB移除")
  25. 108 get_random_ip()
  26. 109

由于擔心放入數據庫一段時間后ip會失效,所以取出前我重新進行了一次測試,如果成功再返回ip,不成功的話就直接將其移出數據庫。

這樣我們需要使用代理的時候,就能通過數據庫隨時取出來了。

總的代碼如下:

</>復制代碼

  1. import random
  2. import requests
  3. import time
  4. import pymongo
  5. from bs4 import BeautifulSoup
  6. # 爬取代理的URL地址,選擇的是西刺代理
  7. url_ip = "http://www.xicidaili.com/nt/"
  8. # 設定等待時間
  9. set_timeout = 5
  10. # 爬取代理的頁數,2表示爬取2頁的ip地址
  11. num = 2
  12. # 代理的使用次數
  13. count_time = 5
  14. # 構造headers
  15. headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.146 Safari/537.36"}
  16. # 測試ip的URL
  17. url_for_test = "http://httpbin.org/ip"
  18. def scrawl_xici_ip(num):
  19. """
  20. 爬取代理ip地址,代理的url是西刺代理
  21. """
  22. ip_list = []
  23. for num_page in range(1,num):
  24. url = url_ip + str(num_page)
  25. response = requests.get(url,headers=headers)
  26. if response.status_code == 200:
  27. content = response.text
  28. soup = BeautifulSoup(content,"lxml")
  29. trs = soup.find_all("tr")
  30. for i in range(1,len(trs)):
  31. tr = trs[i]
  32. tds = tr.find_all("td")
  33. ip_item = tds[1].text + ":" + tds[2].text
  34. # print(ip_item)
  35. ip_list.append(ip_item)
  36. ip_set = set(ip_list) # 去掉可能重復的ip
  37. ip_list = list(ip_set)
  38. time.sleep(count_time) # 等待5秒
  39. return ip_list
  40. def ip_test(url_for_test,ip_info):
  41. """
  42. 測試爬取到的ip,測試成功則存入MongoDB
  43. """
  44. for ip_for_test in ip_info:
  45. # 設置代理
  46. proxies = {
  47. "http": "http://" + ip_for_test,
  48. "https": "http://" + ip_for_test,
  49. }
  50. print(proxies)
  51. try:
  52. response = requests.get(url_for_test,headers=headers,proxies=proxies,timeout=10)
  53. if response.status_code == 200:
  54. ip = {"ip":ip_for_test}
  55. print(response.text)
  56. print("測試通過")
  57. write_to_MongoDB(ip)
  58. except Exception as e:
  59. print(e)
  60. continue
  61. def write_to_MongoDB(proxies):
  62. """
  63. 將測試通過的ip存入MongoDB
  64. """
  65. client = pymongo.MongoClient(host="localhost",port=27017)
  66. db = client.PROXY
  67. collection = db.proxies
  68. result = collection.insert(proxies)
  69. print(result)
  70. print("存儲MongoDB成功")
  71. def get_random_ip():
  72. """
  73. 隨機取出一個ip
  74. """
  75. client = pymongo.MongoClient(host="localhost",port=27017)
  76. db = client.PROXY
  77. collection = db.proxies
  78. items = collection.find()
  79. length = items.count()
  80. ind = random.randint(0,length-1)
  81. useful_proxy = items[ind]["ip"].replace("
  82. ","")
  83. proxy = {
  84. "http": "http://" + useful_proxy,
  85. "https": "http://" + useful_proxy,
  86. }
  87. response = requests.get(url_for_test,headers=headers,proxies=proxy,timeout=10)
  88. if response.status_code == 200:
  89. return useful_proxy
  90. else:
  91. print("此{ip}已失效".format(useful_proxy))
  92. collection.remove(useful_proxy)
  93. print("已經從MongoDB移除")
  94. get_random_ip()
  95. def main():
  96. ip_info = []
  97. ip_info = scrawl_xici_ip(2)
  98. sucess_proxy = ip_test(url_for_test,ip_info)
  99. finally_ip = get_random_ip()
  100. print("取出的ip為:" + finally_ip)
  101. if __name__ == "__main__":
  102. main()

【給技術人一點關愛!!!】

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/44854.html

相關文章

  • 蟲術資深爬蟲師帶你爬取代IP

    摘要:返回結果如下,接下來我們便開始爬取西刺代理,首先我們打開瀏覽器查看網頁,并找到和端口元素的信息。爬取代理地址,代理的是西刺代理去掉可能重復的等待秒將要爬取頁數的爬取好后存入數組,然后再對其中的逐一測試。 有時候在網站看小說,會莫名跳出來一個疑似機器惡意爬取,暫時無法訪問這樣類似的網站提示,需要刷新一下或者輸入一個驗證碼才能重新進入,這樣的情況偶有發生,相信大家都有遇到過。出現這個現象的...

    learning 評論0 收藏0
  • 【Python爬蟲】手把手帶你爬下肯德基官網(ajax的post請求)

    摘要:準備工作查看肯德基官網的請求方法請求。判斷得肯德基官網是請求通過這兩個準備步驟,明確本次爬蟲目標的請求肯德基官網獲取上海肯德基地點前頁。構造不難發現,肯德基官網的的一個共同點,我們把它保存為。 ...

    WelliJhon 評論0 收藏0
  • K3s初探:Rancher架構帶你嘗鮮史上最輕量Kubernetes發行版

    摘要:發布不到兩天,上數已近,這個業界大熱的史上最輕量的開源發行版,你試過了沒資深架構師來教你走出嘗鮮第一步使用教程在此前言昨天,正式發布了一款史上最輕量的開源發行版。大小只有,極簡,輕便,易于使用。 發布不到兩天,GitHub上Star數已近3000,這個業界大熱的、史上最輕量的開源Kubernetes發行版,你試過了沒? Rancher資深架構師來教你走出嘗鮮第一步!使用教程在此! sh...

    neuSnail 評論0 收藏0
  • 精通Python網絡爬蟲(0):網絡爬蟲學習路線

    摘要:以上是如果你想精通網絡爬蟲的學習研究路線,按照這些步驟學習下去,可以讓你的爬蟲技術得到非常大的提升。 作者:韋瑋 轉載請注明出處 隨著大數據時代的到來,人們對數據資源的需求越來越多,而爬蟲是一種很好的自動采集數據的手段。 那么,如何才能精通Python網絡爬蟲呢?學習Python網絡爬蟲的路線應該如何進行呢?在此為大家具體進行介紹。 1、選擇一款合適的編程語言 事實上,Python、P...

    spacewander 評論0 收藏0

發表評論

0條評論

PiscesYE

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<