摘要:單田芳白眉大俠單田芳白眉大俠這個是他后臺臨時生成的下載地址,過幾分鐘就會失效。用直接拿到網(wǎng)頁單田芳白眉大俠單田芳白眉大俠,,都是固定的,變得只是下載的章數(shù)和動態(tài)生成的地址碼。
爸爸經(jīng)常拿個收音機聽評書,最近想幫爸爸在網(wǎng)上下個全集。打開百度搜了下評書,發(fā)現(xiàn)有個叫評書網(wǎng)的網(wǎng)站。搜了下單田芳說的《白眉大俠》。但是只能一回一次的單個點擊下載,那不得點死。所以就想到了批量搞它。本文用的方法很簡單(大神勿噴)。 發(fā)現(xiàn)規(guī)律,http://www.5ips.net/down_120_001.htm這個是第一回的下載地址,用瀏覽器打開顯示網(wǎng)頁源碼發(fā)現(xiàn)下載地址就在里邊那就好辦了。url[2]= "/pingshu/單田芳_白眉大俠/單田芳_白眉大俠_001.mp3?key=8de4ff27ca1e24e711d0772ebe13b454_511093084"這個是他后臺臨時生成的下載地址,過幾分鐘就會失效。規(guī)律得到了,url地址是_001表示第一回,文件地址為_001.mp3, 如果是_002就表示第二回,文件地址為_002.mp3。以此類推 好吧直接搞起。用urllib2直接拿到網(wǎng)頁
psurl0 = "http://www.5ips.net/down_120_" psurl0_0 = ".htm" psurl1 = "http://p33d.5ips.net/pingshu/單田芳_白眉大俠/單田芳_白眉大俠_" def main(index): ji = ""; if index < 10: ji = "00%d" %index; elif index < 100: ji = "0%d" %index; else: ji = "%d" %index url_p = psurl0 + ji + psurl0_0 reque = urllib2.Request(url_p, headers = headers) content = urllib2.urlopen(reque).read() reg = ".mp3?key=.*"" reslut = re.search(reg, content).group() reslut = reslut.replace(""", "") newpath = psurl1 + ji + reslut #down(newpath, ji + ".mp3")
psurl0,psurl0_0,psurl1都是固定的,變得只是下載的章數(shù)和動態(tài)生成的地址碼。由于下載地址直接顯示到網(wǎng)頁源碼中了,所以不需要復(fù)雜的解析,直接用正則找到下載地址reslut
拿到下載地址了直接用urllib2.urlopen下載失敗了,但是把地址帖到瀏覽器可以播放,應(yīng)該被網(wǎng)站禁止了。好吧,嘗試其他辦法。打開命令行用weget下載成功。問題解決了。weget是linux系統(tǒng)自帶的下載工具,Mac和windows都需要自己安裝。
def down(url, file_name): option = "wget -O ./白眉大俠/%s %s" %(file_name, url) pop = subprocess.Popen(target, stdin = subprocess.PIPE, stdout = subprocess.PIPE) pop.communicate(mess)
一個循環(huán)把320回的MP3全部搞下
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/37816.html
摘要:打包成單文件所使用的命令為打包成文件夾所使用的命令為不管是哪種打包方式都會留下一個文件。這樣我們只需將腳本文件和腳本文件放置到同一文件夾下,運行我們的腳本。可以看到已經(jīng)完美的反編譯出其中的腳本好了,相信大家已經(jīng)明白了反編譯的原理。 近期閱讀了一篇很感興趣的文章,為免后續(xù)文章被刪無法再閱讀,現(xiàn)...
摘要:一般常用爬蟲下載文本,圖片,視頻,聲音。此處以下載圖片為例,圖片也是相對最容易。格式的文件下載只要抓包或者得到請求鏈接,那么將上面的程序稍稍改動一下,即可下載。比如只要能試聽,就會有鏈接。聲明部分參考了很有趣兒的爬蟲分享 一般常用爬蟲下載文本,圖片,視頻,聲音。此處以下載圖片為例,圖片也是相對最容易。 #-*- coding:utf-8 -*- import os,re,request...
摘要:在這之前,還是有必要對一些概念超輕量級反爬蟲方案后端掘金前言爬蟲和反爬蟲日益成為每家公司的標(biāo)配系統(tǒng)。 爬蟲修煉之道——從網(wǎng)頁中提取結(jié)構(gòu)化數(shù)據(jù)并保存(以爬取糗百文本板塊所有糗事為例) - 后端 - 掘金歡迎大家關(guān)注我的專題:爬蟲修煉之道 上篇 爬蟲修煉之道——編寫一個爬取多頁面的網(wǎng)絡(luò)爬蟲主要講解了如何使用python編寫一個可以下載多頁面的爬蟲,如何將相對URL轉(zhuǎn)為絕對URL,如何限速,...
摘要:一下安裝數(shù)據(jù)庫進入官網(wǎng),選擇相應(yīng)的版本下載,安裝時默認勾選安裝服務(wù)和修改一些數(shù)據(jù)庫配置,如已有數(shù)據(jù)庫連接工具,可取消默認勾選的安裝。 一、Win下安裝數(shù)據(jù)庫 進入mongo官網(wǎng),選擇相應(yīng)的msi版本下載,安裝時默認勾選安裝MongoD服務(wù)和修改一些數(shù)據(jù)庫配置,如已有數(shù)據(jù)庫連接工具Robo 3T,可取消默認勾選的compass安裝。 若啟動服務(wù)報mp錯誤,可修改binmongod.cfg...
摘要:如何使用下載文件當(dāng)你在或者上安裝配置好時,你就可以通過其下載文件了。正文完參考文章下開機啟動懶人安裝教程的開機啟動文件夾在哪及開機自動啟動軟件 什么是 Aria2? aria2 是一個輕量級的多協(xié)議和多源命令行下載實用程序。 它支持 HTTP / HTTPS,F(xiàn)TP,SFTP,BitTorrent 和 Metalink。 aria2 可以通過內(nèi)置的 JSON-RPC 和 XML-RPC...
閱讀 1452·2019-08-29 17:14
閱讀 1653·2019-08-29 12:12
閱讀 733·2019-08-29 11:33
閱讀 3270·2019-08-28 18:27
閱讀 1446·2019-08-26 10:19
閱讀 910·2019-08-23 18:18
閱讀 3532·2019-08-23 16:15
閱讀 2545·2019-08-23 14:14