国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

python 爬取微信文章(搜狗為入口)

cnio / 3599人閱讀

摘要:本人想搞個(gè)采集微信文章的網(wǎng)站,無(wú)奈實(shí)在從微信本生無(wú)法找到入口鏈接,網(wǎng)上翻看了大量的資料,發(fā)現(xiàn)大家的做法總體來(lái)說(shuō)大同小異,都是以搜狗為入口。下文是筆者整理的一份爬取微信文章的代碼,有興趣的歡迎閱讀,本人小站喜歡的話可以去首頁(yè)加官方微信或者。

本人想搞個(gè)采集微信文章的網(wǎng)站,無(wú)奈實(shí)在從微信本生無(wú)法找到入口鏈接,網(wǎng)上翻看了大量的資料,發(fā)現(xiàn)大家的做法總體來(lái)說(shuō)大同小異,都是以搜狗為入口。下文是筆者整理的一份python爬取微信文章的代碼,有興趣的歡迎閱讀,本人小站:www.quzhuanpan.com喜歡的話可以去首頁(yè)加官方微信或者qq。
#coding:utf-8
author = "haoning"
**#!/usr/bin/env python
import time
import datetime
import requests**
import json
import sys
reload(sys)
sys.setdefaultencoding( "utf-8" )
import re
import xml.etree.ElementTree as ET
import os
#OPENID = "oIWsFtyel13ZMva1qltQ3pfejlwU"
OPENID = "oIWsFtw_-W2DaHwRz1oGWzL-wF9M&ext"
XML_LIST = []
# get current time in milliseconds
current_milli_time = lambda: int(round(time.time() * 1000))
def get_json(pageIndex):

global OPENID
the_headers = {
"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36",
"Referer": "http://weixin.sogou.com/gzh?openid={0}".format(OPENID),
"Host": "weixin.sogou.com"
}

url = "http://weixin.sogou.com/gzhjs?cb=sogou.weixin.gzhcb&openid={0}&page={1}&t={2}".format(OPENID, pageIndex, current_milli_time()) #url
print(url)

response = requests.get(url, headers = the_headers)
# TO-DO; check if match the reg
response_text = response.text
print response_text
json_start = response_text.index("sogou.weixin.gzhcb(") + 19
json_end = response_text.index(")") - 2
json_str = response_text[json_start : json_end] #get json
#print(json_str)
# convert json_str to json object
json_obj = json.loads(json_str) #get json obj
# print json_obj["totalPages"]
return json_obj

def add_xml(jsonObj):

global XML_LIST
xmls = jsonObj["items"] #get item
#print type(xmls)
XML_LIST.extend(xmls) #用新列表擴(kuò)展原來(lái)的列表
**[#www.oksousou.com][2]**

# ------------ Main ----------------
print "play it :) "
# get total pages
default_json_obj = get_json(1)
total_pages = 0
total_items = 0
if(default_json_obj):

# add the default xmls
add_xml(default_json_obj)
# get the rest items
total_pages = default_json_obj["totalPages"]
total_items = default_json_obj["totalItems"]
print total_pages
# iterate all pages
if(total_pages >= 2):
    for pageIndex in range(2, total_pages + 1):
        add_xml(get_json(pageIndex)) #extend
        print "load page " + str(pageIndex)
        print len(XML_LIST)

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://m.specialneedsforspecialkids.com/yun/37760.html

相關(guān)文章

  • python itchat 爬取微信好友信息

    摘要:原文鏈接一個(gè)開(kāi)源的微信個(gè)人接口,今天我們就用爬取微信好友信息,無(wú)圖言虛空三張圖分別是微信好友頭像拼接圖性別統(tǒng)計(jì)圖個(gè)性簽名統(tǒng)計(jì)圖微信好友頭像拼接圖性別統(tǒng)計(jì)圖個(gè)性簽名統(tǒng)計(jì)圖安裝主要用到的方法微信掃描二維碼登錄返回完整的好友列表,每個(gè)好友為一個(gè)字 原文鏈接:https://mp.weixin.qq.com/s/4EXgR4GkriTnAzVxluJxmg 「itchat」一個(gè)開(kāi)源的微信個(gè)人...

    huaixiaoz 評(píng)論0 收藏0
  • 23個(gè)Python爬蟲(chóng)開(kāi)源項(xiàng)目代碼,包含微信、淘寶、豆瓣、知乎、微博等

    摘要:今天為大家整理了個(gè)爬蟲(chóng)項(xiàng)目。地址新浪微博爬蟲(chóng)主要爬取新浪微博用戶的個(gè)人信息微博信息粉絲和關(guān)注。代碼獲取新浪微博進(jìn)行登錄,可通過(guò)多賬號(hào)登錄來(lái)防止新浪的反扒。涵蓋鏈家爬蟲(chóng)一文的全部代碼,包括鏈家模擬登錄代碼。支持微博知乎豆瓣。 showImg(https://segmentfault.com/img/remote/1460000018452185?w=1000&h=667); 今天為大家整...

    jlanglang 評(píng)論0 收藏0
  • 首次公開(kāi),整理12年積累的博客收藏夾,零距離展示《收藏夾吃灰》系列博客

    摘要:時(shí)間永遠(yuǎn)都過(guò)得那么快,一晃從年注冊(cè),到現(xiàn)在已經(jīng)過(guò)去了年那些被我藏在收藏夾吃灰的文章,已經(jīng)太多了,是時(shí)候把他們整理一下了。那是因?yàn)槭詹貖A太亂,橡皮擦給設(shè)置私密了,不收拾不好看呀。 ...

    Harriet666 評(píng)論0 收藏0
  • 爬蟲(chóng)爬取微信小程序

    摘要:之前打算做個(gè)微信小程序的社區(qū),所以寫(xiě)了爬蟲(chóng)去爬取微信小程序,后面發(fā)現(xiàn)做微信小程序沒(méi)有前途,就把原來(lái)的項(xiàng)目廢棄了做了現(xiàn)在的網(wǎng)站觀點(diǎn)不過(guò)代碼放著也是放著,還不如公開(kāi)讓大家用,所以我把代碼貼出來(lái),有需要的復(fù)制了使用就是了。 之前打算做個(gè)微信小程序的社區(qū),所以寫(xiě)了爬蟲(chóng)去爬取微信小程序,后面發(fā)現(xiàn)做微信小程序沒(méi)有前途,就把原來(lái)的項(xiàng)目廢棄了做了現(xiàn)在的網(wǎng)站觀點(diǎn),不過(guò)代碼放著也是放著,還不如公開(kāi)讓大家用...

    qianfeng 評(píng)論0 收藏0
  • Scrapy學(xué)習(xí)(四) 取微博數(shù)據(jù)

    摘要:爬蟲(chóng)目標(biāo)是獲取用戶的微博數(shù)關(guān)注數(shù)粉絲數(shù)。創(chuàng)建數(shù)據(jù)這部分我只需要個(gè)人信息,微博數(shù),關(guān)注數(shù)分?jǐn)?shù)數(shù)這些基本信息就行。 前言 Scrapy學(xué)習(xí)(三) 爬取豆瓣圖書(shū)信息 接上篇之后。這次來(lái)爬取需要登錄才能訪問(wèn)的微博。爬蟲(chóng)目標(biāo)是獲取用戶的微博數(shù)、關(guān)注數(shù)、粉絲數(shù)。為建立用戶關(guān)系圖(尚未實(shí)現(xiàn))做數(shù)據(jù)儲(chǔ)備 準(zhǔn)備 安裝第三方庫(kù)requests和pymongo 安裝MongoDB 創(chuàng)建一個(gè)weibo爬蟲(chóng)項(xiàng)...

    LiveVideoStack 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<