搜狗搜索微信文章

微信文章的时间是无法直接xpath取,是网页js渲染出来的。用正则取了。

from urllib.parse import urlencode
import requests, re
from requests.exceptions import ConnectionError, ReadTimeout
from lxml import etree
import pymongo
from config import *

client = pymongo.MongoClient(MONGO_URI)
db = client[MONGO_DB]

baseurl = 'http://weixin.sogou.com/weixin?'

# 动态修改登录后的cookie
headers = {
    'Cookie': '',
    'Host': 'weixin.sogou.com',
    'Upgrade-Insecure-Requests': '1',
    'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36'
}

proxy = None

def get_proxy():
    try:
        response = requests.get(PROXY_POOL_URL)
        if response.status_code == 200:
            return response.text
        return None
    except ConnectionError:
        print('代理池空')
        return None

def get_html(url, count=1):
    print('crawling', url)
    print('trying count', count)
    global proxy
    if count >= MAX_COUNT:
        print("tried too many times")
        return None
    try:
        if proxy:
            proxies = {
                'http' : 'http://' + proxy
            }
            response = requests.get(url, allow_redirects=False, headers=headers, proxies=proxies, timeout=10)
        else:
            response = requests.get(url, allow_redirects=False, headers=headers)
        if response.status_code == 200:
            return response.text
        if response.status_code == 302:
            # 加代理
            print('302错误')
            proxy = get_proxy()
            if proxy:
                print('using proxy', proxy)
                return get_html(url)
            else:
                print('get proxy failed')
                return None
    except (ConnectionError,ReadTimeout):
        proxy = get_proxy()
        count += 1
        return get_html(url, count)


def get_index(keyword, pagenumber):
    data = {'query': keyword,
            'type': 2,
            'page': pagenumber
            }

    url = baseurl + urlencode(data)
    html = get_html(url)
    return html

def parse_index(html):
    html = etree.HTML(html)
    urls = html.xpath("//div[@class='news-box']/ul/li/div/h3/a/@href")
    for url in urls:
        yield url

def get_detail(url):
    try:
        response = requests.get(url)
        if response.status_code == 200:
            return response.text
        return None
    except ConnectionError:
        return None

def parse_detail(html):
    # print(html)
    htmll = etree.HTML(html)
    title = htmll.xpath("//h2[@class='rich_media_title']/text()")
    if title:
        title = title[0].strip()
    else:
        title = ''.join(htmll.xpath("//span[@id='video_title']/text()"))
    content = htmll.xpath("//div[@id='js_content']")[0].xpath('string(.)').strip()
    date = re.findall(r'var publish_time = \"(.*?)\"', html)[0]
    nickname = htmll.xpath("//span[@class='rich_media_meta rich_media_meta_nickname']/a/text()")
    if nickname:
        nickname = nickname[0].strip()
    else:
        nickname = htmll.xpath("//strong[@class='account_nickname_inner']/text()")[0].strip()
    wechat = ''.join(htmll.xpath("//div[@id='js_profile_qrcode']/div/p[1]/span/text()"))
    return {
        'title' : title,
        'content' : content,
        'date' : date,
        'nickname' : nickname,
        'wechat' : wechat
    }

def save_to_mongo(item):
    if db['articles'].update({'title':item['title']}, {'$set':item}, True):
        print("保存成功")
    else:
        print("保存失败")

def main():
    for page in range(1,101):
        html = get_index(KEYWORD, page)
        if html:
            for url in parse_index(html):
                article_html = get_detail(url)
                if article_html:
                    article_data = parse_detail(article_html)
                    print(article_data)
                    save_to_mongo(article_data)


if __name__ == '__main__':
    main()

config.py

KEYWORD = '风景'

MONGO_URI = 'localhost'
MONGO_DB = 'weixin'

PROXY_POOL_URL = ''

MAX_COUNT = 5
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,386评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,142评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,704评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,702评论 1 294
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,716评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,573评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,314评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,230评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,680评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,873评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,991评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,706评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,329评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,910评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,038评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,158评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,941评论 2 355

推荐阅读更多精彩内容

  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,657评论 18 139
  • 1、通过CocoaPods安装项目名称项目信息 AFNetworking网络请求组件 FMDB本地数据库组件 SD...
    阳明先生_X自主阅读 15,981评论 3 119
  • 我们的一生中会遇到许多的人,他也许只是你生命当中的一个匆匆过客,只留给了你一个背影,一个眼神,或者是一瞥,但这些已...
    若枥阅读 269评论 0 1
  • 大学毕业后,我发现在图书馆里读书真的是一件极其享受的事情。工作了,每天都要先把自己的任务完成再去顾及一下生活,我有...
    麦田csy阅读 505评论 0 0
  • 这一整夜,阿杰又辗成碾转反侧、难以入睡。 警察把他从传销窝点里面解救出来后,已记不清是第几个不眠之夜。“明天就满3...
    涟漪成长记阅读 280评论 4 2