股票小工具-股票评论数

获取股票在东财股吧的评论情况

import time
import datetime
import requests
import re
from bs4 import BeautifulSoup
from collections import OrderedDict
import hashlib
import tushare as ts
import logging

# import pandas as pd
# from pandas import DataFrame

# 最大查几天
rangemax = 7


def sortedDictValues3(adict):
    keys = adict.keys()
    keys.sort()
    return map(adict.get, keys)


def md5(str):
    m = hashlib.md5()
    m.update(str)
    returnstr = m.hexdigest()
    return returnstr.upper()


def matchguba_news(htmlcontent, allpost, allcomment):
    """匹配规则"""
    soup = BeautifulSoup(htmlcontent, "lxml")
    divs = soup.find_all(u"div", class_="articleh")
    divnu = 0
    date = ''
    for divitem in divs:
        a = str(divitem)
        # logging.info("====:%s"%a)
        if a.find("财经评论") == -1 and a.find("东方财富网") == -1:
            match = re.findall(r"<span class=\"l6\">(\d\d-\d\d)</span>", a)
            # logging.info(u"lydlyd:%s"%match)
            if match:
                timetemp = match[0]
                date = timetemp.replace('-', '')
                olddate = 0
                # if allpost.has_key(date):
                if date in allpost:
                    olddate = allpost[date]
                allpost[date] = olddate + 1
                oldcomment = 0
                matchcomment = re.findall(r"<span class=\"l2\">(\d+)</span>",
                                          a)
                # logging.info(matchcomment)
                # if allcomment.has_key(date):
                if date in allcomment:
                    oldcomment = allcomment[date]
                allcomment[date] = oldcomment + int(matchcomment[0])
    return date

# 构造 Request headers
agent = 'Mozilla/5.0 (Windows NT 6.2; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.102 Safari/537.36'
headers = {
    'User-Agent':
    agent,
    'Host':
    "xueqiu.com",
    "Accept":
    "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",
    "Accept-Encoding":
    "gzip, deflate, sdch, br",
    "Accept-Language":
    "zh-CN,zh;q=0.8,zh-TW;q=0.6",
    "Connection":
    "keep-alive"
}


def beginguba(stockname, stockscode, rangemaxgb):
    """开始抓取股吧"""
    logging.info("analyse stockcode:%s" % stockscode)
    # logging.info("要抓取的股吧股票为:%s" % stockname)
    logging.info(datetime.datetime.now())
    allpost = OrderedDict()
    allcomment = OrderedDict()
    for i in range(1, 100):
        urla = 'http://guba.eastmoney.com/list,%s,f_%d.html' % (stockscode, i)
        # logging.info(u"股吧数据第%d页,url:%s" % (i, urla))
        try:
            r = requests.get(url=urla)
            time.sleep(0.5)
            if r.status_code == 200:
                curdate = matchguba_news(r.content, allpost, allcomment)
                # 检查是否该break掉 (已经抓 到指定天数的数据时就break掉)
                if int(curdate) <= int(rangemaxgb[rangemaxgb.__len__() - 1]):
                    break
                time.sleep(1)
        except ValueError:
            logging.info('analyse stock %s failed'%stockscode)

    # newallpost = collections.OrderedDict(sorted(allpost.items(), key=lambda t: t[0]))
    if allpost.__len__() > 0:
        for datekey in allpost:
            if int(datekey) > int(rangemaxgb[rangemaxgb.__len__() - 1]):
                logging.info("issued_date:%s,number_of_posts:%d,general_comment_number:%d" %
                             (datekey, allpost[datekey], allcomment[datekey]))
    else:
        logging.info(u"no data,or analyse failed.")


def getstocknewscount(stockscode):
    tnow = time.localtime(time.time())
    rangemaxgb = [time.strftime('%m%d', tnow)]
    for i in range(1, rangemax + 1):
        t = time.localtime(time.time() - i * 86400)
        rangemaxgb.append(time.strftime('%m%d', t))

    # logging.info(rangemaxgb)
    # 设定抓取范围 抓取X天内的数据。直到抓到为止,最多100页
    urlbegin = 'http://guba.eastmoney.com/list,%s.html' % stockscode
    r = requests.get(url=urlbegin)
    soup = BeautifulSoup(r.content, "lxml")
    stockname = soup.title.string.split(u"_")[0]
    # 股吧数据获取开始
    beginguba(stockname, stockscode, rangemaxgb)


def main():
    # 记录到日志里
    logging.basicConfig(level=logging.DEBUG,
                format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s',
                datefmt='%a, %d %b %Y %H:%M:%S',
                filename='stocknews.log',
                filemode='w')
    #定义一个StreamHandler,将INFO级别或更高的日志信息打印到标准错误,并将其添加到当前的日志处理对象#
    console = logging.StreamHandler()
    console.setLevel(logging.INFO)
    formatter = logging.Formatter('%(name)-12s: %(levelname)-8s %(message)s')
    console.setFormatter(formatter)
    logging.getLogger('').addHandler(console)


    logging.info('start guba comment count')

    # if len(sys.argv) > 1:
    #     stocklist = sys.argv[1].split(',')
    #     for stockcode in stocklist:
    #         getstocknewscount(stockcode)
    # else:
    #     logging.info(u"输入股票代码!")
    # quit()

    # 统计所有的股票
    logging.info(ts.__version__)
    df = ts.get_area_classified()
    for stockcode in df['code']:
        getstocknewscount(stockcode)

    logging.info('finished.')

    # stocklist = ['603337','300017','002665','002230','600566','600660','000957','000999','002304']
    # stocklist = ['300618', '300648', '603799']
    # for stockcode in stocklist:
    #     getstocknewscount(stockcode)


if __name__ == '__main__':
    main()

非常好的模式,让我今年收益翻倍的文章,强烈推荐:2020年4月至6月净利润断层实战小结-真香~

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,444评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,421评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,036评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,363评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,460评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,502评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,511评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,280评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,736评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,014评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,190评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,848评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,531评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,159评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,411评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,067评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,078评论 2 352

推荐阅读更多精彩内容

  • 某互联网公司,夜深人静的时候,阿亮和同事依然端坐在电脑前,机械般地敲打着键盘,明亮的灯光映照在他们神色凝重的脸上,...
    亦若莎阅读 337评论 0 0
  • 姓名:母光艳 公司:宁波贞观电器 第235期,利他二组 【日精进打卡第146天】 【知-学习】 诵读《六项精进》大...
    母光焱阅读 62评论 0 0
  • 《世界上的另一个你》,薄薄的一本书,可我却看了好几天,直到现在都没有看完。不是因为长,而是提不起兴趣。直到今天,才...
    小木鱼的日常生活阅读 221评论 1 0