python爬虫爬取网易新闻,并对新闻文本进行分类

文章目录

一、爬虫部分

1、目标网站:网易新闻

首先我们看到最上方绿色方框圈中的部分,这就是我们要爬取的分类。在这里我一共选择了国内、国际、军事、航空、科技这五个分类进行爬取
接下来我们以打开国内的新闻为例进行分析

2、分析网址

我们打开开发者工具,来寻找我们的数据
选择network,刷新网页,找js,找到后台json数据(如下图所示)


在这里插入图片描述

那么接下来我们查看它的headers获取它的链接地址就可以开始构造代码了。

3、构造URL

我们可以看到headers中的请求地址,不同类别新闻的请求地址的不同之处在于红框中的 部分


在这里插入图片描述

代码如下,每个类别的请求地址为两个(第一个为第一页地址,第二个为后面若干页地址)

#要爬取的新闻分类地址国内、国际、军事、航空、科技
url_list={'国内':[ 'https://temp.163.com/special/00804KVA/cm_guonei.js?callback=data_callback',
                   'https://temp.163.com/special/00804KVA/cm_guonei_0{}.js?callback=data_callback'],
         '国际':['https://temp.163.com/special/00804KVA/cm_guoji.js?callback=data_callback',
                 'https://temp.163.com/special/00804KVA/cm_guoji_0{}.js?callback=data_callback'],
         '军事':['https://temp.163.com/special/00804KVA/cm_war.js?callback=data_callback',
               'https://temp.163.com/special/00804KVA/cm_war_0{}.js?callback=data_callback'],
         '航空':['https://temp.163.com/special/00804KVA/cm_hangkong.js?callback=data_callback&a=2',
               'https://temp.163.com/special/00804KVA/cm_hangkong_0{}.js?callback=data_callback&a=2'],
         '科技':['https://tech.163.com/special/00097UHL/tech_datalist.js?callback=data_callback',
              'https://tech.163.com/special/00097UHL/tech_datalist_0{}.js?callback=data_callback']}

4、解析页面

针对每一页的内容,获取到json数据后提取新闻标题

titles=[]
categories=[]
def get_result(url):
    global titles,categories
    temp=parse_class(url)
    #去除空白页
    if temp[0]=='>网易-404</title>':
        return False
    print(url)
    titles.extend(temp)
    temp_class=[key for i in range(len(temp))]
    categories.extend(temp_class)
    return True

循环爬取所有页面

for key in url_list.keys():
    #按分类分别爬取
    print("=========正在爬取{}新闻===========".format(key))
    #遍历每个分类中的子链接
    #首先获取首页
    get_result(url_list[key][0])
    #循环获取加载更多得到的页面
    for i in range(1,10):
        try:
            if get_result(url_list[key][1].format(i)):
                pass
            else:
                continue
        except:
            break
print("爬取完毕!")

5、保存数据

由于新闻具有实时性,每天,或者每天的不同时间段会有不同的新闻产生,因此在保存前将此次爬取中与之前保存的数据中重复内容删除再保存,以达到扩充数据集的目的。

def update(old,new):
    '''
    更新数据集:将本次新爬取的数据加入到数据集中(去除掉了重复元素)
    '''
    data=new.append(old)
    data=data.drop_duplicates()
    return data
    
new=pd.DataFrame({
    "新闻内容":titles,
    "新闻类别":categories
})
old=pd.read_csv("新闻数据集.csv",encoding='gbk',engine='python')
print("更新数据集...")
df=update(old,new)
df.to_csv("新闻数据集.csv",index=None,encoding='gbk')
print("更新完毕,共有数据:",df.shape[0],"条")

这样所有的内容就爬取下来了。
可视化看下爬到的各个分类的新闻的数量

在这里插入图片描述

接下来我们就要对爬取到的内容进行文本分类.

二、文本分类

1、数据清洗、分词

首先需要清理掉停用词,以及标点符号。停用词可以直接百度搜索停用词表非常多,将爬取的文本数据中的停用词去掉即可。

def remove_punctuation(line):
    line = str(line)
    if line.strip()=='':
        return ''
    rule = re.compile(u"[^a-zA-Z0-9\u4E00-\u9FA5]")
    line = rule.sub('',line)
    return line
 
def stopwordslist(filepath):  
    stopwords = [line.strip() for line in open(filepath, 'r', encoding="UTF-8").readlines()]  
    return stopwords  
 
#加载停用词
stopwords = stopwordslist("./stop_words.txt")
#删除除字母,数字,汉字以外的所有符号
df['clean_review'] = df['新闻内容'].apply(remove_punctuation)
#分词,并过滤停用词

df['cut_review'] = df['clean_review'].apply(lambda x: " ".join([w for w in list(jb.cut(x)) if w not in stopwords]))
print("数据预处理完毕!")

2、tf-idf词向量,构建朴素贝叶斯模型

数据清洗完毕后直接使用sklearn提供的库将文本数据转换成词向量,进行数据集切分,开始训练

#转词向量
tfidf = TfidfVectorizer(norm='l2', ngram_range=(1, 2))
features = tfidf.fit_transform(df.cut_review)
labels = df.新闻类别
#划分训练集
x_train,x_test,y_train,y_test=train_test_split(features,labels,test_size=0.2,random_state=0)
model=MultinomialNB().fit(x_train,y_train)
y_pred=model.predict(x_test)
print("模型训练完毕!")

3、模型评估

这里我们使用混淆矩阵来对模型进行评估

# 绘制混淆矩阵函数
def plot_confusion_matrix(cm, classes,
                          normalize=False,
                          title='Confusion matrix',
                          cmap=plt.cm.Blues):
    plt.figure(figsize=(8,6))
    plt.imshow(cm, interpolation='nearest', cmap=cmap)
    plt.title(title)
    plt.colorbar()
    tick_marks = np.arange(len(classes))
    plt.xticks(tick_marks, classes, rotation=45)
    plt.yticks(tick_marks, classes)

    fmt = '.2f' if normalize else 'd'
    thresh = cm.max() / 2.
    for i, j in itertools.product(range(cm.shape[0]), range(cm.shape[1])):
        plt.text(j, i, format(cm[i, j], fmt),
                 horizontalalignment="center",
                 color="white" if cm[i, j] > thresh else "black")

    plt.tight_layout()
    plt.ylabel('真实标签')
    plt.xlabel('预测标签')
    plt.show()
class_names=['军事','国内','国际','科技','航空']
cm= confusion_matrix(y_test, y_pred)
title="分类准确率:{:.2f}%".format(accuracy_score(y_test,y_pred)*100)
plot_confusion_matrix(cm,classes=class_names,title=title)
print("分类评估报告如下:\n")
print(classification_report(y_test,y_pred))
在这里插入图片描述

到此我们整个爬虫+数据分析建模的过程就结束了,要是对准确率有要求可以去尝试更多不同模型。


完整代码和数据集以及停用词表可关注以下公众号回复"0002"获取


在这里插入图片描述
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,616评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,020评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,078评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,040评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,154评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,265评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,298评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,072评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,491评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,795评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,970评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,654评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,272评论 3 318
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,985评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,223评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,815评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,852评论 2 351