第一只可爱滴小爬虫

使用BeautifulSoup入门源码
视频地址

使用python2.7
使用Chrome网页,右键检查工具获取需要内容的类或者id

#coding=utf-8
import requests #网络请求
from bs4 import BeautifulSoup#网页元素解析
import json#json数据解析
import re#正则表达式
import time#延时
import pandas#数据分析
import sqlite3#数据存储

#newsurl = "http://news.sina.com.cn/china"

#获取评论数
common_js = "http://comment5.news.sina.com.cn/page/info?version=1&format=json&channel=gn&newsid=comos-{}&group=undefined&compress=0&ie=utf-8&oe=utf-8&page=1&page_size=3&t_size=3&h_size=3&thread=1&callback=jsonp_1517920852693&_=1517920852693"

#获取评论数
def getNewsConmmontUrl(new_url):
#    news_id = sub_url.split("/")[-1].strip("doc-i").rstrip(".shtml")
    #print(news_id)
    news_id = re.search("doc-i(.+).shtml",new_url).group(1) #使用正则获取新闻id
    res = requests.get(common_js.format(news_id))
    response = res.text.strip("jsonp_1517920852693(")[:-1]
    jd = json.loads(response)
    if jd["result"] != None and jd["result"]["count"] != None and jd["result"]["count"]["total"]:
        return jd["result"]["count"]["total"]
    return 0

#获取文章详情
def getNewsDetail(sub_new_url):
    result = {}
    res = requests.get(sub_new_url)
    soup = BeautifulSoup(res.text.encode(res.encoding).decode('utf-8'),"lxml")#lxml是编译器类型,也可指定html.parser
    result["articleUrl"] = sub_new_url;
    result["articleTitle"] = soup.select(".main-title")[0].text#文章标题
    result["articleTime"] = soup.select(".date-source")[0].select("span")[0].text#时间
    result["articleContent"] = "\n".join([p.text.strip() for p in soup.select("#article p")[:-1]]) #文章内容
    result["articleAuthor"] = soup.select(".show_author")[0].text#作者
    result["articleComment"] = getNewsConmmontUrl(sub_new_url)#评论
    if len(soup.select(".img_wrapper")) > 0:
        result["articlePicture"] = soup.select(".img_wrapper")[0].select("img")[0]["src"]#文章图片
    return result

#分页链接请求
#page_common_url = "http://api.roll.news.sina.com.cn/zt_list?channel=news&cat_1=gnxw&cat_2==gdxw1||=gatxw||=zs-pl||=mtjj&level==1||=2&show_ext=1&show_all=1&show_num=22&tag=1&format=json&page={}&callback=newsloadercallback&_=1518067220351"

page_common_url = "http://api.roll.news.sina.com.cn/zt_list?channel=news&cat_1=gnxw&cat_2==gdxw1||=gatxw||=zs-pl||=mtjj&level==1||=2&show_ext=1&show_all=1&show_num=22&tag=1&format=json&page={}&callback=newsloadercallback"

#获取分页数据
def getPageDataList(pageIndex):

    page_url = page_common_url.format(pageIndex)#填充url
    page_url_request = requests.get(page_url)#请求数据
    page_url_jd = json.loads(page_url_request.text.lstrip("  newsloadercallback(").rstrip(");"))#解析数据
    sub_url_array = []
    for sub_item in page_url_jd["result"]["data"]:
        sub_url = sub_item["url"]
        if sub_url.find("http") != -1:#判断是否是http开头的url
            sub_url_array.append(sub_url)
    return sub_url_array#新闻url列表

#获取前2页新闻链接URL
def getTotalNewUrlList():

    sub_url_total_array = []
    for i in (0,2):
        sub_url_total_array.extend(getPageDataList(i))#extend可将数组中的数据一个一个的添加进入列表,append是将数组作为一个元素添加到列表
    return sub_url_total_array#列表,存放所有文章url

#获取所有文章内容
def getTotalNewsDetail():
    total_detail_list = []
    for sub_total_url in getTotalNewUrlList():#通过分页获取所有新闻链接
        resultDic = getNewsDetail(sub_total_url)#获取链接详情字典
        time.sleep(1)#爬虫尽量多的延时,也可访问网站的robots.txt查看是否允许爬虫及爬虫的时间,网站架构。。。
        for i in resultDic:
            print(resultDic[i])#打印文章详情
        total_detail_list.append(resultDic)#添加详情字典到列表
    return total_detail_list

#使用sqlite存储数据,pandas清晰展示数据
def write_data(total_news):
    df = pandas.DataFrame(total_news)#将数据放入pandas中
    with sqlite3.connect('news.sqlite') as db:
        df.to_sql('news', con = db)#将df数据写入数据库

#读取数据
def read_data():
    with sqlite3.connect('news.sqlite') as db:
        df = pandas.read_sql_query('select * from news', con = db)#将数据库数组读出
        print(df)

#入口函数
def main():
    total_news = getTotalNewsDetail()#列表,获取新闻详情
    write_data(total_news)#写入数据库
    read_data()#从数据库读取并打印

if __name__ == '__main__':
    main()

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 174,740评论 25 709
  • 声明:本文讲解的实战内容,均仅用于学习交流,请勿用于任何商业用途! 一、前言 强烈建议:请在电脑的陪同下,阅读本文...
    Bruce_Szh阅读 12,857评论 6 28
  • 各位同学、朋友, 大家好。我们是深泉教育,一家(目前)很小的教育企业,工作地点在南京河西万达写字楼B座(是的,装×...
    6a48142bea13阅读 1,108评论 0 2
  • 我把我们受过的嘲笑, 锻造成盔甲,塞进身体里。 几年后的今天,丢盔弃甲。 看着它们微笑晒太阳, 假装什么都没发生。
    海韵梦都阅读 147评论 2 1
  • 王小欣 文静秀气 却是个身高172的东北女孩,来自长春,在安徽读大学,毕业之后跟我一起留在了杭州这座美丽的城市。她...
    王子小沫阅读 295评论 0 0