前置条件:
首先在windows下安装MongoDB
安装pymongo:
pip install pymongo
使用python爬到了想要的数据,如: 使用python爬虫抓取新浪网的新闻信息
脚本如下:
import requests
from bs4import BeautifulSoup
import pymongo
url ='http://news.sina.com.cn/china/'
res = requests.get(url)# 使用get方法请求url
res.encoding ='utf-8' # 将编码格式设置为utf-8
soup = BeautifulSoup(res.text, 'html.parser')
client = pymongo.MongoClient('localhost', 27017)# 创建连接,因为用的本机的mongodb数据库,所以直接写localhost即可,也可以写成127.0.0.1,27017为端口
db = client['mydb']# 连接的数据库
collection = db['my_collection']# 连接的表
for newsin soup.select('.news-item'):#查找出class内容含news-item的,并使用循环遍历每一个
if len(news.select('h2')) >0 :# 判断标题是否为空,不为空时做详细处理
h2 = news.select('h2')[0].text# 获取新闻的标题,并赋值给变量h2
time = news.select('.time')[0].text# 获取标题的时间,并赋值给time
url = news.select('a')[0]['href']# 获取标题的url,并赋值给url
data = {'title': h2, 'time': time, 'url':url}# 将数据存入到字典变量data中
collection.insert(data)# 将data中的输入插入到mongodb数据库
执行后查看mongodb数据库内容是否有更新
insert成功
pymongo的基本使用
创建连接
import pymongo
client = pymongo.MongoClient('localhost', 27017)
连接数据库
db = client['mydb']
连接聚集
collection = db['my_collection']
插入记录
collection.insert({"key1":"value1","key2","value2"})
删除记录
collection.remove()
按条件删除
collection.remove({"key1":"value1"})
更新记录
collection.update({"key1": "value1"}, {"$set": {"key2": "value2", "key3": "value3"}})
查询一条记录:find_one()不带任何参数返回第一条记录.带参数则按条件查找返回
collection.find_one()
collection.find_one({"key1":"value1"})
查询结果排序
单列排序
collection.find().sort("key1") # 默认为升序
collection.find().sort("key1", pymongo.ASCENDING) # 升序
collection.find().sort("key1", pymongo.DESCENDING) # 降序
多列排序
collection.find().sort([("key1", pymongo.ASCENDING), ("key2", pymongo.DESCENDING)])