# -*- coding: utf-8 -*-
#引入包
importsys
importchardet
importurllib2
frombs4importBeautifulSoup
#转换编码
reload(sys)
sys.setdefaultencoding('utf-8')
#获取页面代码
req = urllib2.Request("http://gs.amac.org.cn/amac-infodisc/res/pof/manager/138.html")
#r = requests.get('http://gs.amac.org.cn/amac-infodisc/res/pof/manager/138.html');
content = urllib2.urlopen(req).read()
#转码
typeEncode = sys.getfilesystemencoding()
infoencode = chardet.detect(content).get('encoding','utf-8')
html = content.decode(infoencode,'ignore').encode(typeEncode)
#data = content.text
#使用BeautifulSoup解析代码
soup = BeautifulSoup(html,'html.parser')
#创建一个文件
f =file('d:/pythonWorkSpace/Python27PygamePy2exe-master/Python27PygamePy2exe-master/test.html',"w")
#寻找此页面内的td,class为td-content的字符并保存
for i in soup.find_all('td',class_='td-content'):
thisdata = i.text
f.write(thisdata)
#关闭文件
f.close()
初学python,使用python抓取某网页的信息
最后编辑于 :
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
推荐阅读更多精彩内容
- 声明:本文讲解的实战内容,均仅用于学习交流,请勿用于任何商业用途! 一、前言 强烈建议:请在电脑的陪同下,阅读本文...
- 废话先不多说,先上代码: import requestsfrom bs4 import BeautifulSou...