一、引言:
在这篇文章中,我将向大家展示如何使用Selenium来抓取CSDN的内容。无论你是数据分析师,还是对爬虫技术感兴趣的开发者,我相信这篇文章都会对你有所帮助。
二、背景知识:
Selenium是一种强大的网页自动化测试工具,它可以模拟真实用户的行为,如点击、滚动、输入等,非常适合用来抓取动态加载的网页内容。
三、代码实战:
我们以抓取CSDN网站中的后端分类为例,URL地址为:https://blog.csdn.net/nav/back-end
- 首选做一下启动网页前的准备工作:
导入代码中需要用到的类
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.common.exceptions import StaleElementReferenceException
import time
import xlwt
- 设置启动参数
options = webdriver.ChromeOptions() # 声明浏览器的对象
options.ignore_local_proxy_environment_variables()
options.add_argument('--disable-blink-features=AutomationControlled') # 去除浏览器selenium监控
# options.add_argument('--headless') # 浏览器不提供可视化页面
options.add_argument('--disable-gpu') # 禁用GPU加速
options.add_argument('--ignore-certificate-errors') #忽略证书错误
driver = webdriver.Chrome(options=options)
#selenium 防止window.navigator.webdriver对象检测的方法
driver.execute_cdp_cmd("Page.addScriptToEvaluateOnNewDocument", {"source": """Object.defineProperty(navigator, 'webdriver', {get: () => undefined})"""})
- 启动Selenium并打开网页
driver.get("https://blog.csdn.net/nav/back-end") # 一行代码,就能启动浏览器
-
如何定位文章列表元素
在Chrome浏览器中按F12打开开发者工具,通过html结构,我们可以看到文章的列表通过CSS选择器.Community .active-blog可以获取到,那么通过以下代码我们可以获取到文章列表:
elements = WebDriverWait(driver, 30).until(EC.presence_of_all_elements_located((By.CSS_SELECTOR, ".Community .active-blog")))
代码中WebDriverWait是一种显式等待的方式,它用于等待某个条件成立然后再继续执行后续的操作。这种等待方式可以有效地解决因网页元素未完全加载而导致的操作失败的问题。在这个示例中,WebDriverWait会等待最多30秒,直到网页中id为节点".Community .active-blog"的元素出现。如果30秒内该元素出现,就会立即返回该元素;如果10秒后该元素仍未出现,就会抛出一个TimeoutException异常。
-
如何定位文章标题及详细信息
由于在第4步,我们获取到的是文章列表,那么接下来我们要遍历文章列表,依次获取每篇文章的标题及详细信息,通过截图,我们可以看到标题 和描述对应的CSS选择器分别是".content .blog-text"和".content .desc":
lists = []
for element in elements:
datalist = []
time.sleep(1)
title_text = element.find_element(By.CSS_SELECTOR, '.content .blog-text').text
desc_text = element.find_element(By.CSS_SELECTOR, '.content .desc').text
datalist.append(title_text)
datalist.append(desc_text)
lists.append(datalist)
在Selenium中,find_element是一个非常重要的方法,用于在网页中查找元素。这个方法需要一个定位器作为参数,定位器可以是ID、名称、类名、标签名、链接文本、部分链接文本、XPath或CSS选择器等。在这里我们定义了一个列表lists,把数据内容放到了一个列表里。
- 如何保存数据
保存数据的方式有很多,可以保存在本地文件,也可以保存到数据库。这里的通过使用Python的xlwt类库,把数据保存在本地Excel表做为示例:
xlwt是Python的一个库,主要用于生成或写入Microsoft Excel的.xls文件。它提供了丰富的接口和功能,可以创建工作簿,添加工作表,写入数据,设置单元格格式等。
def saveToexcel(savepath, lists):
workbook = xlwt.Workbook(encoding="utf-8")
worksheet = workbook.add_sheet("CSDN后端文章", cell_overwrite_ok=True)
name_sheet = ("标题", "描述")
for i in range(len(name_sheet)):
worksheet.write(0, i, name_sheet[i])
for i in range(len(lists)):
item = lists[i]
for j in range(len(item)):
worksheet.write(i + 1, j, item[j])
workbook.save(savepath)
saveToexcel('CSDN_BACKEND.xls', lists)
四、注意事项:
请注意一些爬虫的法律和道德问题,例如尊重网站的robots.txt文件,不要对网站进行过于频繁的请求。
五、总结:
到这里整个的抓取过程就完成了,虽然这只是爬虫的基础 ,但只要懂得原理,抓取其他数据也万变不离其中。原创不易,希望这篇文章对你有帮助。请不要忘记帮忙点赞,这是对我的最大支持和鼓励,我会定期发布更多相关的内容。如果你有任何问题或者建议,也欢迎在评论区留言,我会尽快回复。