首先,先安装scrapy 。推荐使用虚拟环境开展项目。如果安装了anaconda,在终端配置虚拟环境,以免运行时发生冲突。
1、查看现有运行环境:conda info --envs
2、创造运行环境:conda create --name scrapy python==3.8(如下图)
4.切换到指定的scrap有项目的环境中来。conda activate scrapy,值得注意的是,退出环境时,一定记得用conda deactivate
5.切换到最终保存该爬虫项目的路径,我以desktop路径下为例,cd Desktop/,并安装scrapy;命令行是pip install scrapy
6.创建scrapy项目,使用命令scrapy startproject name。