创建爬虫项目scrapy

首先,先安装scrapy 。推荐使用虚拟环境开展项目。如果安装了anaconda,在终端配置虚拟环境,以免运行时发生冲突。

1、查看现有运行环境:conda info --envs

2、创造运行环境:conda create --name scrapy python==3.8(如下图)


图1

4.切换到指定的scrap有项目的环境中来。conda activate scrapy,值得注意的是,退出环境时,一定记得用conda deactivate

5.切换到最终保存该爬虫项目的路径,我以desktop路径下为例,cd Desktop/,并安装scrapy;命令行是pip install scrapy

6.创建scrapy项目,使用命令scrapy startproject  name。

你可能感兴趣的:(创建爬虫项目scrapy)