Loading... 通常,我们使用这条命令运行自己的 scrapy 爬虫: ```bash scrapy crawl spider_name ``` 但是,由这条命令启动的爬虫,会将所有爬虫运行中的 debug 信息及抓取到的信息打印在运行窗口中。很乱,也不方便查询。所以,可使用该命令代替: ```bash scrpay crawl spider_name -s LOG_FILE=all.log ``` 就会将原本打印在窗口的所有信息保存在 `all.log` 的文件里了。可以在项目根目录中找到该文件,查看所有爬取信息。 原文链接: [https://blog.csdn.net/Cristal_tina/article/details/53739378](https://blog.csdn.net/Cristal_tina/article/details/53739378) 感谢大家的收看,我们下期再见! 最后修改:2021 年 08 月 17 日 © 转载自他站 赞 赠人玫瑰,手留余香