怎么做自己的单机网站/百度推广方式

怎么做自己的单机网站,百度推广方式,郑州企业培训,无锡梦燕服饰网站谁做的【Python爬虫】专栏简介:本专栏是 Python 爬虫领域的集大成之作,共 100 章节。从 Python 基础语法、爬虫入门知识讲起,深入探讨反爬虫、多线程、分布式等进阶技术。以大量实例为支撑,覆盖网页、图片、音频等各类数据爬取&#xff…

【Python爬虫】专栏简介:本专栏是 Python 爬虫领域的集大成之作,共 100 章节。从 Python 基础语法、爬虫入门知识讲起,深入探讨反爬虫、多线程、分布式等进阶技术。以大量实例为支撑,覆盖网页、图片、音频等各类数据爬取,还涉及数据处理与分析。无论是新手小白还是进阶开发者,都能从中汲取知识,助力掌握爬虫核心技能,开拓技术视野。

目录

  • 一、创建 Scrapy 项目的目录结构与文件组成
    • 1.1 创建项目
    • 1.2 目录结构详解
  • 二、配置文件 settings.py 的详细解读与参数调整
    • 2.1 全局变量设置
    • 2.2 爬取行为设置
    • 2.3 中间件和扩展使用
    • 2.4 数据处理设置
    • 2.5 日志输出和异常处理设置
    • 2.6 智能限速 / 自动节流
  • 三、项目中的日志配置与管理
    • 3.1 日志系统概述
    • 3.2 配置日志级别
    • 3.3 配置日志输出格式
    • 3.4 配置日志输出位置
    • 3.5 配置日志旋转
    • 3.6 使用第三方日志库
    • 3.7 监控和警报
    • 3.8 日志脱敏
    • 3.9 日志清理
    • 3.10 日志分析
    • 3.11 环境区分


一、创建 Scrapy 项目的目录结构与文件组成

1.1 创建项目

在开始一个 Scrapy 项目前,首先要确保你已经安装了 Scrapy 框架。如果还未安装,可以使用pip install scrapy命令进行安装。当 Scrapy 安装完成后,就可以创建项目了。在命令行中,使用scrapy startproject命令来创建一个新的 Scrapy 项目。例如,要创建一个名为myproject的项目,只需在命令行中输入:

scrapy startproject myproject

执行上述命令后,会在当前目录下生成一个名为myproject的文件夹,这个文件夹就是我们的 Scrapy 项目的主目录。在这个目录下,包含了一系列文件和文件夹,它们共同构成了 Scrapy 项目的基本结构。

1.2 目录结构详解

  • scrapy.cfg:这是项目的配置文件,主要用于部署项目到 Scrapy 服务器(如 Scrapyd)时的配置。它包含了一些基本的项目设置,例如指定项目的默认配置文件路径等。虽然在日常开发中,我们可能不会频繁修改这个文件,但它对于项目的部署和管理是非常重要的。例如,在Scrapy 官方文档中就详细介绍了scrapy.cfg在项目部署中的作用。
  • 项目同名文件夹(如 myproject):这个文件夹是项目的核心代码所在,包含了多个重要的 Python 文件和一个spiders文件夹。它是整个项目的逻辑组织中心,所有与爬虫相关的代码、配置和数据处理逻辑都在这里定义和实现。
    • init.py:这是一个空文件,其作用是将所在的文件夹标记为一个 Python 包,这样 Python 解释器就可以识别并导入该文件夹中的模块。虽然它本身不包含任何代码,但在 Python 项目的结构组织中起着关键作用,确保了项目的模块结构能够被正确识别和使用。
    • items.py:在这个文件中,定义了爬虫要抓取的数据结构,也就是Item。Item类似于一个容器,用于存储从网页中提取的数据。例如,如果我们要抓取一个新闻网站的文章信息,就可以在items.py中定义ArticleItem,包含title(标题)、content(内容)、author(作者)等字段。具体定义方式如下:
import scrapyclass ArticleItem(scrapy.Item):title = scrapy.Field()content = scrapy.Field()author = scrapy.Field()
  • middlewares.py:中间件文件,用于处理请求和响应的中间过程。可以在这里定义各种中间件,如用户代理中间件、代理 IP 中间件等。例如,通过自定义用户代理中间件,可以在每个请求中随机更换用户代理,模拟不同的浏览器访问,从而提高爬虫的隐蔽性,降低被反爬虫机制检测到的风险。
  • pipelines.py:数据管道文件,主要用于处理爬虫提取到的数据。在这里可以进行数据清洗、存储到数据库、保存到文件等操作。比如,将爬取到的文章数据存储到 MySQL 数据库中,就可以在pipelines.py中编写相应的代码来实现数据的插入操作。
  • settings.py:项目的设置文件,包含了项目的各种配置参数,如爬虫的并发请求数、下载延迟、用户代理、启用的管道和中间件等。这些配置参数可以根据项目的需求进行调整,以优化爬虫的性能和行为。例如,通过设置DOWNLOAD_DELAY来控制下载页面的时间间隔,避免对目标网站造成过大的压力,从而防止被封禁 IP。
  • spiders文件夹:这个文件夹用于存放爬虫代码。每个爬虫都是一个 Python 类,继承自scrapy.Spider类,在这个文件夹中可以创建多个爬虫类,每个爬虫类负责从特定的网站或网页中抓取数据。例如,我们可以创建一个NewsSpider类来抓取新闻网站的文章,一个ImageSpider类来抓取图片网站的图片链接等。每个爬虫类都需要定义name(爬虫名称)、start_urls(起始 URL 列表)和parse方法(用于解析响应数据)等。例如:
import scrapyclass NewsSpider(scrapy.Spider):name = 'news'start_urls = ['http://www.example.com/news']def parse(self, response):# 解析新闻页面,提取新闻标题和链接for news in response.css('.news-item'):yield {'title': news.css('.title::text').get(),'link': news.css('.link::attr(href)').get()}
  • __pycache__文件夹:这个文件夹是 Python 自动生成的,用于存储编译后的字节码文件(.pyc文件)。它的作用是提高 Python 程序的加载速度,因为在后续运行时,如果 Python 文件没有发生变化,就可以直接加载编译后的字节码文件,而不需要重新编译。在项目部署时,通常可以忽略这个文件夹,因为它的内容可以在部署环境中重新生成。

二、配置文件 settings.py 的详细解读与参数调整

settings.py是 Scrapy 项目中非常重要的配置文件,它包含了众多影响爬虫行为和性能的参数。通过合理调整这些参数,可以优化爬虫的运行效率,增强爬虫的功能,使其更好地适应不同的爬取需求。下面将详细解读一些常用参数及其调整方法。

2.1 全局变量设置

  • BOT_NAME
    • 含义:Scrapy 项目的名称,用于构造默认的 User - Agent,同时也用于日志记录。当使用startproject命令创建项目时,BOT_NAME会被自动赋值。
    • 示例:BOT_NAME = ‘my_scrapy_project’
  • USER_AGENT
    • 含义:定义 Scrapy 下载器在发送 HTTP 请求时使用的 User - Agent。User - Agent 是一个 HTTP 头部字段,用于标识发出请求的客户端的类型和版本信息,如操作系统、浏览器等。服务器可以根据 User - Agent 来决定返回什么样的内容或进行什么样的处理。通过设置不同的 User - Agent,可以模拟不同的浏览器访问,增加爬虫的隐蔽性 。
    • 示例:USER_AGENT = ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36’
  • SPIDER_MODULES
    • 含义:包含项目中所有 spider 的模块列表。它指定了 Scrapy 查找爬虫类的位置。
    • 示例:SPIDER_MODULES = [‘myproject.spiders’]
  • NEWSPIDER_MODULE
    • 含义:当使用scrapy genspider命令创建新 spider 时,spider 将会放在这个模块下。
    • 示例:NEWSPIDER_MODULE =‘myproject.spiders’
  • TELNETCONSOLE_ENABLED
    • 含义:是否启用 Telnet 控制台,用于查看当前爬虫的信息和操作爬虫。启用后,可以通过 Telnet 连接到爬虫进程,执行一些调试和监控操作 。
    • 示例:TELNETCONSOLE_ENABLED = True,还可以配置TELNETCONSOLE_HOST和TELNETCONSOLE_PORT来指定 Telnet 控制台的主机和端口,例如TELNETCONSOLE_HOST = ‘127.0.0.1’,TELNETCONSOLE_PORT = 6023。

2.2 爬取行为设置

  • ROBOTSTXT_OBEY
    • 含义:是否遵循robots.txt规则。robots.txt是一个网站的根目录下的文本文件,用于告诉爬虫哪些页面可以爬取,哪些页面不可以爬取。如果设置为True,Scrapy 会尊重robots.txt规则;如果设置为False,Scrapy 将不会考虑robots.txt规则 。在进行合法合规的爬虫开发时,建议遵循robots.txt规则,尊重网站的意愿。
    • 示例:ROBOTSTXT_OBEY = False
  • DOWNLOAD_DELAY
    • 含义:定义两个连续请求之间的延迟时间,以控制爬取速度。单位是秒,可以设置为 1 或更大的值,用于控制爬取速度,减轻服务器压力。适当增加下载延迟可以避免对目标网站造成过大的负载,降低被封禁的风险 。
    • 示例:DOWNLOAD_DELAY = 2
  • CONCURRENT_REQUESTS
    • 含义:下载器总共最大处理的并发请求数。默认值通常为 16,但可以根据需要进行调整。通过并发发送请求可以提高爬取效率,但过高的并发数可能会导致服务器响应变慢或被封禁 。如果目标网站的服务器性能较好,可以适当提高并发请求数,以加快爬取速度;如果目标网站对并发请求有限制,则需要降低该值。
    • 示例:CONCURRENT_REQUESTS = 10
  • CONCURRENT_REQUESTS_PER_DOMAIN
    • 含义:每个域名能够被执行的最大并发请求数目,默认值通常为 8。它限制了对单个域名的并发请求数量,有助于控制对特定网站的访问压力 。
    • 示例:CONCURRENT_REQUESTS_PER_DOMAIN = 16
  • CONCURRENT_REQUESTS_PER_IP
    • 含义:能够被单个 IP 处理的并发请求数。默认值通常为 0,代表无限制。如果不为零,则CONCURRENT_REQUESTS_PER_DOMAIN将被忽略,并发数的限制将按照每个 IP 来计算。此外,该设置也影响DOWNLOAD_DELAY,如果该值不为零,那么DOWNLOAD_DELAY下载延迟是限制每个 IP 而不是每个域 。当使用代理 IP 进行爬取时,可以通过设置该参数来控制每个 IP 的并发请求数,避免单个 IP 被目标网站封禁。
    • 示例:CONCURRENT_REQUESTS_PER_IP = 16
  • DEPTH_LIMIT
    • 含义:允许为任何站点爬行的最大深度。如果为 0,则无深度限制。深度限制可以防止爬虫陷入无限循环或爬取过多不必要的页面 。在爬取一些具有复杂链接结构的网站时,可以设置合适的深度限制,以提高爬虫的效率和针对性。
    • 示例:DEPTH_LIMIT = 3
  • DEPTH_PRIORITY和SCHEDULER(调度器)相关设置
    • 含义:用于控制爬取时的深度优先或广度优先策略。DEPTH_PRIORITY为 0 时,表示广度优先策略,即先爬取同一层级的页面,再深入下一层;DEPTH_PRIORITY为负数时,表示深度优先策略,即先沿着一条路径一直深入爬取,直到达到深度限制或没有更多页面可爬,再返回上一层继续爬取 。同时,还需要配置相应的调度器队列来实现不同的策略,例如使用scrapy.pqueues.PriorityQueue作为调度器队列来支持深度优先策略。
    • 示例:深度优先时,可以设置DEPTH_PRIORITY = -1,并配置调度器为SCHEDULER =‘scrapy.core.scheduler.Scheduler’,调度器队列SCHEDULER_QUEUE_CLASS =‘scrapy.pqueues.PriorityQueue’。
  • DUPEFILTER_CLASS
    • 含义:用于访问 URL 去重的类。可以自定义一个类来实现更复杂的去重逻辑。默认的去重过滤器可以过滤掉重复的 URL,但在一些特殊情况下,可能需要自定义去重逻辑,例如根据 URL 的参数、请求头或其他信息来判断是否为重复 URL 。
    • 示例:如果要使用基于 Redis 的去重过滤器,可以设置DUPEFILTER_CLASS =‘scrapy_redis.dupefilter.RFPDupeFilter’,这在分布式爬虫中非常有用,可以实现多个爬虫节点之间的 URL 去重。

2.3 中间件和扩展使用

  • DOWNLOADER_MIDDLEWARES
    • 含义:定义启用的下载器中间件及其顺序。下载器中间件位于 Scrapy 的请求 / 响应处理的中心位置,可以在 Scrapy 发送请求到网站服务器之前或从服务器接收到响应之后执行自定义的代码。数字越小,中间件越早执行 。通过使用下载器中间件,可以实现诸如添加请求头、设置代理、处理重定向、修改响应内容等功能。
    • 示例
DOWNLOADER_MIDDLEWARES = {'scrapy.downloadermiddlewares.httpproxy.HttpProxyMiddleware': 400,'my_project.middlewares.ProxyMiddleware': 410,
}

在这个示例中,HttpProxyMiddleware用于设置代理,ProxyMiddleware是自定义的代理中间件,用于更灵活地管理代理 IP。

  • SPIDER_MIDDLEWARES
    • 含义:定义启用的爬虫中间件及其顺序。爬虫中间件可以对爬虫的输入和输出进行处理。数字越小,中间件越早执行 。爬虫中间件可以用于处理爬虫的请求、响应和异常,例如在请求中添加自定义参数、处理响应中的特定数据格式、捕获并处理爬虫运行过程中的异常等。
    • 示例
SPIDER_MIDDLEWARES = {'myproject.middlewares.MySpiderMiddleware': 543,
}

这里的MySpiderMiddleware是自定义的爬虫中间件,用于实现特定的爬虫逻辑,比如对爬虫请求进行预处理,或者对爬虫响应进行后处理。

  • EXTENSIONS
    • 含义:启用和配置自定义的扩展。Scrapy 框架允许开发者编写自定义的扩展来增强爬虫的功能,例如实现自定义的日志记录、爬虫状态监控、性能分析等功能 。
    • 示例
EXTENSIONS = {'myextension.MyExtension': 500,
}

MyExtension是自定义的扩展类,通过配置EXTENSIONS,可以在爬虫运行时启用该扩展,并执行其定义的功能。例如,MyExtension可以在爬虫启动和结束时记录日志,或者在爬虫运行过程中监控特定的指标。

2.4 数据处理设置

  • ITEM_PIPELINES
    • 含义:定义数据处理管道的设置。通过设置数字来指定管道的优先级,数字越小,优先级越高。数据处理管道用于处理爬虫提取到的数据,可以进行数据清洗、验证、存储到数据库、保存到文件等操作 。在一个项目中,可以定义多个数据处理管道,每个管道负责不同的数据处理任务,例如一个管道用于清洗数据,另一个管道用于将数据存储到数据库。
    • 示例
ITEM_PIPELINES = {'myproject.pipelines.MyPipeline': 300,'myproject.pipelines.AnotherPipeline': 400,
}

在这个例子中,MyPipeline和AnotherPipeline是两个自定义的数据处理管道,MyPipeline的优先级更高,会先对数据进行处理,然后再将数据传递给AnotherPipeline。

2.5 日志输出和异常处理设置

  • LOG_LEVEL
    • 含义:设置日志的最低级别。可选的级别有CRITICAL、ERROR、WARNING、INFO、DEBUG。CRITICAL表示严重错误,ERROR表示一般错误,WARNING表示警告信息,INFO表示一般信息,DEBUG表示调试信息。通过设置不同的日志级别,可以控制日志的详细程度 。在开发阶段,可以将日志级别设置为DEBUG,以便查看详细的调试信息;在生产环境中,通常将日志级别设置为INFO或WARNING,以减少日志文件的大小和系统资源的消耗。
    • 示例:LOG_LEVEL = ‘INFO’
  • LOG_FORMAT
    • 含义:设置日志的数据格式。可以自定义日志的输出格式,以便更好地查看和分析日志信息。常见的日志格式包括时间、日志级别、模块名称、日志消息等 。
    • 示例:LOG_FORMAT = ‘%(asctime)s [%(name)s] %(levelname)s: %(message)s’,这个格式表示日志将包含时间、模块名称、日志级别和日志消息。
  • LOG_DATEFORMAT
    • 含义:设置日志的日期格式。用于指定日志中时间的显示格式 。
    • 示例:LOG_DATEFORMAT = ‘%Y-%m-%d %H:%M:%S’,表示日志中的时间将以年-月-日 时:分:秒的格式显示。
  • FEED_EXPORT_ENCODING
    • 含义:设置导出时文件的编码。当将爬取的数据导出到文件(如 CSV、JSON、XML 等)时,需要指定文件的编码格式,以确保数据的正确存储和读取 。
    • 示例:FEED_EXPORT_ENCODING = ‘utf-8’,使用 UTF - 8 编码可以支持多种语言和字符集。
  • RETRY_TIMES和RETRY_HTTP_CODES
    • 含义:RETRY_TIMES控制自动重试的次数,RETRY_HTTP_CODES指定需要重试的 HTTP 响应状态码。当请求失败时,可以根据这些设置进行重试。例如,当遇到网络故障或服务器繁忙时,爬虫可以自动重试请求,以提高数据获取的成功率 。
    • 示例
RETRY_TIMES = 3
RETRY_HTTP_CODES = [500, 502, 503, 504]

表示当请求返回 500(服务器内部错误)、502(错误网关)、503(服务不可用)、504(网关超时)等状态码时,爬虫将自动重试 3 次。

2.6 智能限速 / 自动节流

  • AUTOTHROTTLE_ENABLED
    • 含义:是否启用 AutoThrottle 扩展,用于自动调整 Scrapy 到最佳的爬取速度。启用后,AutoThrottle 扩展会根据目标网站的响应时间和负载情况自动调整爬虫的爬取速度,以避免对目标网站造成过大的压力,同时提高爬取效率 。
    • 示例:AUTOTHROTTLE_ENABLED = True
  • AUTOTHROTTLE_START_DELAY
    • 含义:起始的延迟。当启用 AutoThrottle 扩展时,爬虫开始时的下载延迟时间 。这个值可以根据目标网站的情况进行调整,如果目标网站对请求频率比较敏感,可以适当增大起始延迟。
    • 示例:AUTOTHROTTLE_START_DELAY = 5
  • DOWNLOAD_DELAY(在 AutoThrottle 中)
    • 含义:最小延迟。在启用 AutoThrottle 时,这个值将作为下载延迟的起始值。AutoThrottle 扩展会根据目标网站的响应情况动态调整下载延迟,但不会低于这个最小值 。
    • 示例:在启用 AutoThrottle 扩展时,DOWNLOAD_DELAY = 2表示下载延迟的最小值为 2 秒,爬虫会根据实际情况在这个基础上调整下载延迟。

三、项目中的日志配置与管理

在 Scrapy 爬虫项目中,日志配置与管理是一项至关重要的工作。它不仅能够帮助我们了解爬虫的运行状态,还能在出现问题时快速定位和解决问题。通过合理的日志配置,我们可以记录爬虫运行过程中的各种信息,包括正常的运行信息、错误信息以及调试信息等。下面将详细介绍 Scrapy 项目中日志配置与管理的各个方面。

3.1 日志系统概述

Scrapy 的日志系统采用了层次化的设计,确保日志信息能够有序地生成、处理和输出。它主要由以下几个关键组件构成:

  • 日志记录器(Logger):Scrapy 中的每个模块或组件都有自己的日志记录器。这些记录器负责收集并处理与该模块或组件相关的日志信息。例如,爬虫模块的日志记录器会记录爬虫在抓取、解析页面过程中产生的日志信息。在爬虫类中,可以通过self.logger来获取当前爬虫的日志记录器,如self.logger.info(‘开始抓取页面’) 。
  • 日志处理器(Handler):日志处理器负责将日志信息输出到指定的目的地,如控制台、文件或远程服务器等。Scrapy 支持多种类型的处理器,以满足不同的输出需求。默认情况下,Scrapy 会将日志输出到控制台,这对于调试和快速查看爬虫运行状态非常方便。如果需要将日志输出到文件,可以通过配置LOG_FILE参数来实现。
  • 日志级别(Level):Scrapy 支持多种日志级别,包括DEBUG、INFO、WARNING、ERROR和CRITICAL。这些级别用于区分不同重要程度的日志信息,帮助开发者快速定位问题。例如,DEBUG级别用于记录详细的调试信息,在开发阶段非常有用;而CRITICAL级别则用于记录严重错误,如爬虫崩溃等情况 。
  • 日志格式(Formatter):日志格式定义了日志信息的输出格式,包括时间戳、日志级别、模块名、消息内容等。Scrapy 允许开发者自定义日志格式,以满足特定的需求。通过配置LOG_FORMAT和LOG_DATEFORMAT参数,可以灵活地定义日志的输出格式 。

3.2 配置日志级别

在 Scrapy 中,通过LOG_LEVEL设置可以控制日志的详细程度。常用的日志级别包括:

  • CRITICAL:表示严重错误,通常用于记录导致爬虫无法继续运行的关键问题,如内存耗尽、数据库连接失败等。当出现CRITICAL级别的日志时,需要立即关注并解决问题 。
  • ERROR:表示一般错误,例如请求页面失败、解析数据出错等。记录ERROR级别的日志有助于发现爬虫运行过程中的异常情况,及时进行调试和修复 。
  • WARNING:表示警告信息,用于提示一些可能影响爬虫性能或结果的情况,但爬虫仍能继续运行。比如,目标网站返回了非预期的 HTTP 状态码,或者爬虫即将达到并发请求的上限等 。
  • INFO:表示一般信息,用于记录爬虫的正常运行状态,如开始抓取、完成抓取、当前爬取的 URL 等。通过查看INFO级别的日志,可以了解爬虫的整体运行流程和进度 。
  • DEBUG:表示调试信息,包含了非常详细的运行细节,如请求头、响应体、中间件的执行过程等。在开发和调试阶段,将日志级别设置为DEBUG可以帮助开发者深入了解爬虫的内部运行机制,快速定位问题 。

在settings.py中设置日志级别的方法如下:

# 设置整个项目的日志级别为INFO
LOG_LEVEL = 'INFO'

也可以为特定的组件设置不同的日志级别,例如,为 Scrapy 引擎设置DEBUG级别:

# 为Scrapy引擎设置DEBUG级别
LOG_LEVEL_SCRAPY = 'DEBUG'

3.3 配置日志输出格式

在settings.py中,可以通过LOG_FORMAT和LOG_DATEFORMAT设置来自定义日志的输出格式。LOG_FORMAT用于定义日志的内容格式,LOG_DATEFORMAT用于定义日志中的日期格式。

例如,以下配置可以将日志格式设置为包含时间、模块名称、日志级别和日志消息:

# 自定义日志输出格式
LOG_FORMAT = '%(asctime)s [%(name)s] %(levelname)s: %(message)s'
LOG_DATEFORMAT = '%Y-%m-%d %H:%M:%S'

在这个配置中,%(asctime)s表示时间戳,%(name)s表示模块名称,%(levelname)s表示日志级别,%(message)s表示日志消息。%Y-%m-%d %H:%M:%S表示日期格式为年-月-日 时:分:秒 。这样设置后,日志输出将类似于:2024-10-01 10:30:00 [myspider] INFO: 开始抓取页面。

3.4 配置日志输出位置

通过LOG_ENABLED和LOG_FILE设置,可以控制日志的输出位置。LOG_ENABLED用于启用或禁用日志系统,默认为True,表示启用日志记录;LOG_FILE用于指定日志输出文件,如果设置为None,日志信息将直接打印到控制台 。

例如,以下配置可以将日志输出到文件my_spider.log:

# 启用日志记录
LOG_ENABLED = True
# 日志输出到文件
LOG_FILE ='my_spider.log'

如果需要将日志同时输出到控制台和文件,可以自定义日志处理器来实现。在settings.py中添加以下代码:

import logging
from logging.handlers import RotatingFileHandler# 配置日志输出到文件和控制台
LOG_ENABLED = True
LOG_FILE ='my_spider.log'# 创建日志记录器
logger = logging.getLogger()
logger.setLevel(logging.DEBUG)# 创建文件处理器
file_handler = RotatingFileHandler(LOG_FILE, maxBytes=1024*1024*10, backupCount=5)
file_handler.setLevel(logging.DEBUG)# 创建控制台处理器
console_handler = logging.StreamHandler()
console_handler.setLevel(logging.INFO)# 创建日志格式
formatter = logging.Formatter('%(asctime)s [%(name)s] %(levelname)s: %(message)s')
file_handler.setFormatter(formatter)
console_handler.setFormatter(formatter)# 添加处理器到日志记录器
logger.addHandler(file_handler)
logger.addHandler(console_handler)

在这个配置中,RotatingFileHandler用于创建一个可以自动旋转的文件处理器,当日志文件大小达到10MB时,会自动创建新的日志文件,并保留 5 个备份文件 。StreamHandler用于将日志输出到控制台,通过设置不同的日志级别,可以灵活控制输出到控制台和文件的日志内容。

3.5 配置日志旋转

对于长时间运行的爬虫,日志文件可能会不断增大,占用大量磁盘空间。为了避免这种情况,可以使用日志旋转来定期清理旧的日志文件或限制日志文件的大小 。

在settings.py中,可以通过LOG_ROTATION参数配置日志旋转。例如,以下配置可以设置日志文件大小达到100MB时进行旋转:

# 日志文件大小达到100MB时进行旋转
LOG_ROTATION = '100MB'

除了按文件大小旋转,还可以按时间进行旋转,例如每天生成一个新的日志文件:

# 每天生成一个新的日志文件
LOG_ROTATION = 'daily'

此外,还可以结合LOG_MAX_BYTES和LOG_BACKUP_COUNT参数来进一步控制日志文件的大小和备份数量。LOG_MAX_BYTES用于指定日志文件的最大大小,LOG_BACKUP_COUNT用于指定保留的备份文件数量 。例如:

# 日志文件最大大小为50MB
LOG_MAX_BYTES = 50 * 1024 * 1024
# 保留10个备份文件
LOG_BACKUP_COUNT = 10

3.6 使用第三方日志库

可以利用 Python 的logging库提供的高级功能,如日志过滤、日志处理器等,对日志进行更灵活的管理。例如,可以自定义一个日志过滤器,只记录特定级别的日志信息。

import loggingclass MyLogFilter:def filter(self, record):return record.levelno >= logging.WARNINGlogger = logging.getLogger(__name__)
logger.addFilter(MyLogFilter())

在这个示例中,MyLogFilter类定义了一个过滤方法,只允许WARNING级别及以上的日志信息通过。通过logger.addFilter(MyLogFilter())将过滤器添加到日志记录器中,这样在记录日志时,只有符合过滤条件的日志信息才会被输出。

还可以使用其他第三方日志库,如structlog,它提供了更强大的日志结构化和格式化功能,方便在分布式系统中进行日志管理和分析 。

3.7 监控和警报

结合监控工具(如 Sentry、Logstash 等),可以实现日志的实时监控和异常警报。Sentry 是一个开源的错误追踪和性能监控平台,可以捕获 Scrapy 爬虫运行过程中的异常,并及时发送通知给开发者。

要使用 Sentry,首先需要在项目中安装sentry-sdk库,然后在settings.py中进行配置:

import sentry_sdk
from sentry_sdk.integrations.scrapy import ScrapyIntegrationsentry_sdk.init(dsn="https://your-dsn-here",integrations=[ScrapyIntegration()]
)

配置完成后,当 Scrapy 爬虫出现未捕获的异常时,Sentry 会自动捕获并记录相关信息,包括异常堆栈跟踪、请求信息、爬虫状态等 。开发者可以通过 Sentry 的 Web 界面查看异常详情,并设置警报规则,以便在出现重要异常时及时收到通知,如邮件、短信或即时通讯工具的提醒。

Logstash 是一个开源的数据收集引擎,它可以从各种数据源(如文件、日志、数据库等)收集数据,并进行过滤、转换和发送到其他目标(如 Elasticsearch、Kibana 等) 。通过将 Scrapy 的日志发送到 Logstash,可以实现对日志的集中管理和分析,利用 Logstash 的强大过滤和转换功能,对日志进行预处理,然后将处理后的日志存储到 Elasticsearch 中,再通过 Kibana 进行可视化展示和查询。

3.8 日志脱敏

在日志中避免记录敏感信息,如用户名、密码、信用卡号等,这是非常重要的安全措施。例如,在爬取网页时,如果页面中包含用户登录信息,应避免将这些信息记录到日志中。

data = response.xpath('//input[@name="password"]/@value').extract_first()
# 避免记录密码
logger.info('Found sensitive data, but not logging it.')

在这个示例中,当爬虫提取到密码信息时,不直接记录密码,而是记录一条提示信息,表明发现了敏感数据但未记录,从而保护了用户的隐私和数据安全 。如果需要在日志中记录一些与敏感信息相关的操作,可以使用脱敏后的信息代替,如将用户名替换为用户 ID 的哈希值,或者对密码进行加密处理后再记录。

3.9 日志清理

定期清理旧的日志文件,避免占用过多磁盘空间。可以使用操作系统的定时任务工具(如 Linux 的cron或 Windows 的任务计划程序)来定期执行日志清理脚本。

例如,在 Linux 系统中,可以创建一个 Shell 脚本clean_logs.sh,内容如下:

#!/bin/bash# 日志文件目录
LOG_DIR="/path/to/your/logs"# 删除7天前的日志文件
find $LOG_DIR -type f -name "*.log" -mtime +7 -exec rm -f {} \;

然后,使用cron工具设置每天凌晨 2 点执行该脚本:

0 2 * * * /path/to/clean_logs.sh

这样,每天凌晨 2 点,系统会自动删除 7 天前的日志文件,保持磁盘空间的合理使用 。在清理日志文件时,要注意确保不会误删正在使用的日志文件,同时可以根据实际需求调整日志文件的保留时间和清理策略。

3.10 日志分析

利用日志分析工具(如 ELK Stack、Graylog 等),可以对日志进行深入分析,发现潜在的问题和模式。ELK Stack 是 Elasticsearch、Logstash 和 Kibana 的组合,它提供了一站式的日志管理和分析解决方案。

通过 Logstash 收集 Scrapy 的日志数据,然后将其发送到 Elasticsearch 进行存储。Elasticsearch 是一个分布式搜索引擎,具有强大的搜索和分析功能,可以快速检索和处理大量的日志数据 。Kibana 是一个可视化工具,它与 Elasticsearch 集成,可以通过直观的界面展示日志数据的统计信息、趋势图、异常分布等,帮助开发者快速发现爬虫运行过程中的潜在问题。

例如,通过 Kibana 的仪表盘,可以查看爬虫的请求成功率、失败原因分布、不同时间段的爬取量等信息,从而对爬虫的性能和稳定性进行评估和优化 。Graylog 也是一个类似的开源日志管理和分析平台,它提供了实时日志搜索、告警、报表等功能,通过配置 Graylog 的输入和输出,将 Scrapy 的日志数据发送到 Graylog 中进行处理和分析。

3.11 环境区分

在开发、测试和生产环境中使用不同的日志配置,以便更好地控制日志输出。在开发环境中,通常希望记录详细的调试信息,以便快速定位和解决问题;而在生产环境中,为了减少日志对系统性能的影响,只需要记录关键的运行信息和错误信息。

可以通过环境变量来区分不同的环境,并根据环境变量设置相应的日志配置。例如,在settings.py中添加以下代码:

import osif os.environ.get('ENV') == 'production':LOG_LEVEL = 'WARNING'
else:LOG_LEVEL = 'DEBUG'

在这个示例中,通过检查ENV环境变量的值来判断当前运行环境。如果是生产环境(ENV=production),将日志级别设置为WARNING,只记录警告及以上级别的日志信息;如果是其他环境(如开发环境或测试环境),将日志级别设置为DEBUG,记录详细的调试信息 。还可以根据不同环境设置不同的日志输出位置、日志格式和日志旋转策略等,以满足不同环境下的日志管理需求。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/71741.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【Android】ViewPager的使用

AndroidManifest.xml <?xml version"1.0" encoding"utf-8"?> <manifest xmlns:android"http://schemas.android.com/apk/res/android"xmlns:tools"http://schemas.android.com/tools"><applicationandroid:allowBac…

京东广告基于 Apache Doris 的冷热数据分层实践

一、背景介绍 京东广告围绕Apache Doris建设广告数据存储服务&#xff0c;为广告主提供实时广告效果报表和多维数据分析服务。历经多年发展&#xff0c;积累了海量的广告数据&#xff0c;目前系统总数据容量接近1PB&#xff0c;数据行数达到18万亿行&#xff0c;日查询请求量8…

Windows PyCharm的python项目移动存储位置后需要做的变更

项目使用的venv虚拟环境&#xff0c;因此项目移动存储位置后需要重新配置python解释器的位置&#xff0c;否则无法识别&#xff0c;若非虚拟环境中运行&#xff0c;则直接移动后打开即可&#xff0c;无需任何配置。 PyCharm版本为2021.3.3 (Professional Edition)&#xff0c;其…

tailwindcss 前端 css 框架 无需写css 快速构建页面

版本&#xff1a;VUE3 TS 框架 vite 文章中使用tailwindcss 版本&#xff1a; ^3.4.17 简介&#xff1a; Tailwind CSS 一个CSS 框架&#xff0c;提供组件化的样式&#xff0c;直接在HTML 中编写样式&#xff0c;无需额外自定义CSS &#xff0c;快速&#xff01; 简洁&#…

MFC开发:如何创建第一个MFC应用程序

文章目录 一、概述二、MFC 的主要组件三、创建一个MFC窗口四、控件绑定消息函数 一、概述 MFC 是微软提供的一个 C 类库&#xff0c;用于简化 Windows 应用程序的开发。它封装了 Windows API&#xff0c;提供面向对象的接口&#xff0c;帮助开发者更高效地创建图形用户界面&am…

【Git版本控制器】第四弹——分支管理,合并冲突,--no-ff,git stash

&#x1f381;个人主页&#xff1a;我们的五年 &#x1f50d;系列专栏&#xff1a;Linux网络编程 &#x1f337;追光的人&#xff0c;终会万丈光芒 &#x1f389;欢迎大家点赞&#x1f44d;评论&#x1f4dd;收藏⭐文章 ​ 相关笔记&#xff1a; https://blog.csdn.net/djd…

SpringBoot+Vue+微信小程序的猫咖小程序平台(程序+论文+讲解+安装+调试+售后)

感兴趣的可以先收藏起来&#xff0c;还有大家在毕设选题&#xff0c;项目以及论文编写等相关问题都可以给我留言咨询&#xff0c;我会一一回复&#xff0c;希望帮助更多的人。 系统介绍 在当下这个高速发展的时代&#xff0c;网络科技正以令人惊叹的速度不断迭代更新。从 5G …

智慧教室与无纸化同屏技术方案探讨与实现探究

引言 随着教育信息化的不断发展&#xff0c;智慧教室和无纸化同屏技术逐渐成为提升教学效率和质量的重要手段。大牛直播SDK凭借其强大的音视频处理能力和丰富的功能特性&#xff0c;在智慧教室和无纸化同屏领域积累了众多成功案例。本文将深入探讨基于大牛直播SDK的智慧教室、…

Linux MySQL 8.0.29 忽略表名大小写配置

Linux MySQL 8.0.29 忽略表名大小写配置 问题背景解决方案遇到的问题&#xff1a; 问题背景 突然发现有个大写的表报不存在。 在Windows上&#xff0c;MySQL是默认支持忽略大小写的。 这个时候你要查询一下是不是没有配置&#xff1a; SHOW VARIABLES LIKE lower_case_table…

【蓝桥杯单片机】第十三届省赛第二场

一、真题 二、模块构建 1.编写初始化函数(init.c) void Cls_Peripheral(void); 关闭led led对应的锁存器由Y4C控制关闭蜂鸣器和继电器 2.编写LED函数&#xff08;led.c&#xff09; void Led_Disp(unsigned char ucLed); 将ucLed取反的值赋给P0 开启锁存器 关闭锁存…

【CMake 教程】常用函数与构建案例解析(三)

一、CMake 常用函数简析 1. 条件判断 if() / elseif() / else() 在 CMake 脚本中&#xff0c;条件判断是控制逻辑的重要工具。if() 支持多种比较语句&#xff0c;包括数值、字符串、布尔值和变量存在性等。在条件满足时执行特定逻辑代码&#xff0c;下面是典型语法&#xff1…

ASP.NET Core 8.0学习笔记(二十七)——数据迁移:Migrations深入与其他迁移命令

一、数据库架构的管理 1.EF Core提供两种方式来保持EF Core的模型与数据库保持同步。 (1)以数据库为准&#xff1a;反向工程&#xff08;Db First&#xff09;&#xff0c;适用于中大型工程 (2)以代码为准&#xff1a;数据迁移&#xff08;Code First&#xff09;&#xff0c;…

20-R 绘图 - 饼图

R 绘图 - 饼图 R 语言提供来大量的库来实现绘图功能。 饼图&#xff0c;或称饼状图&#xff0c;是一个划分为几个扇形的圆形统计图表&#xff0c;用于描述量、频率或百分比之间的相对关系。 R 语言使用 pie() 函数来实现饼图&#xff0c;语法格式如下&#xff1a; pie(x, l…

Ubuntu 22.04 一键部署MinerU1.1.0

MinerU MinerU是一款将PDF转化为机器可读格式的工具&#xff08;如markdown、json&#xff09;&#xff0c;可以很方便地抽取为任意格式。 MinerU诞生于书生-浦语的预训练过程中&#xff0c;我们将会集中精力解决科技文献中的符号转化问题&#xff0c;希望在大模型时代为科技发…

紫光同创开发板使用教程(二):sbit文件下载

sbit文件相当于zynq里面的bit文件&#xff0c;紫光的fpga工程编译完成后会自动生成sbit文件&#xff0c;因工程编译比较简单&#xff0c;这里不在讲解工程编译&#xff0c;所以我这里直接下载sbit文件。 1.工程编译完成后&#xff0c;可以看到Flow列表里面没有报错&#xff0c…

DeepSeek 部署全指南:常见问题解析与最新技术实践

引言 随着开源大模型DeepSeek的爆火&#xff0c;其部署需求激增&#xff0c;但用户在实际操作中常面临服务器压力、本地部署性能瓶颈、API配置复杂等问题。本文结合2025年最新技术动态&#xff0c;系统梳理DeepSeek部署的核心问题与解决方案&#xff0c;并分享行业实践案例&am…

LangChain构建行业知识库实践:从架构设计到生产部署全指南

文章目录 引言:行业知识库的进化挑战一、系统架构设计1.1 核心组件拓扑1.2 模块化设计原则二、关键技术实现2.1 文档预处理流水线2.2 混合检索增强三、领域适配优化3.1 医学知识图谱融合3.2 检索结果重排序算法四、生产环境部署4.1 性能优化方案4.2 安全防护体系五、评估与调优…

【Node.js】express框架

目录 1初识express框架 2 初步使用 2.1 安装 2.2 创建基本的Web服务器 2.3 监听方法 2.3.1 监听get请求 2.3.2 监听post请求 2.4 响应客户端 2.5 获取url中的参数(get) 2.5.1 获取查询参数 2.5.2 获取动态参数 2.6 托管静态资源 2.6.1 挂载路径前缀 2.6.2 托管多…

Vulhub靶机 Apache Druid(CVE-2021-25646)(渗透测试详解)

一、开启vulhub环境 docker-compose up -d 启动 docker ps 查看开放的端口 1、漏洞范围 在Druid0.20.0及更低版本中 二、访问靶机IP 8888端口 1、点击Load data进入新界面后&#xff0c;再点击local disk按钮。 2、进入新界面后&#xff0c;在标红框的Base directory栏写上…

Python----数据分析(Numpy一:numpy库简介,与list列表的区别,数组的创建,随机数组的创建)

一、 Numpy库简介 1.1、概念 NumPy(Numerical Python)是一个开源的Python科学计算库&#xff0c;旨在为Python提供 高性能的多维数组对象和一系列工具。NumPy数组是Python数据分析的基础&#xff0c;许多 其他的数据处理库&#xff08;如Pandas、SciPy&#xff09;都依赖于Num…