简单爬虫案例

准备工作:

1. 安装好python3 最低为3.6以上, 并成功运行pyhthon3 程序

2. 了解python 多进程原理

3. 了解 python  HTTP 请求库 requests 的基本使用

4. 了解正则表达式的用法和python 中 re 库的基本使用

爬取目标

目标网站: https://ssr1.scrape.center/

一个静态网站

目标:

利用 requests 爬取这个站点每一页的电影列表, 顺着列表再爬取每个电影的详情页

利用正则表达式提取每部电影的名称, 封面, 类别, 上映时间, 评分, 剧情简介等内容

把以上爬取的内容存储为JSON文本文件

使用多进程实现爬取加速

爬取列表页

引入必要的库:

import requests
import logging
import re
from urllib.parse import urljoin
 

 requests 库用来抓取页面, logging 库用来输出信息, re 库用来实现正则表达式解析,urljoin用来做URL拼接

设置一些基础变量:

logging.basicConfig(level=logging.INFO, format='%(asctime)s- %(levelname)s: %(message)s')
BASE_URL = 'https://ssr1.scrape.center'
TOTAL_PAGE =10

接着定义了日志输出级别和输出格式, 以及BASE_URL 为当前站点的根URL

TOTAL_PAGE为需要爬取的总页码量

def scrape_page(url):
    logging.info('scraping %s....', url)
    try:
        response = requests.get(url)
        if response.status_code == 200:
            return response.text
        logging.error('get invalid staus code %s while scraping %s', response.status_code, url)
    except requests.RequestException:
        logging.error('error occurred while scraping %s', url, exc_info=True)

考虑到不仅要爬取列表页面,也要爬取详情页, 所以这里我们定义了一个比较通用的爬取页面的方法, 叫做 scrape_page, 它接收一个参数 url , 返回页面的 HTML  代码,。 首先判断状态码是否是200, 如果是就直接返回页面的HTML 代码, 如果不是,则输出错误日志。 另外这里实现了 requests 的异常处理, 如果出现爬取异常, 就输出对应的错误信息。 我们将logging 中的 error 方法里的 exc_info 设置为 True 可以打印出 Traceback 错误堆栈信息

在 scrape_page 的基础上, 我们来定义列表页的爬取方法:

def scrape_index(page):
    index_url = f'{BASE_URL}/page/{page}'
    return scrape_page(index_url)

方法名: scrape_index  这个方法接收一个 page 参数, 即列表页的页码, 我们在方法里面实现页面URL 的拼接, 然后调用 scrape_page 的方法即可, 这样就就可以获取HTML代码了

下一步就是获取列表页, 并得到每部电影详情的URL 

def parse_index(html):
    pattern = re.compile('<a.*?href="(.*?)".*?class="name">')
    items = re.findall(pattern, html)
    if not items:
        return []
    for item in items:
        detail_url = urljoin(BASE_URL, item)
        logging.info('get detail url %s', detail_url)
        yield detail_url

在这里定义了 parse_index 方法, 它接收一个参数 html , 即列表页的代码。

在这个方法里 , 我们首先 定义了一个提取标题超链接href 属性的正则表达式, 

<a.*?href="(.*?)".*?class="name">

我们使用非贪婪通用匹配符  .*?  来匹配任意字符, 同时在 href 属性的引号之间使用了分组匹配 (.*?)  正则表达式, 这样我们就能在匹配结果中获取到 href 里面的值了。 正则表达式后紧跟着

class="name"  用来表示这个 <a> 节点 式代表电影名称的节点

然后使用 re 库中的 findall 来提取所有 href 中的值, 第一个参数是 pattern 对象, 第二个参数传入html , 这样findall 就能搜素所有 html中与该正则表达式相匹配的内容, 之后把匹配结果返回。 并赋值为 items 如果items 为空就直接返回空列表, 如果不为空 那么直接遍历处理即可,遍历items 得到的 item 就是类似 /detail/1 这样的结果, 由于这并不是一个完整的URL, 所以需要借助 urljoin 把 BASE_URL  和 href 拼接到一起, 获得详情页的完整 URL , 得到的结果就是类似 https://ssr1.scrape.conter/detail/1 这样完整URL, 最后 yield 返回即可

现在我们调用 parse_index 方法 往其中传入列表页的 HTML 代码, 就可以获取所有电影的详情页的 URL 了

 def main():
    for page in range(1, TOTAL_PAGE + 1):
        index_html = scrape_index(page)
        detail_urls = parse_index(index_html)
        logging.info('detail urls %s', list(detail_urls))
if __name__ == '__main__':
    main()

这里定义了 main 方法, 以完成所有上面方法的调用, main 方法中首先调用 range 方法遍历 了所有页码, 得到的 page 就是 1-10 接着把page 变量传给scrape_index 方法, 得到列表页 HTML 把得到的 HTML 赋值给 index_html , 接着将 index_html 传给 parse_index 方法, 得到列表页所有电影详情页的URL , 并赋值 给 detail_urls , 结果是一个生成器, 我们调用 list 方法就可将其输出

部分结果、

爬取详情页

封面: 是一个 img 节点 其class 属性为 cover

名称: 是一个 h2 节点, 其内容为电影名称

类别: 是 span 节点, 其内容是电影类别。 span节点外侧是 button 节点,再外侧是class为 categories的div 节点

上映时间: 是span节点, 其内容包含上映时间, 外侧是 class 为 info 的div 节点。 另外提取结果中还多了 "上映" 二字, 我们可以用正则表达式把 日期提取出来

评分: 是一个p 节点, 其内容为 电影评分, p 节点的class属性为 score

剧情简介: 是一个 p 节点, 其内容便是剧情简介。 其外侧式class 为 drama 的div 节点

我们前面已经获取了详情页的 URL , 下面定义一个详情页的爬取方法,

def scrape_detail(url):
    return scrape_page(url)

这里定义了一个 scrape_detail 的方法, 接收一个 url 参数, 并通过 scape_page 方法获取详情页的HTML代码, 前面已经实现过了, 这里另外调用一次,一是这样会显得逻辑清晰,二是为了方便日后维护, 例如如果要输出错误日志, 增加预处理等, 都可以再这里实现

获取到详情页的代码后就是对详情页的解析了

def parse_detail(html):
    """
    parse detail page
    :param html: html of detail page
    :return: data
    """

# 这里是对每个内容的提取,做了正则化

    cover_pattern = re.compile(
        'class="item.*?<img.*?src="(.*?)".*?class="cover">', re.S)
    name_pattern = re.compile('<h2.*?>(.*?)</h2>')
    categories_pattern = re.compile(
        '<button.*?category.*?<span>(.*?)</span>.*?</button>', re.S)
    published_at_pattern = re.compile('(\d{4}-\d{2}-\d{2})\s?上映')
    drama_pattern = re.compile('<div.*?drama.*?>.*?<p.*?>(.*?)</p>', re.S)
    score_pattern = re.compile('<p.*?score.*?>(.*?)</p>', re.S)

# 这里将对应的正则带入页面代码, 提取出相应的内容

    cover = re.search(cover_pattern, html).group(
        1).strip() if re.search(cover_pattern, html) else None
    name = re.search(name_pattern, html).group(
        1).strip() if re.search(name_pattern, html) else None
    categories = re.findall(categories_pattern, html) if re.findall(
        categories_pattern, html) else []
    published_at = re.search(published_at_pattern, html).group(
        1) if re.search(published_at_pattern, html) else None
    drama = re.search(drama_pattern, html).group(
        1).strip() if re.search(drama_pattern, html) else None
    score = float(re.search(score_pattern, html).group(1).strip()
                  ) if re.search(score_pattern, html) else None

# 将提取出的内容以字典形式返回

    return {
        'cover': cover,
        'name': name,
        'categories': categories,
        'published_at': published_at,
        'drama': drama,
        'score': score
    }

这里定义了一个 parsse-detail 的方法, 接收一个参数 html 解析其中的内容,并以字典形式返回结果

保存数据

这里将提取到的数据以 JSON的格式保存到文本

import json
from os import makedirs
from os.path import exists

RESULTS_DIR = 'results'
exists(RESULTS_DIR) or makedirs(RESULTS_DIR)
def save_data(data):
    """
    save to json file
    :param data:
    :return:
    """
    name = data.get('name')
    data_path = f'{RESULTS_DIR}/{name}.json'
    json.dump(data, open(data_path, 'w', encoding='utf-8'),
              ensure_ascii=False, indent=2)

首先定义了保存数据的文件夹 RESULTS_DIR , 判断这个文件夹是否存在, 如果不存在则新建一个。

接着定义了保存数据的方法 save_data 其中首先是获取数据的name 字段,即电影的名称。将其作为JSON文件的名称, 然后构造JSON文件的路径 接着用JSON 的dump 方法将数据保存成文本格式,dump由两个参数,一个是 ensure_ascii 值为False, 可以保证中文字符在文件中能以正常的中文文本呈现, 而不是 unicode 字符, 另一个是 indent, 值为2, 设置了JSON数据的结果由两行缩进。

接下来改变一下 main 方法

def main():
    for page in range(1, TOTAL_PAGE + 1):
        index_html = scrape_index(page)
        detail_urls = parse_index(index_html)
    for detail_url in detail_urls:
        detail_html = scrape_detail(detail_url)
        data = parse_detail(detail_html)
        logging.info('get detail dat %s', data)
        logging.info('saving data to json file')
        save_data(data)
        logging.info('data saved successfully')
if __name__ == '__main__':
    main()

这里只是将前面输出的数据传入了保存数据的函数并没有多少改变

多进程加速

import multiprocessing
def main(page):
    """
    main process
    :return:
    """
    index_html = scrape_index(page)
    detail_urls = parse_index(index_html)
    for detail_url in detail_urls:
        detail_html = scrape_detail(detail_url)
        data = parse_detail(detail_html)
        logging.info('get detail data %s', data)
        logging.info('saving data to json file')
        save_data(data)
        logging.info('data saved successfully')

if __name__ == '__main__':
    pool = multiprocessing.Pool()
    pages = range(1, TOTAL_PAGE + 1)
    pool.map(main, pages)
    pool.close()

这里首先改变了一下 main 方法,在里面添加了一个page 参数, 用以表示页的页码。接着声明了一个进程池, 并声明pages 为所需要遍历的页码, 即 1-10 最后调用map 方法, 其第一个参数就是需要被调用的参数, 第二个参数就是 pages 即需要遍历的页码

这样就会一次遍历 pages 中的内容, 把1-10 这10个页码分别传递给main方法,并把每次的调用分别变成一个进程,加入进程池中,进程池根据当前的运行环境来决定运行多少个进程。 例如 8 核的, 那么进程池的大小就会默认为 8 这样就有 8 个进程并行运作

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/872741.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

scrapy框架爬取豆瓣top250电影排行榜(下)

&#xff08;3&#xff09;在 pipeline.py 文件中对数据进行存储&#xff0c;此程序先写 入 txt 文件中&#xff0c;是为了判断该程序是否能正确爬取出数据。 此处使用了 json 库&#xff0c;使用 ensure_ascii False&#xff0c;能够确 保非 ASCII 字符&#xff08;如中文&am…

贪心算法(2024/7/16)

1合并区间 以数组 intervals 表示若干个区间的集合&#xff0c;其中单个区间为 intervals[i] [starti, endi] 。请你合并所有重叠的区间&#xff0c;并返回 一个不重叠的区间数组&#xff0c;该数组需恰好覆盖输入中的所有区间 。 示例 1&#xff1a; 输入&#xff1a;inter…

SpringCloud网关的实现原理与使用指南

Spring Cloud网关是一个基于Spring Cloud的微服务网关&#xff0c;它是一个独立的项目&#xff0c;可以对外提供API接口服务&#xff0c;负责请求的转发和路由。本文将介绍Spring Cloud网关的实现原理和使用指南。 一、Spring Cloud网关的实现原理 Spring Cloud网关基于Spring…

5.操作led

模版使用之前的hello驱动程序。 想要操作led&#xff0c;首先要找到原理图&#xff0c;查找GPIO对应的GPIO引脚 从图中能看出来LED2对应的GPIO是GPIO5_3&#xff0c;同时可以得知这个LED2是低电平点亮。查看cat /sys/kernel/debug/gpio可得知GPIO5_3&#xff08;第四组GPIO的第…

【深度学习入门篇 ⑧】关于卷积神经网络

【&#x1f34a;易编橙&#xff1a;一个帮助编程小伙伴少走弯路的终身成长社群&#x1f34a;】 大家好&#xff0c;我是小森( &#xfe61;ˆoˆ&#xfe61; ) &#xff01; 易编橙终身成长社群创始团队嘉宾&#xff0c;橙似锦计划领衔成员、阿里云专家博主、腾讯云内容共创官…

Python和C++骨髓细胞进化解析数学模型

&#x1f3af;要点 &#x1f3af; 数学模型邻接矩阵及其相关的转移概率 | &#x1f3af;蒙特卡罗模拟进化动力学 | &#x1f3af;细胞进化交叉图族概率 | &#x1f3af;进化图模型及其数学因子 | &#x1f3af;混合图模式对进化概率的影响 | &#x1f3af;造血干细胞群体的空间…

汇总国内镜像提供了Redis的下载地址

文章目录 1. 清华大学开源软件镜像站&#xff1a;2. 中国科技大学开源软件镜像&#xff1a;3. 阿里云镜像&#xff1a;4. 华为云镜像&#xff1a;5. 腾讯云镜像&#xff1a;6. 网易开源镜像站7. 官方GitHub仓库&#xff08;虽然不是镜像&#xff0c;但也是一个可靠的下载源&…

AI算法19-偏最小二乘法回归算法Partial Least Squares Regression | PLS

偏最小二乘法回归算法简介 算法概述 偏最小二乘法模型可分为偏最小二乘回归模型和偏最小二乘路径模型。其中偏最小二乘回归模型是一种新型的多元统计方法&#xff0c;它集中了主成分分析、典型相关分析和线性回归的特点&#xff0c;特别在解决回归中的共线性问题具有无可比拟…

# Redis 入门到精通(五)-- redis 持久化(2)

Redis 入门到精通&#xff08;五&#xff09;-- redis 持久化&#xff08;2&#xff09; 一、redis 持久化–save 配置与工作原理 1、RDB 启动方式&#xff1a;反复执行保存指令&#xff0c;忘记了怎么办&#xff1f;不知道数据产生了多少变化&#xff0c;何时保存&#xff1…

CNN之图像识别

Inception Inception网络是CNN发展史上一个重要的里程碑。在Inception出现之前&#xff0c;大部分流行CNN仅仅是把卷积层堆叠得越来越多&#xff0c;使网络越来越深&#xff0c;以此希望能够得到更好的性能。但是存在以下问题: 图像中突出部分的大小差别很大。由于信息位置的…

【typedb】例子:药物发现: studio运行

测试8:solution结果 测试1:获取名字为Q9NPB9的protein Let’s start by getting the names of the protein Q9NPB9:测试2:哪个基因编码了Q9NPB9 Now let’s see which gene encodes for protein Q9NPB9: 推理过程:

【Linux】基础I/O——FILE,用户缓冲区

1.FILE里的fd FILE是C语言定义的文件结构体&#xff0c;里面包含了各种文件信息。可以肯定的一点是&#xff0c;FILE结构体内一定封装了 fd 。为什么?来看接下来的思路分析&#xff1a; 1.使用系统接口的必然性   文件存储在磁盘上&#xff0c;属于外设。谁有权限访问…

RabbitMQ:基础篇

1.RabbitMQ是高性能的异步通讯组件 何为异步通讯 打电话就是同步通讯&#xff0c;微信聊天可以理解为异步通讯&#xff0c;不是实时的进行通讯&#xff1a;时效性差。 同步调用的缺点&#xff1a; 拓展性差&#xff08;需求不尽提&#xff09; 性能下降 级联失败 …

带你轻松玩转DevOps

一、DevOps详细介绍 软件开发最开始是由两个团队组成&#xff1a; 开发计划由**开发团队**从头开始设计和整体系统的构建。需要系统不停的迭代更新。**运维团队**将开发团队的Code进行测试后部署上线。希望系统稳定安全运行。 这两个看似目标不同的团队&#xff0c;需要协同完…

HarmonyOS 开发者联盟高级认证最新题库

本篇文章包含 Next 版本更新后高级认证题库中95%的题目。 答案正确率 50-60%&#xff0c;答案仅做参考。 请在考试前重点看一遍题目&#xff0c;勿要盲目抄答案。 欢迎在评论留言正确答案和未整理的题目。 1、下面关于方舟字节码格式PREF_IMM16_v8_v8描述正确的是 16位前缀操作…

dp or 数学问题

看一下数据量&#xff0c;只有一千&#xff0c;说明这个不是数学问题 #include<bits/stdc.h> using namespace std;#define int long long const int mo 100000007; int n, s, a, b; const int N 1005;// 2 -3 // 1 3 5 2 -1 // 1 -2 -5 -3 -1 int dp[N][N]; int fun…

算法力扣刷题记录 四十九【112. 路径总和】和【113. 路径总和ii】

前言 二叉树篇继续。 记录 四十九【112. 路径总和】和【113. 路径总和ii】 一、【112. 路径总和】题目阅读 给你二叉树的根节点 root 和一个表示目标和的整数 targetSum 。判断该树中是否存在 根节点到叶子节点 的路径&#xff0c;这条路径上所有节点值相加等于目标和 target…

django-ckeditor富文本编辑器

一.安装django-ckeditor 1.安装 pip install django-ckeditor2.注册应用 INSTALLED_APPS [...ckeditor&#xff0c; ]3.配置model from ckeditor.fields import RichTextFieldcontent RichTextField()4.在项目中manage.py文件下重新执行迁移&#xff0c;生成迁移文件 py…

R语言模型评估网格搜索

### 网格搜索 ### install.packages("gbm") set.seed(1234) library(caret) library(gbm) fitControl <- trainControl(method repeatedcv,number 10,repeats 5) # 设置网格搜索的参数池 gbmGrid <- expand.grid(interaction.depth c(3,5,9),n.trees (1:2…

轨道交通AR交互教学定制公司优选深圳华锐视点

在寻找上海AR开发制作公司作为合作伙伴的过程中&#xff0c;选择一家既技术深厚又具备丰富经验的AR开发企业&#xff0c;成为了众多客户与合作伙伴的共同追求。华锐视点上海AR开发制作公司作为业界的佼佼者&#xff0c;凭借其卓越的公司规模、丰富的行业案例以及顶尖的ar增强现…