Python-网络爬虫

随着网络的迅速发展,如何有效地提取并利用信息已经成为一个巨大的挑战。为了更高效地获取指定信息,需定向抓取并分析网页资源,从而促进了网络爬虫的发展。本章将介绍使用Python编写网络爬虫的方法。

学习目标:
理解网络爬虫的基本操作流程

掌握通过requests库进行数据抓取的方法

掌握通过正则表达式进行数据解析的方法

掌握运用beautifulsoup4库解析和处理数据的方法

1   概述

网络爬虫(Web Spider)又称网络蜘蛛或网络机器人,是一段用来实现自动采集网站数据的程序。 网络爬虫不仅能够为搜索引擎采集网络信息,而且还可以作为定向信息采集器,定向采集某些网站中的特定信息。 对于定向信息的爬取,网络爬虫主要采取数据抓取、数据解析、数据入库的操作流程。

(1)数据抓取:发送构造的HTTP请求,获得包含所需数据的HTTP响应;

(2)数据解析:对HTTP响应的原始数据进行分析、清洗,以提取出所需要的数据;

(3)数据入库:将数据进一步保存到数据库(或文本文件)中,用于构建知识库。

Python提供了许多与网络爬虫相关的库。其中,在数据抓取方面requests;在数据解析方面包括re(正则表达式),beautifulsoup4。         

2   数据抓取

2.1  requests库概述

requests库提供了很多功能特性,几乎涵盖了所有Web服务的需求,包括URL获取、HTTP长连接和连接缓存、HTTP会话、浏览器式的SSL验证、身份认证、Cookie会话、文件分块上传、流下载、HTTP(S)代理功能、连接超时处理等。 由于requests库是第三方库,因此,需要通过pip3指令进行安装,pip3安装命令如下:

pip install requests

 通常需要使用国内代理:

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple/ requests

 安装完requests库后,在Python交互模式下输入导入requests库的语句:

import requests

 如果没有提示错误,则说明安装成功。

2.2  使用requests库

网络爬虫工作流程的第一步是数据的抓取,也就是使用requests库实现发送HTTP请求和获取HTTP响应的内容。

2.2.1发送HTTP请求

requests库提供了几乎所有的HTTP请求方法:

调用get()函数是获取网页最常用的方式,在调用requests.get()函数后,返回的网页内容会保存为一个Response对象。

import requests #导入requests库
r = requests.get('http://www.baidu.com')	#使用get函数打开百度链接
print(type(r))					#查看返回值r的类型
#<class 'requests.models.Response'>

 有时我们需要在URL中传递参数。

例如:在采集百度搜索结果时,需要传递wd参数(搜索词)。requests允许使用params关键字参数,以一个字符串字典来提供这些参数。

import requests				#导入requests库
payload = {'wd': 'Python'}			#定义字典
r = requests.get("http://www.baidu.com/s", params=payload)	#传入URL参数
print(r.url)							#输出URL的值
#'http://www.baidu.com/s?wd=Python'

 用浏览器打开被编码的URL得到百度搜索关键字“Python”的结果。

 2.2.2获取HTTP响应的内容

和浏览器的交互过程一样,requests.get()代表发送HTTP请求的过程,它返回的Response对象代表HTTP响应。我们可以通过Response对象的不同属性来获取不同内容,其语法格式如下:

对象名.属性名

 Response对象的常用属性:

 除了属性,Response对象还提供了两个常用的方法:

(1)json()方法:如果HTTP响应内容包含JSON格式数据,则该方法解析JSON数据。

提示:JSON的全称是“JavaScript Object Notation”,即JavaScript对象表示法,是一种基于文本又独立于语言的轻量级数据交换格式,易于阅读和理解。

例如:这段代码报错了,因为ip的问题,ip好像过期了

import requests			#导入requests库
r = requests.get('http://ip.taobao.com/service/getIpInfo.php?ip=140.205.220.96')
print(r.json())				#调用json()方法
#{'code': 0, 'data': {'ip': '122.88.60.28', 'country': '中国', 'area': '', 'region': '江苏', 'city': '南京', 'county': 'XX', 'isp': '铁通', 'country_id': 'CN', 'area_id': '', 'region_id': '320000', 'city_id': '320100', 'county_id': 'xx', 'isp_id': '100020'}}

 (2)raise_for_status()方法:该方法能在非成功响应后产生异常,即只要返回的请求状态status_code不是200,该方法就会产生一个异常,可用try-except异常处理结果进行处理。

提示:一般情况下,需要在发送HTTP请求之后,调用raise_for_status()方法判断有无发生异常,如果没有发生异常,则进行数据的处理,否则不进行数据处理。

2.2.3  简单应用

例:爬取“http://www.bjjqe.com”网站的内容,并将爬取到的内容输出。

import requests				#导入requests库
#异常处理
try:r = requests.get('http://www.bjjqe.com')#使用get函数打开指定的urlr.raise_for_status()			#如果状态不是200,则引发异常r.encoding = 'utf-8'			#更改编码方式print(r.text)				#用字符串的形式显示页面内容
except:print("网站连接失败!")		#发生异常则输出“网站连接失败!”

 运行效果:

3   数据解析

3.1  正则表达式

3.1.1正则表达式基础

正则表达式是用于处理字符串的强大工具,它使用预定义的特定模式去匹配一类具有共同特征的字符串,主要用于快速、准确地完成复杂字符串的查找、替换等。

具体应用时,可以单独使用某种类型的元字符,但处理复杂字符串时,经常需要将多个正则表达式元字符进行组合。下面给出了几个示例。 (1)'[a-zA-Z0-9]'可以匹配一个任意大小写字母或数字。 (2)'^(\w){6,15}$'匹配长度为6~15的字符串,可以包含数字、字母和下划线。 (3)'^\w+@(\w+\.)+\w+$'检查给定字符串是否为合法电子邮件地址。 (4)'\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3}$'检查给定字符串是否为合法IP地址。

3.1.2re模块

在Python中,主要使用re模块来实现正则表达式的操作,该模块的常用方法下表所示。

 (1) 直接使用re模块方法

import re			#导入re模块
#引入 Python 的正则表达式模块 re,它提供了处理正则表达式的功能。
text = 'Python.C.Java...PHP'	#定义text字符串
print(re.split('[\.]+',text))		#调用split()函数对text进行分割
#'[\.]+' 匹配连续的一个或多个点号作为分隔符。
#['Python', 'C', 'Java', 'PHP']
print(re.findall('[a-zA-Z]+',text))	#调用findall()函数查找由大小写字母组成的字符串
#['Python', 'C', 'Java', 'PHP']
#'[a-zA-Z]+' 匹配连续的一个或多个字母,形成单词。

(2)使用正则表达式对象

编译后的正则表达式对象不仅可以提高字符串的处理速度,还提供了更加强大的字符串处理功能。此处,我们首先使用re模块的compile()方法将正则表达式编译成正则表达式对象,然后使用正则表达式对象提供的方法进行字符串处理。

import re				#导入re模块
p = re.compile(r'\d+')		#将正则表达式编译成正则表达式对象
print(p.findall('one1two2three3four4'))#调用findall()方法查找数字
#['1','2','3','4']
#'\d+' 匹配连续的一个或多个数字。

 例子:爬取“http://www.bjjqe.com”网站的内容,解析数据,将该网站上的“.jpg“图片下载到本地。

 代码:(目标网站已更换为https://www.wenjingketang.com/bookHome/)

import requests                         #导入requests库
import re                                   #导入re模块
#定义一个getHtml()函数,根据填写的url参数获取数据
def getHtml(url):#异常处理try:r = requests.get(url)                   #使用get函数打开指定的urlr.raise_for_status()                    #如果状态不是200,则引发异常r.encoding = 'utf-8'                    #更改编码方式return r.text                       #返回页面内容except:return ""                           #发生异常返回空字符
#定义一个getImg()函数,根据填写的html参数获取图片并存储
def getImg(html):reg=r'src="(.+?\.jpg)"'                 #定义正则表达式#非贪婪模式匹配任意数量的任意字符(除了换行符),直到遇到第一个 .jpg。imglist=re.findall(reg,html)                #查找页面中所有符合条件的字符串#在这个例子中,它会找到所有符合 src="...jpg" 格式的图片链接,并将它们作为列表返回。print(imglist)                          #输出列表结果#打印出找到的所有图片链接,便于调试和验证。i = 0                                   #定义i用于给下载的图片命名for url in imglist:                     #遍历with open(str(i)+".jpg","wb") as fd:    #以写入方式打开二进制文件#以二进制写入模式打开一个新文件,文件名为当前计数值 i 加上扩展名 .jpg。#路径前加上“http://www.bjjqe.com”response=requests.get("https://www.wenjingketang.com/bookHome/"+url)  #获取内容#尝试获取图片的实际内容。注意这里直接在图片 URL 前添加了固定的域名 "https://www.wenjingketang.com/bookHome/"fd.write(response.content)      #写入文件print('图片',i,"保存成功\n")      #输出提示信息i+=1                            #i加1
html = getHtml("https://www.wenjingketang.com/bookHome/")     #调用获取页面内容函数
getImg(html)                                #调用获取图片并存储函数

 程序运行效果:

图片会保存在代码的同目录下 

3.2  beautifulsoup4库

beautifulsoup4也称为Beautiful Soupbs4,用于解析和处理HTMLXML文件,其最大优点是能够根据HTMLXML语法建立解析树,进而提高解析效率。

例如:有以下HTML文件:

<html><head></head><body><a>first</a><a>second</a></body>
</html>

 由于beautifulsoup4库是第三方库,因此,需要通过pip3指令进行安装,pip3安装命令如下:

pip install beautifulsoup4

beautifulsoup4库中最重要的类是BeautifulSoup,它的实例化对象相当于一个页面。

采用from-import语句导入库中的BeautifulSoup类,然后使用BeautifulSoup()创建一个BeautifulSoup对象。

例如:

import requests			#导入requests库
from bs4 import BeautifulSoup		#从bs4库中导入BeautifulSoup类
r = requests.get('http://www.baidu.com')	#使用get函数打开百度链接
r.encoding = 'utf-8'			#更改编码方式
soup = BeautifulSoup(r.text)		#创建BeautifulSoup对象
print(type(soup))				#查看soup类型
#<class 'bs4.BeautifulSoup'>

 创建的BeautifulSoup对象是一个树形结构,它包含HTML页面中的标签元素,如<head><body>也就是说,HTML中的主要结构都变成了BeautifulSoup对象的一个属性,可通过“对象名.属性名”形式获取属性值。

 

 

head

HTML页面的<head>内容

title

HTML页面标题,在<head>中,由<title>标记

body

HTML页面的<body>内容

p

HTML页面中第一个<p>内容

a

HTML页面中第一个<a>内容

strings

HTML页面所有呈现在Web上的字符串,即标签的内容

stripped_strings

HTML页面所有呈现在Web上的非空格字符串

 每一个标签在beautifulsoup4库中又是一个对象,称为Tag对象。

例如:

print(type(soup.p))#查看“soup.p”类型
#<class 'bs4.element.Tag'>

 Tag对象有4个常用属性:

 

 

name

字符串,标签的名字,如headtitle

attrs

字典,包含了页面标签的所有属性(尖括号内的其他项),如href

contents

列表,这个标签下所有子标签的内容

string

字符串,标签所包围的文字,网页中真实的文字(尖括号之间的内容)

 当需要列出对应标签的所有内容或找到非第一个标签时,可以使用BeautifulSoup对象的find_all()方法。该方法会遍历整个HTML文件,按照条件返回标签内容(列表类型)。其语法格式如下:

对象名.find_all(name, attrs,recursive, string, limit)

name表示标签名;
attrs表示按照标签属性值检索(需列出属性名和值);
recursive表示查找层次(Beautiful Soup默认检索当前标签的所有子孙节点,如果只搜索标签的直接子节点,可以使用参数recursive = False);
string表示按照关键字检索string属性内容(采用string = 开始);
limit表示返回结果的个数,默认返回全部结果。

例:爬取“https://www.wenjingketang.com/bookHome”网站的内容,解析数据,输出该网站中的图书信息。

import requests						#导入requests库
import re								#导入re模块
from bs4 import BeautifulSoup			#导入BeautifulSoup
#定义一个getHtml()函数,根据填写的url参数获取数据
def getHtml(url):#异常处理try:r = requests.get(url)				#使用get函数打开指定的urlr.raise_for_status()				#如果状态不是200,则引发异常r.encoding = 'utf-8'				#更改编码方式return r.text					#返回页面内容except:return ""						#发生异常返回空字符
#定义数据解析函数,用于找到符合条件的数据并输出
def getcon(html):bsObj = BeautifulSoup(html)			#将html对象转化为BeautifulSoup对象#找到所有class为bk_show_info的div来只获取图书的信息divList = bsObj.find_all('div',{'class':'bk_show_info'}) allbook = []						#存储全部数据,二维列表for divs in divList:book_info = []					#存储单本图书信息,一维列表book_name = divs.h4['data-name']	#获取图书名称book_info.append(book_name)	#将图书名称存储到book_infop_list = divs.find_all('p')			#查找单本图书的其他信息(在标签p中)for p_content in p_list:book_info.append(p_content.string)	#将p标签中的信息存入book_infoallbook.append(book_info)		#将单本图书的信息存入allbook#输出获取到的图书信息for book in allbook:print(book)
html = getHtml("https://www.wenjingketang.com/bookHome/")	#调用获取页面内容函数
getcon(html)							#调用解析数据函数

因为网站内容有变化,代码跑不通先学到这里了。。。。。。 

4   典型案例
 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/65687.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Kafka 性能提升秘籍:涵盖配置、迁移与深度巡检的综合方案

文章目录 1.1.网络和io操作线程配置优化1.2.log数据文件刷盘策略1.3.日志保留策略配置1.4.replica复制配置1.5.配置jmx服务1.6.系统I/O参数优化1.6.1.网络性能优化1.6.2.常见痛点以及优化方案1.6.4.优化参数 1.7.版本升级1.8.数据迁移1.8.1.同集群broker之间迁移1.8.2.跨集群迁…

【Qt】多元素控件:QListWidget、QTableWidget、QTreeWidget

目录 QListWidget 核心属性&#xff1a; 核心方法&#xff1a; 核心信号&#xff1a; 例子&#xff1a; QListWidgetItem QTableWidget 核心方法&#xff1a; 核心信号 QTableWidgetItem 例子&#xff1a; QTreeWidget 核心方法&#xff1a; 核心信号&#xff1a…

119.【C语言】数据结构之快速排序(调用库函数)

目录 1.C语言快速排序的库函数 1.使用qsort函数前先包含头文件 2.qsort的四个参数 3.qsort函数使用 对int类型的数据排序 运行结果 对char类型的数据排序 运行结果 对浮点型数据排序 运行结果 2.题外话:函数名的本质 1.C语言快速排序的库函数 cplusplus网的介绍 ht…

vulnhub靶机billu_b0x精讲

靶机下载 https://www.vulnhub.com/entry/billu-b0x,188/ 信息收集 扫描存活主机 nmap -sP 192.168.73.0/24 192.168.73.141为目标主机&#xff0c;对其进行进一步信息收集 端口扫描 nmap --min-rate10000 -p- 192.168.73.141 目标只开放了22和80端口 针对端口进行TCP探…

react相关报错--持续更新中

日常项目报错记录 一、开源项目问题集合安装依赖和启动问题1. 启动时候报The react-scripts package provided by Create React App requires a dependency: "babel-loader": "8.1.0"问题解决方法1:解决方法2: 二、reactAnt Design使用遇到的问题1. 使用ta…

vue实现下拉多选、可搜索、全选功能

最后的效果就是树形的下拉多选&#xff0c;可选择任意一级选项&#xff0c;下拉框中有一个按钮可以实现全选&#xff0c;也支持搜索功能。 在mounted生命周期里面获取全部部门的数据&#xff0c;handleTree是讲接口返回的数据整理成树形结构&#xff0c;可以自行解决 <div c…

数据库概念(MySQL第一期)

p.s.这是萌新自己自学总结的笔记&#xff0c;如果想学习得更透彻的话还是请去看大佬的讲解 目录 数据库就是管理数据的仓库 数据库&#xff1a;DataBase(DB)&#xff0c;是存储数据的仓库&#xff0c;数据是有组织的进行存储 数据库管理系统&#xff1a;DataBase Management S…

C语言初阶习题【19】三子棋游戏

1.实现三子棋游戏 2.思路 我们把游戏实现部分放在game.c和game.h中&#xff0c;把游戏的测试代码放到test.c中 main函数在test.c中。 2.1 test.c中 先写main 函数&#xff0c;在main函数中调用test函数。 int main() {test();return 0; }test.c函数实现让玩家进行选择是否…

金融租赁系统的创新发展与市场竞争力提升探讨

内容概要 随着经济的快速发展&#xff0c;金融租赁系统逐渐成为金融市场中不可或缺的一环。它不仅提供了灵活的资金解决方案&#xff0c;还促进了企业的资本结构优化与资源配置效率。因此&#xff0c;了解该系统的市场背景与发展现状至关重要。 在现今环境下&#xff0c;新兴…

设计模式与游戏完美开发(2)

更多内容可以浏览本人博客&#xff1a;https://azureblog.cn/ &#x1f60a; 该文章主体内容来自《设计模式与游戏完美开发》—蔡升达 第二篇 基础系统 第四章 游戏主要类——外观模式&#xff08;Facade&#xff09; 一、游戏子功能的整合 一个游戏程序常常由内部数个不同的…

linux自动化批量分发SSH密钥同时批量测试SSH连接教程(包含自动化脚本代码)

1、检查端口 检查分发对象22端口是否打开 nmap -p22 ip地址如果要批量检查端口可以参考我写的这篇文章&#xff1a;linux自动化一键批量检查主机端口 2、命令行分发密钥原理 Linux分发密钥原理主要涉及SSH&#xff08;Secure Shell&#xff09;协议&#xff0c;该协议用于…

OpenHarmony源码编译后烧录镜像教程,RK3566鸿蒙开发板演示

本文介绍瑞芯微主板/开发板编译OpenHarmony源码后烧录镜像的教程&#xff0c;触觉智能Purple Pi OH鸿蒙开发板演示。搭载了瑞芯微RK3566四核处理器&#xff0c;树莓派卡片电脑设计&#xff0c;支持开源鸿蒙OpenHarmony3.2-5.0系统&#xff0c;适合鸿蒙开发入门学习。 编译源码…

【GO基础学习】gin框架路由详解

文章目录 gin框架路由详解&#xff08;1&#xff09;go mod tidy&#xff08;2&#xff09;r : gin.Default()&#xff08;3&#xff09;r.GET()路由注册 &#xff08;4&#xff09;r.Run()路由匹配 总结 gin框架路由详解 先创建一个项目&#xff0c;编写一个简单的demo&#…

vue之axios基本使用

文章目录 1. axios 网络请求库2. axiosvue 1. axios 网络请求库 <body> <input type"button" value"get请求" class"get"> <input type"button" value"post请求" class"post"> <!-- 官网提供…

ubuntu快速入门

1.进入某个文件夹 cd workspace/2.tab自动补全 3.列出当前文件夹所有文件 ls列出所有文件包括隐藏文件 ls -a 4.创建文件夹 mkdir linuxLearn 5.创建文件 gedit command.sh在commmand.sh键入 echo hello echo hi? echo how are you? PS:touch hello.txt(也可以创建新…

优化 invite_codes 表的 SQL 创建语句

-- auto-generated definition create table invite_codes (id int auto_incrementprimary key,invite_code varchar(6) not null comment 邀请码&#xff0c;6位整数&#xff0c;确保在有效期内…

FATE-LLM简介;FATE-LLM集成了多种参数高效微调方法

FATE-LLM简介 FATE-LLM是一个支持联邦大语言模型训练的框架,其架构及核心技术原理如下: 架构概述 FATE-LLM主要由模型层、参数高效微调层、隐私保护与安全机制、通信与聚合模块等组成,致力于在保护数据隐私的前提下,利用联邦学习技术整合各方数据与算力资源,提升大语言模…

小程序租赁系统构建指南与市场机会分析

内容概要 在当今竞争激烈的市场环境中&#xff0c;小程序租赁系统正崭露头角&#xff0c;成为企业转型与创新的重要工具。通过这个系统&#xff0c;商户能够快速推出自己的小程序&#xff0c;无需从头开发&#xff0c;节省了大量时间和资金。让我们来看看这个系统的核心功能吧…

数据库系列之分布式数据库下误删表怎么恢复?

数据的完整性是数据库可用性的基本功能&#xff0c;在实际应用数据库变更操作过程中可能因为误操作导致误删表或者truncate操作影响业务的正常访问。本文介绍了分布式数据库中在误删表场景下的数据恢复方案&#xff0c;并进行了对比。 1、数据库误删表恢复方案 应用数据的完整…

论文阅读:Towards Faster Deep Graph Clustering via Efficient Graph Auto-Encoder

论文地址&#xff1a;Towards Faster Deep Graph Clustering via Efficient Graph Auto-Encoder | ACM Transactions on Knowledge Discovery from Data 代码地址&#xff1a; https://github.com/Marigoldwu/FastDGC 摘要 深度图聚类&#xff08;Deep Graph Clustering, DGC…