python request url 转义_Python爬虫入门笔记

c2b598a7a03067e63b6f22fc94f3655e.png

来源:blog.csdn.net/weixin_44864260


爬虫四大步骤:

1.获取页面源代码

2.获取标签

3.正则表达式匹配

4.保存数据

1. 获取页面源代码

5个小步骤:
1.伪装成浏览器
2.进一步包装请求
3.网页请求获取数据
4.解析并保存
5.返回数据

e34f0d8ca7ce3ec82e3b84447fad0007.png

代码:

import urllib.request,urllib.error #指定URL,获取页面数据#爬取指定urldef askUrl(url):  #请求头伪装成浏览器(字典)    head = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3776.400 QQBrowser/10.6.4212.400"}    #进一步包装请求    request = urllib.request.Request(url = url,headers=head)    #存储页面源代码    html = ""    try:      #页面请求,获取内容        response = urllib.request.urlopen(request)        #读取返回的内容,用"utf-8"编码解析        html = response.read().decode("utf-8")    except urllib.error.URLError as e:        if hasattr(e,"code"):            print(e.code)        if hasattr(e,"reson"):            print(e.reson)    #返回页面源代码    return html

2.获取标签

通过BeautifulSoup进一步解析页面源代码

from bs4 import BeautifulSoup #页面解析,获取数据

Beautiful Soup 将复杂 HTML 文档转换成一个复杂的树形结构,每个节点都是 Python 对象,可分为四大对象种类,这里主要用到Tag类的对象,还有三种,有兴趣可以自己去深入学习~~

#构建了一个BeautifulSoup类型的对象soup#参数为网页源代码和”html.parser”,表明是解析html的bs = BeautifulSoup(html,"html.parser")#找到所有class叫做item的div,注意class_有个下划线bs.find_all('div',class_="item")

3.正则表达式匹配

先准备好相应的正则表达式,然后在上面得到的标签下手

#Python正则表达式前的 r 表示原生字符串(rawstring)#该字符串声明了引号中的内容表示该内容的原始含义,避免了多次转义造成的反斜杠困扰#re.S它表示"."的作用扩展到整个字符串,包括“\n”#re.compile()编译后生成Regular Expression对象,由于该对象自己包含了正则表达式#所以调用对应的方法时不用给出正则字符串。#链接findLink = re.compile(r'',re.S)#找到所有匹配的#参数(正则表达式,内容)#[0]返回匹配的数组的第一个元素 link = re.findall(findLink,item)[0]

4.保存数据

两种保存方式

1.保存到Excel里

import xlwt #进行excel操作def saveData(dataList,savePath):  #创建一个工程,参数("编码","样式的压缩效果")    woke = xlwt.Workbook("utf-8",style_compression=0)    #创建一个表,参数("表名","覆盖原单元格信息")    sheet = woke.add_sheet("豆瓣电影Top250",cell_overwrite_ok=True)    #列明    col = ("链接","中文名字","英文名字","评分","标题","评分人数","概况")    #遍历列名,并写入    for i in range (7):        sheet.write(0,i,col[i])    #开始遍历数据,并写入    for i in range (0,250):        for j in range (7):            sheet.write(i+1,j,dataList[i][j])            print("第%d条数据"%(i+1))    #保存数据到保存路径    woke.save(savePath)    print("保存完毕")

结果文件:

d503c515d981d594a46c6bae3e255e29.png

c996b22c2349c655bb0c2cfe69d6950e.png

2.保存到数据库

import sqlite3 #进行sql操作#新建表def initdb(dataPath):  #连接dataPath数据库,没有的话默认新建一个    conn = sqlite3.connect(dataPath)    #获取游标    cur = conn.cursor()    #sql语句    sql = '''        create table movie(        id Integer primary key autoincrement,        info_link text,        cname varchar ,        fname varchar ,        rating varchar ,        inq text,        racount varchar ,        inf text        )    '''    #执行sql语句    cur.execute(sql)    #提交事物    conn.commit()    #关闭游标    cur.close()    #关闭连接    conn.close()def savedb(dataList,dataPath):  #新建表    initdb(dataPath)    #连接数据库dataPath    conn = sqlite3.connect(dataPath)    #获取游标    cur = conn.cursor()    #开始保存数据    for data in dataList:        for index in range(len(data)):          #在每个数据字段两边加上""双引号            data[index] = str('"'+data[index]+'"')        #用","逗号拼接数据        newstr = ",".join(data)        #sql语句,把拼写好的数据放入sql语句        sql ="insert into movie(info_link,cname,fname,rating,inq,racount,inf)values(%s)"%(newstr)        print(sql)        #执行sql语句        cur.execute(sql)        #提交事务        conn.commit()    #关闭游标    cur.close()    #关闭连接    conn.close()    print("保存完毕")

结果文件:

b711103c56747c43f18713b390a76aed.png

92e52fd14579165965583d090cb88c99.png

爬取豆瓣TOP250的所有代码

from bs4 import BeautifulSoup #页面解析,获取数据import re #正则表达式import urllib.request,urllib.error #指定URL,获取页面数据import xlwt #进行excel操作import sqlite3 #进行sql操作def main():    baseUrl = "https://movie.douban.com/top250?start="    #1.爬取网页,并解析数据    dataList = getData(baseUrl)    # savePath=".\\豆瓣电影Top250.xls"    savePath = "movies.db"    #2.保存数据    # saveData(dateList,savePath)    savedb(dataList,savePath)#---正则表达式---#链接findLink = re.compile(r'',re.S)#电影名字findName = re.compile(r'(.*?)',re.S)#评分findRating = re.compile(r'(.*?)')#标题findInq = re.compile(r'(.*?)',re.S)#评分人数findCount = re.compile(r'(.*?)人评价')#电影信息findInf = re.compile(r'

(.*?)

',re.S)#1.爬取网页def getData(baseUrl): dataList = [] for i in range(10): html = askUrl(baseUrl + str(i * 25)) # 2.逐一解析数据 bs = BeautifulSoup(html,"html.parser") for item in bs.find_all('div',class_="item"): data = [] item = str(item) #链接 link = re.findall(findLink,item)[0] #名字 name = re.findall(findName,item) if len(name) == 1: cName = name[0] fName = " " else: name[1] = name[1].replace(" / ","") cName = name[0] fName = name[1] #评分 rating = re.findall(findRating,item)[0] #标题 inq = re.findall(findInq,item) if len(inq) < 1: inq = " " else: inq= inq[0] #评分人数 racount = re.findall(findCount,item)[0] #电影信息 inf = re.findall(findInf,item)[0] inf = re.sub("...
(\s?)"," ",inf) inf = re.sub("/"," ",inf) inf = inf.strip() #添加一部电影的信息进data data.append(link) data.append(cName) data.append(fName) data.append(rating) data.append(inq) data.append(racount) data.append(inf) dataList.append(data) return dataList#爬取指定urldef askUrl(url): head = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3776.400 QQBrowser/10.6.4212.400"} request = urllib.request.Request(url = url,headers=head) http = "" try: response = urllib.request.urlopen(request) http = response.read().decode("utf-8") except urllib.error.URLError as e: if hasattr(e,"code"): print(e.code) if hasattr(e,"reson"): print(e.reson) return http# 3.保存数据def saveData(dataList,savePath): woke = xlwt.Workbook("utf-8",style_compression=0)#样式的压缩效果 sheet = woke.add_sheet("豆瓣电影Top250",cell_overwrite_ok=True)#覆盖原单元格信息 col = ("链接","中文名字","英文名字","评分","标题","评分人数","概况") for i in range (7): sheet.write(0,i,col[i]) for i in range (0,250): for j in range (7): sheet.write(i+1,j,dataList[i][j]) print("第%d条数据"%(i+1)) woke.save(savePath) print("保存完毕")#3.保存到数据库def savedb(dataList,dataPath): initdb(dataPath) conn = sqlite3.connect(dataPath) cur = conn.cursor() #开始保存数据 for data in dataList: for index in range(len(data)): data[index] = str('"'+data[index]+'"') newstr = ",".join(data) sql ="insert into movie(info_link,cname,fname,rating,inq,racount,inf)values(%s)"%(newstr) print(sql) cur.execute(sql) conn.commit() cur.close() conn.close() print("保存完毕")#3-1新建表def initdb(dataPath): conn = sqlite3.connect(dataPath) cur = conn.cursor() sql = ''' create table movie( id Integer primary key autoincrement, info_link text, cname varchar , fname varchar , rating varchar , inq text, racount varchar , inf text ) ''' cur.execute(sql) conn.commit() cur.close() conn.close()if __name__ == "__main__": #调用函数    main()

愉快爬虫:

遵守 Robots 协议,但有没有 Robots 都不代表可以随便爬,可见下面的大众点评百度案;
限制你的爬虫行为,禁止近乎 DDOS的请求频率,一旦造成服务器瘫痪,约等于网络攻击;
对于明显反爬,或者正常情况不能到达的页面不能强行突破,否则是 Hacker行为;
最后,审视清楚自己爬的内容,以下是绝不能碰的红线(包括但不限于):

https://www.zhihu.com/question/291554395/answer/514982754


PS:如果觉得我的分享不错,欢迎大家随手点赞、在看。

END

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/522329.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ECS TAG功能详解

摘要&#xff1a; Tag&#xff08;标签&#xff09;&#xff0c;阿里云提供的一种标记资源的方式&#xff0c;对资源添加标签可以方便地对资源进行标记&#xff0c;从而方便的进行资源的批量管理&#xff0c;现在ECS可以使用Tag标记的资源主要有以下几种&#xff1a;实例、磁盘…

日本三大移动通信运营商已重启华为手机销售;高通与LG和解 签署新的5年期专利授权协议; Facebook加密货币Libra被审查...

戳蓝字“CSDN云计算”关注我们哦&#xff01;嗨&#xff0c;大家好&#xff0c;重磅君带来的【云重磅】特别栏目&#xff0c;如期而至&#xff0c;每周五第一时间为大家带来重磅新闻。把握技术风向标&#xff0c;了解行业应用与实践&#xff0c;就交给我重磅君吧&#xff01;重…

工作流实战_21_flowable 加签 任务向前加签 向后加签

项目地址https://gitee.com/lwj/flowable.git代码分支flowable-base视频讲解地址https://www.bilibili.com/video/av78471660/ 用户名密码0000001test0000002test0000003test0000004test文章目录1. 场景分析2. 演示&#xff1a;3. 代码分享3.1. 加签的方法3.2. 审批环节处理1.…

视频直播常见问题与解决办法汇总【系列二—直播截图】

摘要&#xff1a; 使用场景 用户常需要对视频直播的内容进行分析。例如&#xff0c;需要对直播中的某一帧的内容作为封面图片或者对于直播内容进行鉴黄以查看内容合法性等需求。因此&#xff0c;视频直播提供了实时截图功能满足用户的截图需求。 截图功能介绍 截图功能配置 配置…

hibernate 复合主键 根据主键删除_Python 之 MySql“未解之谜”11--主键 id 那些事

主键 id 用自增和 uuid 有什么区别&#xff1f;● uuid 有 16 个字节&#xff0c;比 int(4 byte)和 bigint(8 byte)占用更多存储空间有大量数据的时候 uuid 主键不会像自增主键那样越界&#xff0c;如果使用自增 id&#xff0c;字段类型一般选择 bigint● 如果 InnoDB 表的数据…

上万条数据撕开微博热搜的真相!

戳蓝字“CSDN云计算”关注我们哦&#xff01;作者 | 徐麟&#xff0c;某互联网公司数据分析狮来源 | 数据森麟&#xff08;id&#xff1a;shujusenlin&#xff09;吃瓜前言关于新浪微博&#xff0c;向来都是各路吃瓜群众聚集之地&#xff0c;大家在微博中可以尽情吃瓜&#xff…

机器学习与Scikit Learn学习库

摘要&#xff1a; 本文介绍机器学习相关的学习库Scikit Learn&#xff0c;包含其安装及具体识别手写体数字案例&#xff0c;适合机器学习初学者入门Scikit Learn。在我科研的时候&#xff0c;机器学习&#xff08;ML&#xff09;是计算机科学领域中最先吸引我的一门学科。虽然这…

工作流实战_19_flowable 任务委派

项目地址https://gitee.com/lwj/flowable.git代码分支flowable-base视频讲解地址https://www.bilibili.com/video/av78294766/ 用户名密码0000001test0000002test0000003test0000004test文章目录场景分析1. 演示2. 代码分享3. 委派的执行处理场景分析 解释&#xff1a;委派 A…

【视频点播最佳实践】使用OSS SDK上传视频到点播

摘要&#xff1a; 场景 点播上传SDK缺乏需要的语言版本&#xff08;如C/C、Go等&#xff09;或相应的功能&#xff08;如网络流上传、追加上传&#xff09;&#xff0c;可以直接使用OSS的SDK进行上传。 准备工作 确认已开通点播服务并完成了相关配置。确认已准备了阿里云账号AK…

Aruba 推出Instant On 为中小型企业提供安全、高速的无线连接

戳蓝字“CSDN云计算”关注我们哦&#xff01;让你过几天没有Wi-Fi的生活&#xff0c;是一种什么样的感受&#xff1f;在现代人的生活里&#xff0c;离不开Wi-Fi已经成为日常&#xff0c;超市、酒店、住宅、医院、高铁……你能想到的所有场景几乎都已经部署了Wi-Fi。从个人角度来…

NSURLProtocol 拦截 NSURLSession 请求时body丢失问题解决方案探讨

摘要&#xff1a; “IP直连方案”主要在于解决DNS污染、省去DNS解析时间&#xff0c;通常情况下我们可以在项目中使用 NSURLProtocol 拦截 NSURLSession 请求&#xff0c;下面将支持 Post 请求中面临的一个挑战&#xff0c;以及应对策略介绍一下。 “IP直连方案”主要在于解决D…

工作流实战_18_flowable 流程任务的转办

项目地址https://gitee.com/lwj/flowable.git代码分支flowable-base视频讲解地址https://www.bilibili.com/video/av78184848/ 用户名密码0000001test0000002test0000003test0000004test文章目录1. 演示2. 代码分享1. 演示 2. 代码分享 public ReturnVo<String> turnTa…

深入解读:获Forrester大数据能力高评价的阿里云DataWorks思路与能力

摘要&#xff1a; Forrester发布了Now Tech: Cloud Data Warehouse Q1 2018报告&#xff0c;报告对云化数据仓库&#xff08;Cloud Data Warehouse, CDW&#xff09;的主要功能、区域表现、细分市场和典型客户等进行了全面评估。 1.前言 本文基于Now Tech: Cloud Data Warehous…

用C语言倒置字符串

要逆置这个字符串&#xff0c;有很多种方法&#xff0c;在此说一次比较巧妙的方法 首先&#xff0c;逆置这个字符串&#xff0c;可以考虑单独的把每个单词都逆序一下&#xff0c;在对整个字符串进行逆序 考虑本题中的I like beijing. 首先对I、like、beijing. 中的每个单词逆序…

java中怎么把生成文件到项目根目录_[SpringBoot2.X] 02- 项目结构介绍

POM文件继承Spring Boot 的父级依赖&#xff0c;只有继承它项目才是 Spring Boot 项目。 spring-boot-starter-parent 是一个特殊的 starter&#xff0c;它用来提供相关的 Maven 默认依赖。使用它之后&#xff0c;常用的包依赖可以省去 version 标签。也就是继承的是springboot…

大咖云集、精彩议题、独家内容,2019 AI ProCon震撼来袭!(日程出炉)

2019年9月5-7日&#xff0c;面向AI技术人的年度盛会—— 2019 AI开发者大会 AI ProCon&#xff0c;火热来袭&#xff01; 继2018 年由CSDN成功举办AI 开发者大会一年之后&#xff0c;全球AI市场正发生着巨大的变化。顶尖科技企业和创新力量不断地进行着技术的更迭和应用的推进。…

机器学习的未来——深度特征融合

摘要&#xff1a; 深度特征融合是一项能够克服机器学习不足&#xff0c;为机器学习打开通往未来大门的新技术。新技术要不要了解一下&#xff1f;即使是最敏锐的技术布道师也无法预测大数据对数字革命的影响。因为他们最初的关注点都聚焦在了扩大基础设施以构建现有服务上。在提…

原码,反码,补码的关系和大小端字节序存储的关系

在看如下代码之前&#xff0c;要知道原码&#xff0c;反码&#xff0c;补码之间的关系 首先要知道第一位是符号位&#xff0c;0代表是正数&#xff0c;1代码是负数 正数的原码&#xff0c;反码&#xff0c;补码相同 负数的反码是符号位不变&#xff0c;其他位按位取反 负数的补…

与机器学习算法有关的数据结构

摘要&#xff1a; 在机器学习中需要运用到许多数据结构&#xff0c;掌握它们是非常重要的。希望本文能有所帮助拥有机器学习技能是不够的。你还需要良好的数据结构的工作知识。学习更多&#xff0c;并解决一些问题。因此&#xff0c;你已经决定不再使用固定的算法并开始编写自己…

resnet结构_经典卷积网络(二)-ResNet

一、ResNet&#xff08;总结自csdn文章&#xff09;随着网络的加深&#xff0c;出现了训练集准确率下降的现象&#xff0c;确定这不是由于Overfit过拟合造成的。作者针对这个问题提出了一种全新的网络&#xff0c;叫深度残差网络&#xff0c;它允许网络尽可能的加深&#xff0c…