pipelines mysql_Scrapy爬取豆瓣图书数据并写入MySQL

介绍

本篇涉及的内容主要是获取分类下的所有图书数据,并写入MySQL

准备

Python3.6、Scrapy、Twisted、MySQLdb等

演示

9de8904b457d265ca38190d5ddae9c98.png

代码

一、创建项目

scrapy startproject BookSpider #创建项目

scrapy genspider douban book.douban.com #创建豆瓣爬虫

二、创建测试类(main.py)

from scrapy.cmdline import execute

execute(['scrapy', 'crawl', 'douban'])

三、修改配置(spiders/settings.py)

USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36' #浏览器

ROBOTSTXT_OBEY = False #不遵循豆瓣网站的爬虫协议

四、设置爬取的分类(spiders/douban.py)

start_urls = ['https://book.douban.com/tag/神经网络'] # 只测试爬取神经网络

五、获取分类列表页图书数据

0e8837a8b6751d650dbb27003cc86746.png

from scrapy.http import Request

from urllib.parse import urljoin

def parse(self, response):

get_nodes = response.xpath('//div[@id="subject_list"]/ul/li/div[@class="pic"]/a')

for node in get_nodes:

url = node.xpath("@href").get()

img_url = node.xpath('img/@src').get()

yield Request(url=url, meta={"img_url": img_url}, callback=self.parse_book) # 传递img_url值 放在meta里面, parse_book回调函数,获取的详情再分析

next_url = response.xpath('//div[@class="paginator"]/span[@class="next"]/a/@href').get() # 获取下一页地址

if(next_url):

yield Request(url=urljoin(response.url, next_url), callback=self.parse) # 获取下一页内容

六、定义数据模型(spiders/items.py)

class BookspiderItem(scrapy.Item):

# define the fields for your item here like:

# name = scrapy.Field()

name = scrapy.Field()

author = scrapy.Field()

publish = scrapy.Field()

page_num = scrapy.Field()

isbm = scrapy.Field()

binding = scrapy.Field()

publish_date = scrapy.Field()

price = scrapy.Field()

rate = scrapy.Field()

img_url = scrapy.Field()

image_path = scrapy.Field()

七、获取图书详情数据

58fd5cb29d12e6440af51b13acac6514.png

import re

from BookSpider.items import BookspiderItem

def parse_book(self, response):

BookItem = BookspiderItem()

BookItem['name'] = response.xpath('//span[@property="v:itemreviewed"]/text()').get("").strip()

BookItem['author'] = response.xpath('//span[contains(text(), "作者")]/following-sibling::a[1]/text()').get("").split()[-1]

BookItem['publish'] = response.xpath('//span[contains(text(), "出版社")]/following-sibling::text()').get("").strip()

page_num = response.xpath('//span[contains(text(), "页数")]/following-sibling::text()').get("").strip()

BookItem['page_num'] = 0 if(page_num == '') else page_num

BookItem['isbm'] = response.xpath('//span[contains(text(), "ISBN")]/following-sibling::text()').get("").strip()

BookItem['binding'] = response.xpath('//span[contains(text(), "装帧")]/following-sibling::text()').get("").strip()

BookItem['publish_date'] = response.xpath('//span[contains(text(), "出版年")]/following-sibling::text()').get("").strip()

price = response.xpath('//span[contains(text(), "定价")]/following-sibling::text()').get("").strip()

BookItem['price'] = '' if(len(price) == 0) else re.findall(r'\d+\.?\d*', price)[0]

BookItem['rate'] = response.xpath('//div[contains(@class, "rating_self ")]/strong/text()').get("").strip()

BookItem['img_url'] = [response.meta.get('img_url')] #图片是列表

yield BookItem

八、下载图片

1、创建images文件加

2、配置spiders/settings.py

ITEM_PIPELINES = {

'BookSpider.pipelines.ImageStorePipeline': 1, #后面的数据是优先级

}

IMAGES_URLS_FIELD = "image_url"

IMAGES_STORE = os.path.join(os.path.abspath(os.path.dirname(__file__)), 'images')

3、创建ImageStorePipeline类(spiders/pipelines.py)

from scrapy.pipelines.images import ImagesPipeline

from scrapy.exceptions import DropItem

from scrapy.http import Request

class ImageStorePipeline(ImagesPipeline):

default_headers = {

'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3',

'accept-encoding': 'gzip, deflate, br',

'accept-language': 'zh-CN,zh;q=0.9',

'user-agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36', #这个一定要

}

def get_media_requests(self, item, info):

for image_url in item['img_url']:

self.default_headers['referer'] = image_url

yield Request(image_url, headers=self.default_headers)

def item_completed(self, results, item, info):

image_path = [x['path'] for ok, x in results if ok]

if not image_path:

raise DropItem("Item contains no images")

item['image_path'] = image_path

return item

八、写入数据库

1、配置spiders/settings.py

#设置数据库

MYSQL_HOST = ""

MYSQL_DBNAME = ""

MYSQL_USER = ""

MYSQL_PASSWORD = ""

ITEM_PIPELINES = {

'BookSpider.pipelines.ImageStorePipeline': 1,

'BookSpider.pipelines.MysqlTwistedPipeline': 30,

}

2、创建MysqlTwistedPipeline类(spiders/pipelines.py)

import MySQLdb.cursors

from twisted.enterprise import adbapi

class MysqlTwistedPipeline(object):

def __init__(self, dbpool):

self.dbpool = dbpool

@classmethod #静态方法,会优先执行from_settings, 这样self.dbpool就有值了

def from_settings(cls, settings):

dbpool = adbapi.ConnectionPool("MySQLdb", host=settings['MYSQL_HOST'], db = settings['MYSQL_DBNAME'], user = settings['MYSQL_USER'], passwd = settings['MYSQL_PASSWORD'], charset = 'utf8', cursorclass = MySQLdb.cursors.DictCursor, use_unicode = True)

return cls(dbpool)

def process_item(self, item, spider):

query = self.dbpool.runInteraction(self.do_insert, item)

query.addErrback(self.handle_error,item,spider)

def do_insert(self, cursor, item):

insert_sql = """

insert into douban(name, author, publish, page_num, isbm, binding, publish_date, price, rate, img_url, image_path)

values (%s, %s, %s, %s, %s, %s, %s, %s, %s, %s, %s)

"""

cursor.execute(insert_sql, (item['name'], item['author'], item['publish'], item['page_num'], item['isbm'], item['binding'], item['publish_date'], item['price'], item['rate'], item['img_url'], item['image_path']))

def handle_error(self, failure, item, spider):

print(failure)

九、测试

1、执行main.py文件

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/523529.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

java 中的原始类型与原始封装类型

Java 提供两种不同的类型:引用类型和原始类型(或内置类型) 文章目录一、原始与对应的封装类二、引用类型和原始类型的区别:三、总结:比如: Int是java的原始数据类型,Integer是java为int提供的封装类。 一、原始与对应的封装类 J…

独行速众行远,BitTitan携手世纪互联蓝云助力用户数据完美迁移

戳蓝字“CSDN云计算”关注我们哦!近日,Saas解决方案提供商BitTitan宣布,将拓展与世纪互联蓝云的合作,双方将在中国的云服务市场上线BitTitan广受欢迎的MigrationWiz用户数据迁移套装方案。BitTitan是一家致力于让IT专业人员通过自…

python字符串的内部函数_Python中字符串中内置函数

字符串内置函数len () 返回字符串长度如:age 31415926print(len(age))输出:长度8string.encode ("utf-8") 指定字符串编码格式如:name "张三"name.encode ("utf-8")string.count (str) 返回str在string中里面…

Kafka精华问答 | 为什么要用Message Queue?

Kafka is a distributed,partitioned,replicated commit logservice。它提供了类似于JMS的特性,但是在设计实现上完全不同,此外它并不是JMS规范的实现。今天就让我们一起来看看关于Kafka 的精华问答吧。1Q:Kafka的主要功能是什么?…

String类、StringBuffer类、StringBuilder类的区别

String是Java中基础且重要的类,并且String也是Immutable类的典型实现,被声明为final class,除了hash这个属性其它属性都声明为final,因为它的不可变性,所以例如拼接字符串时候会产生很多无用的中间对象,如果频繁的进行…

360深度实践:Flink与Storm协议级对比

戳蓝字“CSDN云计算”关注我们哦!文 | 张馨予 来源 | 高可用架构作者 张馨予,360 大数据计算平台负责人。北京邮电大学硕士,2015年加入360系统部,一直致力于公司大数据计算平台的易用性、稳定性和性能优化的研发工作。目前主要负…

Spring Cloud Alibaba 雪崩效应和容错解决方案

Spring Cloud Alibaba 雪崩效应和容错解决方案 文章目录1. 雪崩效应1.1. 举个例子:2. 常见的容错方案:2.1.超时:2.2. 限流:2.3. 仓壁模式:2.3.1. 现实中的仓壁模式:2.3.2. 软件中的仓壁模式:2.4…

layui获得列表json数据_golang实战开发之博客功能篇:文章列表的读取与展示和分类筛选展示处理...

前面我们介绍了文章详情页面的展示的逻辑代码实现,这一节,我们将继续讲解文章列表的读取和展示、文章根据分类进行筛选、最新文章、热门文章等的调用处理逻辑。首先,我们先编写文章列表页的前端代码。这里,我们文章采用类似WordPr…

“智企云中享“,首届SAP中国云大会召开

2019 年 6 月 5 日,上海讯— 今日,首届SAP云大会在上海盛大召开。作为SAP云计算家族在中国的首秀,大会全面呈现了SAP云业务的战略、产品、商业场景、浸入式体验。作为体验管理领域的领导者,SAP以覆盖企业运营全价值链的云服务解决…

SpringBoot入门到精通_第7篇 _必知必会总结

接上一篇:SpringBoot入门到精通_第6篇 _必知必会

java对mysql读写权限设置_Java学习笔记——MySQL开放3306接口与设置用户权限

系统Ubuntu16.04 LTS1、开放3306端口查看端口状态:netstat -an|grep 3306tcp 0 0 127.0.0.1:3306 0.0.0.0:* LISTEN目前只有本机可以访问输入指令:sudo vim /etc/mysql/mysql.conf.d/mysqld.cnf如果之前配置过全局配置文件,也可输入指令:su…

容器精华问答 | 如何进行跨机器的Container做Link ?

戳蓝字“CSDN云计算”关注我们哦!云计算的发展日新月异,新技术层出不穷,尤其容器技术自2013年Docker容器问世以来一路高歌猛进红遍大江南北,与虚拟机相比,容器更显优势,有着更轻量、更快捷、占用资源更少&a…

Sublime Text3 多行合并为一行

快捷键说明CTRL J多行合并为一行ctrld双击选中关键词或者关键词部分,在输入快捷键关键字就会一个一个选中,就可以同时编辑

安卓psp模拟器哪个好_psp模拟器安卓完美版下载_psp模拟器完美版手机版下载_玩游戏网...

《psp模拟器完美版》App是专业的PSP游戏模拟器,兼容适配任何安卓机型,用户下载于此畅玩PSP游戏,还可自制游戏,能够自由设置多国语言,更改图像、声音、控制、网络等多种选项设置,想玩好游戏,玩打…

腾讯也有“神盾局”?秀出“技术肌肉”就靠TA了……

戳蓝字“CSDN云计算”关注我们哦!技术头条:干货、简洁、多维全面。更多云计算精华知识尽在眼前,get要点、solve难题,统统不在话下!漫威的超级英雄世界中,“神盾局”一直凭借着不少的先进武器装备&#xff0…

Spring 集成 mybatisPlus

文章目录1. pom.xml2. 实体类3. mapper接口4. applicationContext.xml5. db.properties6. log4j.xml7. mybatis-config.xml8. 测试类9. 控制台输出10. 源码地址1. pom.xml <?xml version"1.0" encoding"UTF-8"?><project xmlns"http://ma…

用python编excel统计表_Python实现对excel文件列表值进行统计的方法

本文实例讲述了Python实现对excel文件列表值进行统计的方法。分享给大家供大家参考。具体如下&#xff1a;#!/usr/bin/env python#codinggbk#此PY用来统计一个execl文件中的特定一列的值的分类import win32com.clientfilenameraw_input("请输入要统计文件的详细地址&#…

大话云存储,这个“对象”可能无处不在

戳蓝字“CSDN云计算”关注我们哦&#xff01;文 | pasca来源 | 蛋蛋团&#xff08;ID&#xff1a;dandan_tuan&#xff09;大纲前言1、Who&#xff1a;谁使用对象存储2、What&#xff1a;对象存储是什么3、Why&#xff1a;为什么他们会使用对象存储4、how to do:应用场景分析5、…

linux java文件 core_linux下部署.net core/java

.net core1.查看系统是否已安装net core命令&#xff1a;dotnet --info如果提示未找到命令&#xff0c;说明需要按照net core环境&#xff0c;否则跳过2&#xff0c;3两步2.查看系统版本&#xff0c;这里是CentOS 7命令&#xff1a;cat /etc/redhat-release3.根据系统版本找到安…