nine

nine
  • Scarpy爬虫框架

https://www.cnblogs.com/kermitjam/articles/10147261.html?tdsourcetag=s_pctim_aiomsg

高并发的爬虫框架

Runspider只能执行某个 爬虫程序.py文件

将项目根目录导入

Xpath语法 获取内容(./text()’)

 

发送请求 ---> 获取响应数据 ---> 解析数据 ---> 保存数据


Scarpy框架介绍

1、引擎(EGINE)
引擎负责控制系统所有组件之间的数据流,并在某些动作发生时触发事件。有关详细信息,请参见上面的数据流部分。

2、调度器(SCHEDULER)
用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL的优先级队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址

3、下载器(DOWLOADER)
用于下载网页内容, 并将网页内容返回给EGINE,下载器是建立在twisted这个高效的异步模型上的

4、爬虫(SPIDERS)
SPIDERS是开发人员自定义的类,用来解析responses,并且提取items,或者发送新的请求

5、项目管道(ITEM PIPLINES)
在items被提取后负责处理它们,主要包括清理、验证、持久化(比如存到数据库)等操作
下载器中间件(Downloader Middlewares)位于Scrapy引擎和下载器之间,主要用来处理从EGINE传到DOWLOADER的请求request,已经从DOWNLOADER传到EGINE的响应response,
你可用该中间件做以下几件事:
  (1) process a request just before it is sent to the Downloader (i.e. right before Scrapy sends the request to the website);
  (2) change received response before passing it to a spider;
  (3) send a new Request instead of passing received response to a spider;
  (4) pass response to a spider without fetching a web page;
  (5) silently drop some requests.

6、爬虫中间件(Spider Middlewares)
位于EGINE和SPIDERS之间,主要工作是处理SPIDERS的输入(即responses)和输出(即requests)

Scarpy安装
1、pip3 install wheel
2、pip3 install lxml
3、pip3 install pyopenssl
4、pip3 install pypiwin32
5、安装twisted框架
下载twisted
http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted
安装下载好的twisted
pip3 install 下载目录\Twisted-17.9.0-cp36-cp36m-win_amd64.whl

6、pip3 install scrapy

Scarpy使用
1、进入终端cmd
- scrapy
C:\Users\administortra>scrapy
Scrapy 1.6.0 - no active project

2、创建scrapy项目
1.创建一个文件夹,专门用于存放scrapy项目
- D:\Scrapy_prject
2.cmd终端输入命令
scrapy startproject Spider_Project( 项目名)
- 会在 D:\Scrapy_prject文件夹下会生成一个文件
Spider_Project : Scrapy项目文件

3.创建爬虫程序
cd Spider_Project # 切换到scrapy项目目录下
# 爬虫程序名称 目标网站域名
scrapy genspider baidu www.baidu.com # 创建爬虫程序

3、启动scrapy项目,执行爬虫程序

# 找到爬虫程序文件进行执行
scrapy runspider只能执行某个 爬虫程序.py
# 切换到爬虫程序执行文件目录下
- cd D:\Scrapy_prject\Spider_Project\Spider_Project\spiders
- scrapy runspider baidu.py

# 根据爬虫名称找到相应的爬虫程序执行
scrapy crawl 爬虫程序名称
# 切换到项目目录下
- cd D:\Scrapy_prject\Spider_Project
- scrapy crawl baidu

 1 1、进入终端cmd:
 2         -scrapy
 3 
 4 2、创建scrapy项目
 5     1.创建文件夹存放scrapy项目
 6         -D:\Scrapy_project\
 7 
 8     2.cmd终端输入命令
 9     -scrapy starproject Spider_Project
10     会在D:\Scrapy_project\下生成文件夹
11         -Spider_Project :Scrapy项目文件
12 
13     3.创建好后会提示
14         -cd Spider_Project     #切换到scrapy项目目录下
15                           #爬虫程序名称   #目标网站域名
16         -scrapy genspider  baidu          www.baidu.com     #创建爬虫程序
17 
18 3.启动scrapy项目,执行爬虫程序
19     # 找到爬虫程序文件执行
20     scrapy runspider 爬虫程序.py
21     # 切换到爬虫程序执行目录下
22         -cd D:\Scrapy_project\Spider_Project\Spider_Project\spiders
23         -scrapy runspider baidu.py
24 
25     # 根据爬虫名称找到相应的爬虫程序执行
26     scrapy crawl 爬虫程序名称
27         # 切换到项目目录下
28         - cd D:\Scrapy_prject\Spider_Project
29         - scrapy crawl baidu
30 
31 ** Scarpy在pycharm中的使用 **
32     1、创建一个py文件
33         from scrapy.cmdline import execute
34         execute()  # 写scrapy执行命令
scrapy基本使用cmd
 1 '''
 2 main.py
 3 '''
 4 from scrapy.cmdline import execute
 5 
 6 # 写终端命令
 7 # scrapy crawl baidu
 8 # 执行baidu爬虫程序
 9 # execute(['scrapy', 'crawl', 'baidu'])
10 
11 # 创建爬取链家网程序
12 # execute(['scrapy', 'genspider', 'lianjia', 'lianjia.com'])
13 
14 # --nolog     去除日志
15 execute('scrapy crawl --nolog lianjia'.split(' '))
16 
17 '''
18 Scrapy在Pycharm中使用
19 1.创建scrapy项目
20 在settings.py文件中有
21     -ROBOTSTXT_OBEY = True     #默认遵循robot协议
22 修改为:
23     -ROBOTSTXT_OBEY = False
24 '''
25 
26 
27 '''
28 lianjia.py
29 '''
30 # -*- coding: utf-8 -*-
31 import scrapy
32 from scrapy import Request
33 
34 # response的类
35 
36 class LianjiaSpider(scrapy.Spider):
37     name = 'lianjia'  # 爬虫程序名
38     # 只保留包含lianjia.com的url
39     allowed_domains = ['lianjia.com']  # 限制域名
40 
41     # 存放初始请求url
42     start_urls = ['https://bj.lianjia.com/ershoufang/']
43 
44     def parse(self, response):  # response返回的响应对象
45         # print(response)
46         # print(type(response))
47         # 获取文本
48         # print(response.text)
49         # print(response.url)
50         # //*[@id="position"]/dl[2]/dd/div[1]
51 
52         # 获取城区列表url
53         area_list = response.xpath('//div[@data-role="ershoufang"]/div/a')
54 
55         # 遍历所有区域列表
56         for area in area_list:
57             # print(area)
58             '''
59             .extract()提取多个
60             .extract_first()提取一个
61             '''
62             # 1、区域名称
63             area_name = area.xpath('./text()').extract_first()
64 
65             # 2、区域二级url
66             area_url = 'https://bj.lianjia.com/' + area.xpath('./@href').extract_first()
67 
68             # 会把area_url的请求响应数据交给parse_area方法
69             # yield后面跟着的都会添加到生成器中
70             yield Request(url=area_url, callback=self.parse_area)
71 
72     def parse_area(self, response):
73         # print(response)
74 
75         # 获取主页房源ul标签对象
76         house_list = response.xpath('//ul[@class="sellListContent"]')
77         # print(house_list)
78         if house_list:
79             for house in house_list:
80                 # 房源名称
81                 # //*[@id="leftContent"]/ul/li[1]/div/div[1]/a
82                 house_name = house.xpath('.//div[@class="title"]/a/text()').extract_first()
83                 print(house_name)
84 
85                 # 房源价格
86                 # //*[@id="leftContent"]/ul/li[1]/div/div[4]/div[2]/div[1]/span
87                 house_cost = house.xpath('.//div[@class="totalPrice"]/span/text()').extract_first() + ''
88                 print(house_cost)
89 
90                 # 房源单价
91                 # //*[@id="leftContent"]/ul/li[1]/div/div[4]/div[2]/div[2]/span
92                 house_price = house.xpath('.//div[@class="unitPrice"]/span/text()').extract_first()
93                 print(house_price)
94 
95                 # yield Request(url='下一级url', callback=self.parse_area)
96                 pass
Scrapy在Pycharm中使用


  • 微信机器人
 1 from wxpy import Bot
 2 from pyecharts import Pie
 3 import webbrowser
 4 
 5 # 实例化一个微信机器人对象
 6 bot = Bot()
 7 
 8 # 获取到微信的所有好友
 9 friends = bot.friends()
10 
11 # 设定男性\女性\位置性别好友名称
12 attr = ['男朋友', '女朋友', '人妖']
13 
14 # 初始化对应好友数量
15 value = [0, 0, 0]
16 
17 # 遍历所有的好友,判断这个好友是男性还是女性
18 for friend in friends:
19     if friend.sex == 1:
20         value[0] += 1
21     elif friend.sex == 2:
22         value[1] += 1
23     else:
24         value[2] += 1
25 
26 # 实例化一个饼状图对象
27 pie = Pie('Forver的好友们!')
28 
29 # 图表名称str,属性名称list,属性所对应的值list,is_label_show是否现在标签
30 pie.add('', attr, value, is_label_show=True)
31 
32 # 生成一个html文件
33 pie.render('friends.html')
34 
35 # 打开html文件
36 webbrowser.open('friends.html')
View Code

 

 

posted on 2019-06-25 11:44 LettersfromSuperz 阅读(...) 评论(...) 编辑 收藏

转载于:https://www.cnblogs.com/LettersfromSuperz/p/11081969.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/364154.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

使用ActiveMQ –具有故障转移协议的“主/从”配置

介绍 ActiveMQ代理往往是企业中消息传递基础结构的核心部分。 此消息传递基础结构的高度可用性和可伸缩性至关重要。 请阅读此链接 ,以了解有关创建经纪人网络以支持各种用例的更多信息。 ActiveMQ的流行用例之一是带有共享数据库的主/从配置。 使用此配置时&#x…

页面那些位置是投放广告的最佳位置

通常好的广告位置并非页面最上方的通栏广告,而是页面第一屏导航条下面中央和左侧的位置,此处放置广告会取得较好的效果。除此之外,页面中屏主要内容附件的位置为左侧和下侧较好,用户会第一时间注意到并关注这些广告。 转载于:http…

如何在Java中将字节数组转换为InputStream和OutputStream

您是否坚持使用编码,因为您有字节数组,并且链中的下一个方法需要InputStream? 不用担心Java有解决方案,您可以使用 ByteArrayInputStream 在Java中将字节数组转换为InputStream 。 此类使用字节数组作为源,并且由于它…

mysql 笔记打包下载_mysql 5.7压缩包安装笔记

重装系统之后准备安装mysql,看到官网上有mysql 5.7.10可以下载就点了,然后就开始了漫长的安装路程,总共折腾差不多一个多小时,最后终于安装成功了,这里把安装过程写下来,给自己做个笔记,也给后来人一个安装提示.1.下载安装包直接点击或者复制之后就可以下载了,不嫌麻烦或者想体…

Java 8 LongAdders:管理并发计数器的正确方法

我只是喜欢新玩具,而Java 8有很多 。 这次我想谈谈我的最爱之一-并发加法器。 这是一组用于管理由多个线程编写和读取的计数器的新类。 新的API有望显着提高性能,同时仍然使事情变得简单明了。 自从多核架构问世以来人们一直在管理并发计数器&#xff0…

JS中ptototype和__proto__的关系

学到原型的时候感觉头都大了/(ㄒoㄒ)/~~ 尤其是ptototype和__proto__ 傻傻分不清 通过多番查找资料,根据自己的理解,总结如下: 一、构造函数: 构造函数:通过new关键字可以用来创建特定类型的对象的函数。比如像Obje…

[最短路]飞行

题目描述 WFYZ的校园很大,这里生活着很多生物,比如住在钟楼上的的鸽子,其中鸽子冉冉和她的妹妹凝凝白天在不同的地方吃虫,而在晚上她们都回到钟楼休息。她俩是两只懒鸟,于是提出了一个计划,尽量减少她们在飞…

Java状态和策略设计模式之间的差异

为了在Core Java应用程序中正确使用状态和策略设计模式,对于Java开发人员清楚地了解它们之间的区别很重要。 尽管状态和策略设计模式的结构相似,并且都基于开放式封闭设计原则,从SOLID设计原则表示为“ O”,但它们在意图上完全不同…

廖雪峰Java3异常处理-1错误处理-2捕获异常

1捕获异常 1.1 finally语句保证有无错误都会执行 try{...}catch (){...}finally{...} 使用try...catch捕获异常可能发生异常的语句放在try{...}中使用catch捕获对应的Exception及其子类1.2 捕获多个异常 try{...} catch() {...} catch(){...}finally{..} 使用多个catch子句&…

更新数据库

方法一:在对SQL数据库进行更新时,用CommandBuilder对像来自动构建sql命令,来起到更新的作用;这种方法用起来比较方便,具体代码如下: 以下代码都在xp系统下测试通过 环境:vs.net2005 \ sql server 2000\xpus…

在崩溃或断电后测试Lucene的索引耐久性

Lucene有用的事务功能之一是索引持久性 ,它可以确保一旦成功调用IndexWriter.commit ,即使操作系统或JVM崩溃或断电,或者您杀死-KILL JVM进程,重启后索引也将保持完整(未损坏),并将反映崩溃前的…

Jmeter、postman、python 三大主流技术如何操作数据库?

1、前言 只要是做测试工作的,必然会接触到数据库,数据库在工作中的主要应用场景包括但不限于以下: 功能测试中,涉及数据展示功能,需查库校验数据正确及完整性;例如商品搜索功能 自动化测试或性能测试中&a…

利用ASP.NET向服务器上传文件[转]

文件上传技术是一个很实用的技术,有着很广泛的应用,在ASP.NET自身的前一个版本ASP里实现这个功能,就必须使用第三方的组件或者自己开发组件了,现在,用ASP.NET实现起来就简单得多了,我们不需要使用任何组件就…

java中HashMap详解

HashMap 和 HashSet 是 Java Collection Framework 的两个重要成员,其中 HashMap 是 Map 接口的常用实现类,HashSet 是 Set 接口的常用实现类。虽然 HashMap 和 HashSet 实现的接口规范不同,但它们底层的 Hash 存储机制完全一样,甚…

java代码编写的文本特征提取_Test1 java语言写的特征提取源代码,有搞文字识别的可以下载一看,简单易学 Develop 274万源代码下载- www.pudn.com...

文件名称: Test1下载 收藏√ [5 4 3 2 1 ]开发工具: Java文件大小: 35 KB上传时间: 2015-03-02下载次数: 46提 供 者: 常杰详细说明:java语言写的特征提取源代码,有搞文字识别的可以下载一看,简单易学-Feature extraction of the Java …

c# HashTable (哈希表)

HashTable 哈希表 也是System.Collections集合下的数据结构类 它储存的也是Object类型的对象 但是它在内存中是散列排布的 因为这个特性,非常适合存储大量的数据 在HashTable中一个键只能对应一个值,一个值可以对应多个键(多对一)…

Spring集成–配置Web服务客户端超时

介绍 在Spring Integration的支持下,您的应用程序可以使用出站Web服务网关来调用Web服务。 调用由该网关处理,因此您只需要担心构建请求消息和处理响应。 但是,使用这种方法并不明显,如何配置其他选项,例如设置超时或操…

将txt文件和excel文件导入SQL2000数据库

在做一些web数据库管理系统的时候经常要实现将帐户批量注册的功能,今天就来讲讲如何在C#-web项目中将txt文件和excel文件导入SQL2000数据库。1.数据库准备在SQL2000数据库的实例数据库pubs中建立一个数据表txtInsert,字段很简单:id&#xff0…

Java 8 Friday:Java 8将彻底改变数据库访问

在Data Geekery ,我们喜欢Java。 而且,由于我们真的很喜欢jOOQ的流畅的API和查询DSL ,我们对Java 8将为我们的生态系统带来什么感到非常兴奋。 对于Java 8系列 ,我们很荣幸主持Iu Ming-Yee Iu博士发表的非常相关的嘉宾帖子。 Iu …

Linux文件权限管理

权限管理 1、权限解读 权限:用户针对文件是否有读、写、执行的权利。 权限划分:读(Read)、写(Write)、执行(eXecute) 权限针对用户的划分:主人(User&#xff…