用 Python 实现一个大数据搜索引擎


搜索是大数据领域里常见的需求。Splunk和ELK分别是该领域在非开源和开源领域里的领导者。本文利用很少的Python代码实现了一个基本的数据搜索功能,试图让大家理解大数据搜索的基本原理。


布隆过滤器 (Bloom Filter)


第一步我们先要实现一个布隆过滤器。


布隆过滤器是大数据领域的一个常见算法,它的目的是过滤掉那些不是目标的元素。也就是说如果一个要搜索的词并不存在与我的数据中,那么它可以以很快的速度返回目标不存在。


让我们看看以下布隆过滤器的代码:


class Bloomfilter(object):

    """

    A Bloom filter is a probabilistic data-structure that trades space for accuracy

    when determining if a value is in a set.  It can tell you if a value was possibly

    added, or if it was definitely not added, but it can't tell you for certain that

    it was added.

    """

    def __init__(self, size):

        """Setup the BF with the appropriate size"""

        self.values = [False] * size

        self.size = size

 

    def hash_value(self, value):

        """Hash the value provided and scale it to fit the BF size"""

        return hash(value) % self.size

 

    def add_value(self, value):

        """Add a value to the BF"""

        h = self.hash_value(value)

        self.values[h] = True

 

    def might_contain(self, value):

        """Check if the value might be in the BF"""

        h = self.hash_value(value)

        return self.values[h]

 

    def print_contents(self):

        """Dump the contents of the BF for debugging purposes"""

        print self.values


  • 基本的数据结构是个数组(实际上是个位图,用1/0来记录数据是否存在),初始化是没有任何内容,所以全部置False。实际的使用当中,该数组的长度是非常大的,以保证效率。

  • 利用哈希算法来决定数据应该存在哪一位,也就是数组的索引

  • 当一个数据被加入到布隆过滤器的时候,计算它的哈希值然后把相应的位置为True

  • 当检查一个数据是否已经存在或者说被索引过的时候,只要检查对应的哈希值所在的位的True/Fasle


看到这里,大家应该可以看出,如果布隆过滤器返回False,那么数据一定是没有索引过的,然而如果返回True,那也不能说数据一定就已经被索引过。在搜索过程中使用布隆过滤器可以使得很多没有命中的搜索提前返回来提高效率。


我们看看这段 code是如何运行的:


bf = Bloomfilter(10)

bf.add_value('dog')

bf.add_value('fish')

bf.add_value('cat')

bf.print_contents()

bf.add_value('bird')

bf.print_contents()

# Note: contents are unchanged after adding bird - it collides

for term in ['dog', 'fish', 'cat', 'bird', 'duck', 'emu']:

    print '{}: {} {}'.format(term, bf.hash_value(term), bf.might_contain(term))


结果:


[False, False, False, False, True, True, False, False, False, True]

[False, False, False, False, True, True, False, False, False, True]

dog5 True

fish4 True

cat9 True

bird9 True

duck5 True

emu8 False


首先创建了一个容量为10的的布隆过滤器



然后分别加入 ‘dog’,‘fish’,‘cat’三个对象,这时的布隆过滤器的内容如下:



然后加入‘bird’对象,布隆过滤器的内容并没有改变,因为‘bird’和‘fish’恰好拥有相同的哈希。



最后我们检查一堆对象(’dog’, ‘fish’, ‘cat’, ‘bird’, ‘duck’, ’emu’)是不是已经被索引了。结果发现‘duck’返回True,2而‘emu’返回False。因为‘duck’的哈希恰好和‘dog’是一样的。



分词


下面一步我们要实现分词。 分词的目的是要把我们的文本数据分割成可搜索的最小单元,也就是词。这里我们主要针对英语,因为中文的分词涉及到自然语言处理,比较复杂,而英文基本只要用标点符号就好了。


下面我们看看分词的代码:


def major_segments(s):

    """

    Perform major segmenting on a string.  Split the string by all of the major

    breaks, and return the set of everything found.  The breaks in this implementation

    are single characters, but in Splunk proper they can be multiple characters.

    A set is used because ordering doesn't matter, and duplicates are bad.

    """

    major_breaks = ' '

    last = -1

    results = set()

 

    # enumerate() will give us (0, s[0]), (1, s[1]), ...

    for idx, ch in enumerate(s):

        if ch in major_breaks:

            segment = s[last+1:idx]

            results.add(segment)

 

            last = idx

 

    # The last character may not be a break so always capture

    # the last segment (which may end up being "", but yolo)    

    segment = s[last+1:]

    results.add(segment)

 

    return results


主要分割


主要分割使用空格来分词,实际的分词逻辑中,还会有其它的分隔符。例如Splunk的缺省分割符包括以下这些,用户也可以定义自己的分割符。


] < >( ) { } | ! ; , ‘ ” * \n \r \s \t & ? + %21 %26 %2526 %3B %7C %20 %2B %3D — %2520 %5D %5B %3A %0A %2C %28 %29


def minor_segments(s):

    """

    Perform minor segmenting on a string.  This is like major

    segmenting, except it also captures from the start of the

    input to each break.

    """

    minor_breaks = '_.'

    last = -1

    results = set()

 

    for idx, ch in enumerate(s):

        if ch in minor_breaks:

            segment = s[last+1:idx]

            results.add(segment)

 

            segment = s[:idx]

            results.add(segment)

 

            last = idx

 

    segment = s[last+1:]

    results.add(segment)

    results.add(s)

 

    return results


次要分割


次要分割和主要分割的逻辑类似,只是还会把从开始部分到当前分割的结果加入。例如“1.2.3.4”的次要分割会有1,2,3,4,1.2,1.2.3


def segments(event):

    """Simple wrapper around major_segments / minor_segments"""

    results = set()

    for major in major_segments(event):

        for minor in minor_segments(major):

            results.add(minor)

    return results


分词的逻辑就是对文本先进行主要分割,对每一个主要分割在进行次要分割。然后把所有分出来的词返回。


我们看看这段 code是如何运行的:


for term in segments('src_ip = 1.2.3.4'):

        print term


src

1.2

1.2.3.4

src_ip

3

1

1.2.3

ip

2

=

4


搜索


好了,有个分词和布隆过滤器这两个利器的支撑后,我们就可以来实现搜索的功能了。


上代码:


class Splunk(object):

    def __init__(self):

        self.bf = Bloomfilter(64)

        self.terms = {}  # Dictionary of term to set of events

        self.events = []

    

    def add_event(self, event):

        """Adds an event to this object"""

 

        # Generate a unique ID for the event, and save it

        event_id = len(self.events)

        self.events.append(event)

 

        # Add each term to the bloomfilter, and track the event by each term

        for term in segments(event):

            self.bf.add_value(term)

 

            if term not in self.terms:

                self.terms[term] = set()

            self.terms[term].add(event_id)

 

    def search(self, term):

        """Search for a single term, and yield all the events that contain it"""

        

        # In Splunk this runs in O(1), and is likely to be in filesystem cache (memory)

        if not self.bf.might_contain(term):

            return

 

        # In Splunk this probably runs in O(log N) where N is the number of terms in the tsidx

        if term not in self.terms:

            return

 

        for event_id in sorted(self.terms[term]):

            yield self.events[event_id]


  • Splunk代表一个拥有搜索功能的索引集合

  • 每一个集合中包含一个布隆过滤器,一个倒排词表(字典),和一个存储所有事件的数组

  • 当一个事件被加入到索引的时候,会做以下的逻辑

    • 为每一个事件生成一个unqie id,这里就是序号

    • 对事件进行分词,把每一个词加入到倒排词表,也就是每一个词对应的事件的id的映射结构,注意,一个词可能对应多个事件,所以倒排表的的值是一个Set。倒排表是绝大部分搜索引擎的核心功能。

  • 当一个词被搜索的时候,会做以下的逻辑

    • 检查布隆过滤器,如果为假,直接返回

    • 检查词表,如果被搜索单词不在词表中,直接返回

    • 在倒排表中找到所有对应的事件id,然后返回事件的内容


我们运行下看看吧:


s = Splunk()

s.add_event('src_ip = 1.2.3.4')

s.add_event('src_ip = 5.6.7.8')

s.add_event('dst_ip = 1.2.3.4')

 

for event in s.search('1.2.3.4'):

    print event

print '-'

for event in s.search('src_ip'):

    print event

print '-'

for event in s.search('ip'):

    print event


src_ip = 1.2.3.4

dst_ip = 1.2.3.4

-

src_ip = 1.2.3.4

src_ip = 5.6.7.8

-

src_ip = 1.2.3.4

src_ip = 5.6.7.8

dst_ip = 1.2.3.4


是不是很赞!


更复杂的搜索


更进一步,在搜索过程中,我们想用And和Or来实现更复杂的搜索逻辑。


上代码:


class SplunkM(object):

    def __init__(self):

        self.bf = Bloomfilter(64)

        self.terms = {}  # Dictionary of term to set of events

        self.events = []

    

    def add_event(self, event):

        """Adds an event to this object"""

 

        # Generate a unique ID for the event, and save it

        event_id = len(self.events)

        self.events.append(event)

 

        # Add each term to the bloomfilter, and track the event by each term

        for term in segments(event):

            self.bf.add_value(term)

            if term not in self.terms:

                self.terms[term] = set()

            

            self.terms[term].add(event_id)

 

    def search_all(self, terms):

        """Search for an AND of all terms"""

 

        # Start with the universe of all events...

        results = set(range(len(self.events)))

 

        for term in terms:

            # If a term isn't present at all then we can stop looking

            if not self.bf.might_contain(term):

                return

            if term not in self.terms:

                return

 

            # Drop events that don't match from our results

            results = results.intersection(self.terms[term])

 

        for event_id in sorted(results):

            yield self.events[event_id]

 

 

    def search_any(self, terms):

        """Search for an OR of all terms"""

        results = set()

 

        for term in terms:

            # If a term isn't present, we skip it, but don't stop

            if not self.bf.might_contain(term):

                continue

            if term not in self.terms:

                continue

 

            # Add these events to our results

            results = results.union(self.terms[term])

 

        for event_id in sorted(results):

            yield self.events[event_id]


利用Python集合的intersection和union操作,可以很方便的支持And(求交集)和Or(求合集)的操作。


运行结果如下:


s = SplunkM()

s.add_event('src_ip = 1.2.3.4')

s.add_event('src_ip = 5.6.7.8')

s.add_event('dst_ip = 1.2.3.4')

 

for event in s.search_all(['src_ip', '5.6']):

    print event

print '-'

for event in s.search_any(['src_ip', 'dst_ip']):

    print event


src_ip = 5.6.7.8

-

src_ip = 1.2.3.4

src_ip = 5.6.7.8

dst_ip = 1.2.3.4


总结


以上的代码只是为了说明大数据搜索的基本原理,包括布隆过滤器,分词和倒排表。如果大家真的想要利用这代码来实现真正的搜索功能,还差的太远。所有的内容来自于Splunk Conf2017。大家如果有兴趣可以去看网上的视频。


  • 视频

  • Slides


来源:naughty 

my.oschina.net/taogang/blog/1579204


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/304208.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

iNeuOS工业互联操作系统,图表与数据点组合成新组件,进行项目复用

目 录1. 概述... 12. 演示信息... 23. 应用过程... 21. 概述针对有些行业的数据已经形成了标准化的建模或者有些公司专注于某个领域&#xff0c;对于开发业务有很多情况需求进行复用&#xff0c;以前的版本和文章介绍了图元及数据点的组合形成新的图元进…

通过对象属性去重_Redis常见对象类型的底层数据结构

作者&#xff1a;伍陆七来源&#xff1a;cnblogs.com/chentianming/p/13838347.htmlRedis 是一个基于内存中的数据结构存储系统&#xff0c;可以用作数据库、缓存和消息中间件。Redis 支持五种常见对象类型&#xff1a;字符串(String)、哈希(Hash)、列表(List)、集合(Set)以及有…

按照演算,整个宇宙将会陷入无边的黑暗

导读&#xff1a;能量守恒定律告诉我们&#xff1a;能量既不会凭空产生&#xff0c;也不会凭空消失&#xff0c;它只会从一种形式转化为另一种形式&#xff0c;或者从一个物体转移到其它物体&#xff0c;而能量的总量保持不变。熵作为只增不减的物质&#xff0c;该怎么去理解它…

xp计算机启动检测硬盘,取消WinXP开机自检技巧五则

有时我们正常关闭计算机后&#xff0c;再次开机时发现系统会出现自行检测&#xff0c;这让许多XP用户们感到不方便&#xff0c;那么该怎么取消XP开机自检呢&#xff1f;下面就是具体的方法了&#xff0c;一起来看看吧。方法①&#xff1a;假如分区是FAT32格式&#xff0c;将其转…

10 邮件槽_员工主动发离职邮件,提出申请又反悔,法院判决让人懵了!

前言&#xff1a;很多职场人从来不把劳动法当作一项技能&#xff0c;一遇到事&#xff0c;瞬间就傻。还有部分职场人&#xff0c;什么事都不做&#xff0c;只会说劳动法没有用。就笔者认识的一部分大厂员工&#xff0c;他们现在已经把每天视频打卡跟录音取证作为一项日常工作来…

干货|机器学习零基础?不要怕,吴恩达机器学习课程笔记2-多元线性回归

吴恩达Coursera机器学习课系列笔记课程笔记|吴恩达Coursera机器学习 Week1 笔记-机器学习基础1Linear Regression with Multiple Variables紧接上一篇的例子 – 房价预测。现在我们有更多的特征来预测房价了&#xff0c;“房间的数量”、“楼层”、“房龄”……说明一下接下来要…

技能高考本科计算机类,技能高考多少分上本科

技能高考总分为700分&#xff0c;包括专业技能满分490分&#xff0c;文化课满分210分。能上大学只要总分300往上都可以。如果是本科的话&#xff0c;每个专业的分数线不一样&#xff0c;少的在400分左右&#xff0c;多的比如会计类专业的话可能要到500以上才能报考本科院校。什…

新增一个主键自增长_MyBatis 示例-主键回填

测试类&#xff1a;com.yjw.demo.PrimaryKeyTest自增长列数据库表的主键为自增长列&#xff0c;在写业务代码的时候&#xff0c;经常需要在表中新增一条数据后&#xff0c;能获得这条数据的主键 ID&#xff0c;MyBatis 提供了实现的方法。StudentMapper.xml<insert id"…

干货|机器学习零基础?不要怕,吴恩达课程笔记第三周!逻辑回归与正则

吴恩达Coursera机器学习课系列笔记课程笔记|吴恩达Coursera机器学习 Week1 笔记-机器学习基础干货|机器学习零基础&#xff1f;不要怕&#xff0c;吴恩达机器学习课程笔记2-多元线性回归1Logistic Regression1.1 Logistic Regression (Classification) Model之前对房价的预测&a…

计算机网络互联网技术实验报告,2013计算机网络技术与应用.实验报告01

本报告 6 月 5 日前完成。 此框阅读后删除。 此处填写&#xff1a;年级和姓名。 《计算机网络技术与应用》实验报告 此框阅读后删除。 年级、专业、班级 实验题目 实验时间 实验成绩 2013.4.1 11 级 专业 班 姓名计算机网络应用软件与拓扑结构实验地点 实验性质 DS1422■验证性…

如何在C#中使用 ArrayPool,MemoryPool

对资源的可复用是提升应用程序性能的一个非常重要的手段&#xff0c;比如本篇要分享的 ArrayPool 和 MemoryPool&#xff0c;它们就有效的减少了内存使用和对GC的压力&#xff0c;从而提升应用程序性能。什么是 ArrayPool System.Buffers 命名空间下提供了一个可对 array 进行复…

LAMP攻略: LAMP环境搭建,Linux下Apache,MySQL,PHP安装与配置

之前写过一个red hat 9下的LAMP环境的配置&#xff0c;不过由于版本比较旧&#xff0c;很多不适用了。 所以决定写一个新的LAMP环境搭建与配置教程。本配置是在 CentOS-5.3 下 httpd-2.2.11.tar.gz MySQL-client-community-5.1.33-0.rhel5.i386.rpm MySQL-devel-community-5.1…

服务器自动删文件,服务器定时删除文件工具

服务器定时删除文件工具&#xff0c;这是一个定时删除服务器上文件的小程序修改配置文件config.ini&#xff0c;dir是主目录;dirs是要删除文件目录;deltype是删除类型,0是创建日期,1是修改日期;delday是保留天数;deltime是定时删除时间。[config]dir\\cb19\pictifdirs01,02,03,…

30 个实例详解 TOP 命令

Linux中的top命令显示系统上正在运行的进程。它是系统管理员最重要的工具之一。被广泛用于监视服务器的负载。在本篇中&#xff0c;我们会探索top命令的细节。top命令是一个交互命令。在运行top的时候还可以运行很多命令。我们也会探索这些命令。&#xff08;译注&#xff1a;不…

IComparer与IEqualityComparer的简单使用

场景一&#xff1a;对象列表的自定义排序简单类型的列表&#xff0c;可以直接使用Linq的OrderBy或OrderByDescending进行排序&#xff0c;复杂对象的列表排序可以使用Sort()和IComparer实现自定义对象比较规则。假如有一个Box类&#xff0c;它有名称、长、宽、高四个属性&#…

程序显示文本框_【教程】TestComplete测试桌面应用程序教程(二)

TestComplete是一款具有人工智能的自动UI测试工具&#xff0c;利用自动化测试工具和人工智能支持的混合对象识别引擎&#xff0c;轻松检测和测试每个桌面&#xff0c;Web和移动应用程序。其中&#xff0c;TestComplete支持测试使用C、C&#xff03;、VB.NET、Java、Delphi、C …

陕西省计算机二级报名流程,计算机二级考试报名流程

计算机二级考试报名流程第一次参加全国计算机等级考试的考生对于网上报名的流程&#xff0c;对全国计算机考试流程中某些环节并不清楚。下面是小编为大家带来的计算机二级考试报名流程&#xff0c;欢迎阅读。(一)注册账号和登录1)考生首次登录系统需要注册登录通行证&#xff0…

Git 的 4 个阶段的撤销更改

虽然git诞生距今已有12年之久&#xff0c;网上各种关于git的介绍文章数不胜数&#xff0c;但是依然有很多人&#xff08;包括我自己在内&#xff09;对于它的功能不能完全掌握。以下的介绍只是基于我个人对于git的理解&#xff0c;并且可能生编硬造了一些不完全符合git说法的词…

51CTO下载专题有奖征集建议:您的期待,我们的方向!

2010年5月10日&#xff0c;51CTO下载专题 隆重上线。精细的技术领域、优质的技术资源、大方的设计风格......让您对精品资源一网打尽&#xff0c;直达心灵所需&#xff01; 51CTO下载专题每周发布1-2期&#xff0c;旨在帮助大家在最短的时间里&#xff0c;找到自己感兴趣技术点…

Visual Studio SnippetDesigner使用

SnippetDesigner代码片段编辑器这是一款在Visual Studio上代码片段编辑器插件&#xff0c;可以轻松创建代码片段&#xff0c;为什么要用这个代码片段呢&#xff0c;理由&#xff1a;平常在编码过程中&#xff0c;有许多重复性的代码语句&#xff0c;为了提高编码速度与便捷&…