Lucene分析过程指南

本文是我们名为“ Apache Lucene基础知识 ”的学院课程的一部分。

在本课程中,您将了解Lucene。 您将了解为什么这样的库很重要,然后了解Lucene中搜索的工作方式。 此外,您将学习如何将Lucene Search集成到您自己的应用程序中,以提供强大的搜索功能。 在这里查看 !

目录

1.简介 2.使用分析仪
2.1。 Lucene分析仪的工作过程
3.分析仪的类型

1.简介

在Lucene中,分析是将字段文本转换为其最基本的索引表示形式(术语)的过程。 通常,将令牌称为分析器的单词(我们仅在参考英语时讨论该主题)。 但是,对于特殊的分析器,令牌可以带有多个单词,其中也包括空格。 这些术语用于确定在搜索过程中哪些文档与查询匹配。 例如,如果您在字段中为该句子编入索引,则术语可能以for和example开头,依此类推,依次排列为单独的术语。 分析器是分析过程的封装。 分析器通过对文本执行任意数量的操作来标记文本,这些操作可能包括提取单词,丢弃标点符号,从字符中删除重音,小写(也称为规范化),删除常用单词,将单词简化为词根形式(词干)或更改单词变成基本形式(词义化)。 此过程也称为标记化,从文本流中提取的文本块称为标记。 标记及其相关的字段名称是术语。

2.使用分析仪

Lucene的主要目标是促进信息检索。 强调检索很重要。 您想在Lucene上放置一小段文字,然后让该文字中的各个单词进行丰富的搜索。 为了让Lucene知道什么是“单词”,它会在索引编制过程中分析文本并将其提取为术语。 这些术语是用于搜索的原始构建块。

选择合适的分析仪是Lucene至关重要的开发决定,而且一个尺寸绝对不能满足所有需求。 语言是一个因素,因为每种语言都有其独特的功能。 要考虑的另一个因素是要分析的文本的范围。 不同的行业可能会有不同的术语,首字母缩写词和缩写,因此值得关注。 任何分析仪都无法满足所有情况。 内置分析选项可能无法满足我们的需求,我们将不得不投资创建定制的分析解决方案。 幸运的是,Lucene的构建基块使此操作非常容易。

通常,Lucene分析仪是按照以下步骤设计的:

实际文本–>基本令牌准备–>小写过滤–>停用词过滤(否定不太有用的词,占内容中40-50%的词)–>通过自定义逻辑过滤–>最终令牌准备用于在lucene中建立索引,这将在lucene的搜索中参考。

不同的分析器使用不同的标记器,在此基础上,输出标记流–文本组的顺序将有所不同。

词干用于获取有问题的单词的词根。 例如,对于单词running,ran,run等,将运行根词。 在分析器中使用此功能可通过搜索api使搜索范围的内容更高。 如果在索引中引用了根词,则可能是针对确切的词,我们可以在索引中有多个选项进行搜索,并且短语匹配的可能性可能更高。 因此,这一概念(称为词干分析器)经常用于分析仪设计中。

停用词是书面语言中常用但不太有用的词。 对于英语,这些单词是“ a”,“ the”,“ I”等。

在不同的分析器中,将从停止词中清除令牌流,以使索引对搜索结果更有用。

Lucene分析仪的工作过程

分析过程分为三个部分。 为了帮助说明该过程,我们将使用以下原始文本作为示例。 (处理HTML或PDF文档以获得标题,主要文本和其他要分析的字段称为解析,这超出了分析范围。我们假设解析器已经从较大的文档中提取了此文本。)

<h1>Building a <em>top-notch</em> search engine</h1>

首先,字符过滤器对要分析的原始文本进行预处理。 例如,HTML Strip字符过滤器将删除HTML。 我们现在剩下的是这个文本:

Building a top-notch search engine

接下来,令牌生成器将预处理的文本分解为令牌。 令牌通常是单词,但是不同的令牌生成器处理特殊情况(例如“ top-notch”)的方式有所不同。 一些令牌生成器(例如标准令牌生成器)将破折号视为单词边界,因此“ top-notch”将是两个令牌(“ top”和“ notch”)。 其他令牌生成器(如Whitespace令牌生成器)仅将空格视为单词边界,因此“ top-notch”将是单个令牌。 还有一些不寻常的令牌生成器,例如NGram令牌生成器,它会生成部分单词的令牌。

假设破折号被认为是单词边界,我们现在有:

[Building] [a] [top] [notch] [search] [engine]

最后,令牌过滤器对令牌执行其他处理,例如删除后缀(称为词干)并将字符转换为小写。 令牌的最终序列可能看起来像这样:

[build] [a] [top] [notch] [search] [engine]

分词器和零个或多个过滤器的组合构成了一个分析器。 默认情况下,使用标准分析器,该分析器由标准标记器和标准,小写和停止标记过滤器组成。

分析仪可以执行更复杂的操作以获得更好的结果。 例如,分析人员可能会使用令牌过滤器来拼写检查词或引入同义词,以便搜索“ saerch”或“ find”都将返回包含“ Searching”的文档。 也有类似功能的不同实现方式可供选择。

除了在包括的分析器之间进行选择之外,我们还可以通过将现有令牌生成器和零个或多个过滤器链接在一起来创建自己的自定义分析器。 标准分析器不执行词干分析,因此您可能需要创建一个包含词干标记过滤器的自定义分析器。

有这么多的可能性,我们可以测试不同的组合,看看哪种方法最适合我们的情况。

3.分析仪的类型

在Lucene中,一些不同的分析器是:

一个。 空白分析仪

空格分析器根据空格将文本处理为令牌。 空格之间的所有字符均已编制索引。 在此,停用词不用于分析,并且大小写不变。 Whitespace分析器是使用Whitespace Tokenizer(Whitespace标记生成器)(Whitespace类型的标记生成器,将空白分隔文本)构建的。

b。 简单分析器

SimpleAnalyser使用字母标记器和小写过滤从内容中提取标记,并将其放入Lucene索引中。 简单的分析器是使用小写标记器构建的。 小写令牌生成器一起执行字母令牌生成器和小写令牌过滤器的功能。 它以非字母分隔文本并将其转换为小写。 尽管它在功能上等同于Letter令牌生成器和小写令牌过滤器的组合,但同时执行两个任务具有性能优势,因此是这种(冗余的)实现。

C。 停止分析器

StopAnalyser删除对索引不太有用的常见英语单词。 这些是通过为分析器提供STOP_WORDS列表的列表来完成的。

Stop分析器是使用带有Stop令牌过滤器的小写令牌生成器构建的(Stop类型的令牌过滤器可从令牌流中删除停用词)

以下是可以为停止分析器类型设置的设置:

  • 停用词->用来停用过滤器的停用词列表。 默认为英语停用词。
  • stopwords_path->停用词文件配置的路径(相对于配置位置或绝对路径)。

d。 标准分析仪

StandardAnalyser是通用分析器。 它通常在标准停用词的帮助下将标记转换为小写字母以分析文本,并且还受其他规则约束。 StandardAnalyzer是通过将标准令牌生成器与标准令牌过滤器(标准类型的令牌过滤器,对使用标准令牌生成器提取的令牌进行归一化处理),小写令牌过滤器和停止令牌过滤器构建而成。

e。 经典分析仪

使用英语停用词列表通过ClassicFilter,LowerCaseFilter和StopFilter过滤ClassicTokenizer的分析器。

F。 UAX29URLEmailAnalyzer

分析器使用英语停用词列表,通过StandardFilter,LowerCaseFilter和StopFilter过滤UAX29URLEmailTokenizer。

G。 关键字分析器

类型为关键字的分析器,可将整个流“标记为”单个标记。 这对于诸如邮政编码,ID等数据很有用。 注意,使用映射定义时,将字段简单标记为not_analyzed可能更有意义。

H。 雪球分析仪

使用标准标记器,标准过滤器,小写过滤器,停止过滤器和雪球过滤器的雪球分析器。

Snowball Analyzer是Lucene的词干分析器,其最初基于snowball.tartarus.org的snowball项目。

用法示例:

{"index" : {"analysis" : {"analyzer" : {"my_analyzer" : {"type" : "snowball","language" : "English"}}}}}

一世。 模式分析仪

类型模式分析器,可以通过正则表达式灵活地将文本分成术语。 接受以下设置:

模式分析器示例:

空白令牌生成器:

curl -XPUT 'localhost:9200/test' -d '{"settings":{"analysis": {"analyzer": {"whitespace":{"type": "pattern","pattern":"\\\\\\\\s+"}}}}}
curl 'localhost:9200/test/_analyze?pretty=1&analyzer=whitespace' -d 'foo,bar baz'# "foo,bar", "baz"

非单词字符标记器:

curl -XPUT 'localhost:9200/test' -d '{"settings":{"analysis": {"analyzer": {"nonword":{"type": "pattern","pattern":"[^\\\\\\\\w]+"}}}}}
curl 'localhost:9200/test/_analyze?pretty=1&amp;analyzer=nonword' -d 'foo,bar baz'</strong># "foo,bar baz" becomes "foo", "bar", "baz"
curl 'localhost:9200/test/_analyze?pretty=1&amp;analyzer=nonword' -d 'type_1-type_4'</strong># "type_1","type_4"

驼峰标记器:

curl -XPUT 'localhost:9200/test?pretty=1' -d '{"settings":{"analysis": {"analyzer": {"camel":{"type": "pattern","pattern":"([^\\\\\\\\p{L}\\\\\\\\d]+)|(?<=\\\\\\\\D)(?=\\\\\\\\d)|(?<=\\\\\\\\d)(?=\\\\\\\\D)|(?<=[\\\\\\\\p{L}&&[^\\\\\\\\p{Lu}]])(?=\\\\\\\\p{Lu})|(?<=\\\\\\\\p{Lu})(?=\\\\\\\\p{Lu}[\\\\\\\\p{L}&&[^\\\\\\\\p{Lu}]])"}}}}}
curl 'localhost:9200/test/_analyze?pretty=1&analyzer=camel' -d 'MooseX::FTPClass2_beta'# "moose","x","ftp","class","2","beta"

上面的正则表达式更容易理解为:

([^ \\ p {L} \\ d] +) #吞下非字母和数字,
| (?<= \\ D)(?= \\ d) #或非数字后跟数字,
| (?<= \\ d)(?= \\ D) #或数字后跟非数字,
| (?<= [\\ p {L} && [^ \\ p {Lu}]]) #或小写
(?= \\ p {Lu}) #后跟大写字母,
| (?<= \\ p {Lu}) #或大写
(?= \\ p {Lu} #后跟大写
[\\ p {L} && [^ \\ p {Lu}]] #然后小写

表格1

j。 定制分析仪

一种自定义类型的分析器,它允许将令牌生成器与零个或多个令牌过滤器以及零个或多个字符过滤器组合。 定制分析器接受要使用的标记器的逻辑/注册名称,以及标记过滤器的逻辑/注册名称的列表。

这是自定义分析器的示例:

index :analysis :analyzer :myAnalyzer2 :type : customtokenizer : myTokenizer1filter : [myTokenFilter1, myTokenFilter2]char_filter : [my_html]tokenizer :myTokenizer1 :type : standardmax_token_length : 900filter :myTokenFilter1 :type : stopstopwords : [stop1, stop2, stop3, stop4]myTokenFilter2 :type : lengthmin : 0max : 2000char_filter :my_html :type : html_stripescaped_tags : [xxx, yyy]read_ahead : 1024

语言参数可以与雪球过滤器具有相同的值,并且默认为英语。 请注意,并非所有语言分析器都提供默认的停用词集。

stopwords参数可用于为没有默认语言的语言提供停用词,或仅用您的自定义列表替换默认设置。 检查Stop Analyzer以获取更多详细信息。 例如,此处和此处都提供了其中许多语言的默认停用词集。

一个配置示例(YAML格式),指定瑞典语并带有停用词:

index :analysis :analyzer :my_analyzer:type: snowballlanguage: Swedishstopwords: "och,det,att,i,en,jag,hon,som,han,på,den,med,var,sig,för,så,till,är,men,ett,om,hade,de,av,icke,mig,du,henne,då,sin,nu,har,inte,hans,honom,skulle,hennes,där,min,man,ej,vid,kunde,något,från,ut,när,efter,upp,vi,dem,vara,vad,över,än,dig,kan,sina,här,ha,mot,alla,under,någon,allt,mycket,sedan,ju,denna,själv,detta,åt,utan,varit,hur,ingen,mitt,ni,bli,blev,oss,din,dessa,några,deras,blir,mina,samma,vilken,er,sådan,vår,blivit,dess,inom,mellan,sådant,varför,varje,vilka,ditt,vem,vilket,sitta,sådana,vart,dina,vars,vårt,våra,ert,era,vilkas"

这是一个自定义字符串分析器的示例,该示例是通过扩展Lucene的抽象Analyzer类而构建的。 下面的清单显示了实现了tokenStream(String,Reader)方法的SampleStringAnalyzer。 SampleStringAnalyzer定义了一组停用词,可以使用Lucene提供的StopFilter在索引过程中将其丢弃。 tokenStream方法检查正在建立索引的字段。 如果该字段是注释,它将首先使用LowerCaseTokenizer对输入进行标记和小写,使用StopFilter消除英语的停用词(一组有限的英语停用词),然后使用PorterStemFilter除去常见的词尾变化形式。 如果要索引的内容不是注释,则分析器使用LowerCaseTokenizer对输入进行标记化和小写,并使用StopFilter消除Java关键字。

public class SampleStringAnalyzer extends Analyzer {private Set specialStopSet;private Set englishStopSet;private static final String[] SPECIALWORD_STOP_WORDS = {"abstract","implements","extends","null""new","switch","case", "default" ,"synchronized" ,"do", "if", "else", "break","continue","this","assert" ,"for", "transient","final", "static","catch","try","throws","throw","class", "finally","return","const" , "native", "super","while", "import","package" ,"true", "false" };private static final String[] ENGLISH_STOP_WORDS ={"a", "an", "and", "are","as","at","be" "but","by", "for", "if", "in", "into", "is", "it","no", "not", "of", "on", "or", "s", "such","that", "the", "their", "then", "there","these","they", "this", "to", "was", "will", "with" };public SourceCodeAnalyzer(){super();specialStopSet = StopFilter.makeStopSet(SPECIALWORD_STOP_WORDS);englishStopSet = StopFilter.makeStopSet(ENGLISH_STOP_WORDS);}public TokenStream tokenStream(String fieldName,Reader reader) {if (fieldName.equals("comment"))return   new PorterStemFilter(new StopFilter(new LowerCaseTokenizer(reader),englishStopSet));elsereturn   new StopFilter(new LowerCaseTokenizer(reader),specialStopSet);}}}

分析仪内部是什么?

分析人员需要返回TokenStream

图1

图1

将文本分析为令牌:

在文本字段上进行搜索和建立索引需要将文本数据处理为令牌。 软件包oal.analysis包含用于对文本进行标记和索引的基类。 处理可以由一系列转换组成,例如,空格标记化,大小写规范化,停止列表和词干。

抽象类oal.analysis.TokenStream将输入的文本分成一系列标记,这些标记使用类似迭代器的模式进行检索。 TokenStream有两个子类: oal.analysis.Tokenizeroal.analysis.TokenFilter 。 Tokenizer将java.io.Reader作为输入,而TokenFilter将另一个oal.analysis.TokenStream作为输入。 这使我们可以将令牌生成器链接在一起,以便初始令牌生成器从读取器获取其输入,其他令牌生成器则对链中先前TokenStream中的令牌进行操作。

oal.analysis.Analyzer在每个字段上为oal.analysis.Analyzer提供索引和搜索过程。 它将字段名称映射到令牌生成器,还可以为未知字段名称提供默认分析器。 Lucene包括许多分析模块,这些模块提供了各种分析仪的具体实现。 从Lucene 4开始,这些模块被捆绑到单独的jar文件中。 有几个特定语言的十几分析软件包,从oal.analysis.ar为阿拉伯语oal.analysis.tr土耳其。 软件包oal.analysis.core提供了几个通用分析器,令牌生成器和令牌生成器工厂类。

抽象类oal.analysis.Analyzer包含用于从输入文本中提取术语的方法。 Analyzer的具体子类必须重写createComponents方法,该方法返回嵌套类TokenStreamComponents的对象,该对象定义令牌化过程并提供对处理管道的初始和文件组件的访问。 初始组件是处理输入源的Tokenizer。 最后一个组件是TokenFilter的一个实例,它是方法Analyzer.tokenStream(String,Reader)返回的TokenStream。 这是一个自定义分析器的示例,该分析器将其输入标记为单个单词(所有字母均小写)。

Analyzer analyzer = new Analyzer() {@Overrideprotected TokenStreamComponents createComponents(String fieldName, Reader reader) {Tokenizer source =new StandardTokenizer(VERSION,reader);TokenStream filter =new LowerCaseFilter(VERSION,source);return new TokenStreamComponents(source, filter);}
};

oal.analysis.standard.StandardTokenizeroal.analysis.core.LowerCaseFilter对象的构造函数需要一个Version参数。 还要注意,软件包oal.analysis.standard分布在jarfile lucene-analyzers-common-4.xyjar中,其中x和y是次要版本和发行版号。

我们应该使用哪个核心分析仪?

现在,我们已经看到了四个核心Lucene分析仪在工作方式上的实质性差异。 为我们的应用程序选择合适的分析仪会让我们感到惊讶:大多数应用程序不使用任何内置分析仪,而是选择创建自己的分析仪链。 对于那些确实使用核心分析器的应用程序,StandardAnalyzer可能是最常见的选择。 对于大多数应用程序而言,其余的核心分析仪通常过于简单,除非特定的用例(例如,包含零件编号列表的字段可能使用Whitespace-Analyzer)。 但是这些分析仪非常适合测试用例,并且确实被Lucene的单元测试大量使用。

通常,应用程序具有特定的需求,例如自定义停用词列表,对诸如零件号或同义词扩展之类的特定于应用程序的标记执行特殊的标记化,保留某些标记的大小写或选择特定的词干算法。

翻译自: https://www.javacodegeeks.com/2015/09/lucene-analysis-process-guide.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/357098.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【javascript高级教程】JavaScript Number 对象

JavaScript 只有一种数字类型。可以使用也可以不使用小数点来书写数字。 var pi3.14; // 使用小数点 var x34; // 不使用小数点 极大或极小的数字可通过科学&#xff08;指数&#xff09;计数法来写&#xff1a; var y123e5; // 12300000 var z123e-5; // 0.0…

【javascript高级教程】JavaScript 字符串(String) 对象

String 对象用于处理已有的字符块。 JavaScript 字符串 一个字符串用于存储一系列字符就像 "John Doe". 一个字符串可以使用单引号或双引号&#xff1a; var carname"Volvo XC60"; var carnameVolvo XC60; 你使用位置&#xff08;索引&#xff09;可以…

Chrome 开发工具之Network

经常会听到比如"为什么我的js代码没执行啊&#xff1f;","我明明发送了请求&#xff0c;为什么反应&#xff1f;","我这个网站怎么加载的这么慢&#xff1f;"这类的问题&#xff0c;那么问题既然存在&#xff0c;就需要去解决它&#xff0c;需要…

实用常识_实用垃圾收集,第1部分–简介

实用常识这是我打算写的一系列博客文章的第一部分&#xff0c;其目的是解释垃圾回收在现实世界中如何工作&#xff08;尤其是在JVM中 &#xff09;。 我将介绍一些我认为对于充分理解垃圾收集对于实际目的是必需的理论&#xff0c;但是将其降至最低。 其动机是在各种情况下&…

重写AgileEAS.NET SOA 中间件平台账号密码的加密算法

一、平台简介 AgileEAS.NET SOA 中间件平台是一款基于基于敏捷并行开发思想和Microsoft .Net构件(组件)开发技术而构建的一个快速开发应用平台。用于帮助中小型软件企业建立一条适合市场快速变化的开发团队&#xff0c;以达到节省开发成本、缩短开发时间&#xff0c;快速适应市…

Java中的堆栈安全递归

在本文中&#xff0c;摘自《 Java中的函数式编程 》一书&#xff0c;我解释了如何使用递归&#xff0c;同时避免了StackOverflow异常的风险。 Corecursion正在使用第一步的输出作为下一步的输入来构成计算步骤。 递归是相同的操作&#xff0c;但是从最后一步开始。 在这种情况…

数字化经营支付3.0有哪些盈利机会

实体商户的现状 服务商经营现状 官方政策支持 微信平台通过多渠道助力商户发放 优惠券,如扫码领券、API领券、支 付有礼、附近3公里等形式,给商户 做引流拓客。

nessus重置密码

许久不用的nessus密码居然忘记了&#xff0c;查了下&#xff1a; cmd下进入到nessus的安装目录 提升为管理员&#xff0c;登录系统 如果想用之前的账号&#xff0c;可以直接在系统内重置密码。转载于:https://www.cnblogs.com/nayu/p/5640527.html

程序员有哪些可以写博客的网站?

俗话说&#xff1a;好记性不如烂笔头&#xff0c;作为一名合格的程序员还是抽时间写写博客的&#xff0c;马云曾说“成功的人有两个特质&#xff0c;一个是喜欢写作&#xff0c;一个是喜欢演讲”&#xff0c;我觉得吧&#xff0c;写作一是为了总结&#xff0c;二是督促自己成长…

工厂方法设计模式示例

本文是我们名为“ Java设计模式 ”的学院课程的一部分。 在本课程中&#xff0c;您将深入研究大量的设计模式&#xff0c;并了解如何在Java中实现和利用它们。 您将了解模式如此重要的原因&#xff0c;并了解何时以及如何应用模式中的每一个。 在这里查看 &#xff01; 目录 …

jmx jolokia_使用Jolokia和JMX进行客户端服务器监视

jmx jolokiaJava监视工具的选择非常广泛&#xff08;由Google提供的随机选择和顺序&#xff09;&#xff1a; javamelody 压力探头 JVisualVM 控制台 贾蒙 Java JMX Nagios插件不适用 此外&#xff0c;还有各种专用工具&#xff0c;例如ActiveMQ &#xff0c; JBoss &…

利用 %20 替换 空格

将字符串中的空格都替换为 %20 &#xff08; 时间复杂度为O&#xff08;N&#xff09;的解法 &#xff09; void ReplaceBlankSpace(char* arr){if (arr){int count 0;int lenth strlen(arr);for (int i 0; i < lenth;i)if (arr[i] )count;char*before arrlenth, *beh…

Node.js 官方文档中文版

这目录也是醉了 。 列出跟没列出没两样 转载于:https://www.cnblogs.com/ganmk--jy/p/5646860.html

Smaug Coverage

转载于:https://www.cnblogs.com/edisonxiang/p/5650656.html

图谱(学习地图)系列总结,持续更新中

目录 1.2022年最新前端学习路线图 2.2022年最新大数据学习路线图 3.2022年最新javaEE学习路线图 4.2022年最新UI/UE学习路线图 5.2022年java学习路线指南 6.JavaScript学习总结&#xff08;思维导图篇&#xff09; 7.思维脑图——数据分析实战&#xff08;最新版&#…

ccxt k线数据_寻找相似的历史k线

有网友提问应该用什么样的数据库/数据结构/算法来计算某支股票的相似K线? 具体的问题描述是&#xff0c;假设给出某股某段行情K线&#xff08;单位/日&#xff09;&#xff0c;从任何其他股票历史中匹配出与之最为相似的某段历史K线&#xff0c;并给出相似度值&#xff08;单位…

k均值例子 数据挖掘_数据挖掘的技术有很多种,常用的数据挖掘技术就这13种...

数据挖掘就是从大量的、不完全的、有噪声的、模糊的、随机的数据中&#xff0c;提取隐含在其中的、人们事先不知道的但又是潜在有用的信息和知识的过程。数据挖掘的任务是从数据集中发现模式&#xff0c;可以发现的模式有很多种&#xff0c;按功能可以分为两大类&#xff1a;预…

【TypeScript系列教程05】保留关键字

目录 TypeScript 保留关键字 TypeScript 保留关键字 TypeScript 保留关键字如下表所示&#xff1a;

中国剩余定理 互质与非互质版本

中国剩余定理互质版 设m1&#xff0c;m2&#xff0c;m3&#xff0c;...&#xff0c;mk是两两互素的正整数&#xff0c;即gcd(mi,mj)1&#xff0c;i!j&#xff0c;i,j1,2,3,...,k. 则同余方程组&#xff1a; x a1 (mod n1) x a2 (mod n2) ... x ak (mod nk) 模[n1,n2,...nk]有…

aix 的c库为什么都是静态库_卢卡库:若梅罗、莱万都在努力突破极限,为什么我不能做到呢...

直播吧12月8日讯 北京时间周四凌晨的欧冠小组赛末轮比赛&#xff0c;国米将在主场迎战顿涅茨克矿工。目前&#xff0c;蓝黑军团依然保留着些许出线希望。在这场比赛之前&#xff0c;国米射手卢卡库接受了《法国足球》的采访&#xff0c;他谈论了和孔蒂的关系、和劳塔罗的搭档以…