缓存对于提高搜索引擎的吞吐量,降低CPU占用率极为重要。Lucene/Solr在这块做了很多的工作。Lucene/Solr中默认提供了5种缓存,同时solr还提供扩展缓存接口,允许开发者自定义缓存。


缓存的基本原理


Solr实现了两种策略的缓存:LRU(Leatest Recently Used)LFU(Least Frequently Used)。这两种策略也用于操作系统的内存管理(页面置换)。当然缓存还有其它的策略,比如FIFORand等。无论是基于什么样的策略,在应用中命中率高且实现简单的策略才是好策略。


1.1 LRU策略


LRU,又称最近最少使用。假如缓存的容量为10,那么把缓存中的对象按访问(插入)的时间先后排序,当容量不足时,***时间最早的。(当然,真正的实现是通过链表维护时间先后顺序)


1.1.1 LRUCache


SolrLRUCache是通过LinkedHashMap来实现的。通过LRUCacheinit方法就可以发现,其代码如下:


  map = new LinkedHashMap<K,V>(initialSize, 0.75f, true) {@Overrideprotected boolean removeEldestEntry(Map.Entry eldest) {if (size() > limit) {// increment evictions regardless of state.// this doesn't need to be synchronized because it will// only be called in the context of a higher level synchronized block.evictions++;stats.evictions.incrementAndGet();return true;}return false;}};


需要注意的是其构造参数的最后一个accessOrder。这里accessOrder=true,表明map.get()方法会改变链表的结构,如果accessOrderfalse,则map.get()方法不对改变LinkedHashMap中链表的结构,就无法体现最近最小使用这个特点了。


 

由于LRUCache其本质是LinkedHashMap,HashMap不是线程安全的,所以就需要在getput时进行同步,锁住整个map,所以在高并发条件下,其性能会有所影响。因此Solr用另外一种方式实现了LRUCache,即FastLRUCache


1.1.2 FastLRUCache


FastLRUCache内部采用了ConcurrentLRUCache实现,而ConcurrentLRUCache内部又采用ConcurrentHashMap实现,所以是线程安全的。缓存通过CacheEntry中的访问标记lastAccessed来维护CacheEntry被访问的先后顺序。 即每当Cacheget或者put操作,则当前CacheEntrylastAccessed都会变成最大的(state.accessCounter)。当FastLRUCache容量已满时,通过markAndSweep方式来剔除缓存中lastAccessed最小的N个项以保证缓存的大小达到一个acceptable的值。


markAndSweep分两个阶段执行:第一阶段收回最近最少使用的项;如果经过第一阶段缓存的大小依然大于acceptable,那么第二阶段将会开始。第二阶段会更加严格地把缓存的大小降下来。


在第一阶段,一个数轴就可以把运行原理解释清楚。


wKioL1ONg47z5jeoAACZuSjq92M816.jpg


对应代码如下(ConcurrentLRUCache.markAndSweep方法)


        

// since the wantToKeep group is likely to be bigger than wantToRemove, check it firstif (thisEntry > newestEntry - wantToKeep) {// this entry is guaranteed not to be in the bottom// group, so do nothing.numKept++;newOldestEntry = Math.min(thisEntry, newOldestEntry);} else if (thisEntry < oldestEntry + wantToRemove) { // entry in bottom group?// this entry is guaranteed to be in the bottom group// so immediately remove it from the map.evictEntry(ce.key);numRemoved++;} else {// This entry *could* be in the bottom group.// Collect these entries to avoid another full pass... this is wasted// effort if enough entries are normally removed in this first pass.// An alternate impl could make a full second pass.if (eSize < eset.length-1) {eset[eSize++] = ce;newNewestEntry = Math.max(thisEntry, newNewestEntry);newOldestEntry = Math.min(thisEntry, newOldestEntry);}}}


     


看代码可知,第一阶段会按相同的逻辑运行两次。一般来说,经过第一阶段,缓存的大小应该控制下来了。如果依然控制不下来,那么就把上图中的待定Entry直接扔到指定大小的优先队列中。最后把优先队列中的Entry全部***。这样,就能够保证缓存的Size降下来。其实如果一开始就直接上优先队列,代码会少很多。但是程序的性能会降低好多。


 

通过分析可以看到,如果缓存中put操作频繁,很容易触发markAndSweep方法的执行。而markAndSweep操作比较耗时。所以这部分的操作可以通过设置newThreadForCleanup=true来优化。即新开一个线程执行。这样就不会阻塞put方法。在solrconfig.xml中配置,是这样的cleanupThread=trueCache在构造的时候就会开启一个线程。通过线程的wait/nofity来控制markAndSweep。从而避免了newThreadForCleanup=true这样的不停开线程的开销,总而言之,缓存是通过markAndSweep来控制容量。


 

1.2 LFU策略


LFU策略即【最近最少使用】策略。当缓存已满时,设定时间段内使用次数最少的缓存将被剔除出去。通过前面的描述,容易看出LFU策略实现时,必须有一个计数器来记录CacheEntry被访问的次数。Solr也正是这么干的。(CacheEntry结构)


 

 private static class CacheEntry<K, V> implements Comparable<CacheEntry<K, V>> {K key;V value;volatile AtomicLong hits = new AtomicLong(0);long hitsCopy = 0;volatile long lastAccessed = 0;long lastAccessedCopy = 0;public CacheEntry(K key, V value, long lastAccessed) {this.key = key;this.value = value;this.lastAccessed = lastAccessed;}



很清楚地看到CacheEntry用hits 来记录访问次数。lastAccessed 存在则是为了应付控制缓存容量时,如果在待***队列中出现hits相同的CacheEntry,那么***lastAccessed 较小的一个。hitsCopy lastAccessedCopy的存在则是基于性能的考虑。避免多线程时内存跨越内存栅栏。


 

LFUCache通过ConcurrentLFUCache来实现,而ConcurrentLFUCache内部又是ConcurrentHashMap。我们关注的重点放在ConcurrentLFUCache


ConcurrentLFUCache对容量的控制依然是markAndSweep,我猜想这是为了在代码可读性上与ConcurrentLRUCache保持一致。


相对ConcurrentLRUCachemarkAndSweep实现而言,ConcurrentLFUCachemarkAndSweep就比较简单了。用一个TreeSet来维护待***队列。TreeSet排序则是基于hits lastAccessed (可参看CacheEntrycomparTo方法)


markAndSweep方法的核心代码如下:


TreeSet<CacheEntry> tree = new TreeSet<CacheEntry>();for (CacheEntry<K, V> ce : map.values()) {// set hitsCopy to avoid later Atomic readsce.hitsCopy = ce.hits.get();ce.lastAccessedCopy = ce.lastAccessed;if (timeDecay) {ce.hits.set(ce.hitsCopy >>> 1);}if (tree.size() < wantToRemove) {tree.add(ce);} else {// If the hits are not equal, we can remove before adding// which is slightly fasterif (ce.hitsCopy < tree.first().hitsCopy) {tree.remove(tree.first());tree.add(ce);} else if (ce.hitsCopy == tree.first().hitsCopy) {tree.add(ce);tree.remove(tree.first());}}}for (CacheEntry<K, V> e : tree) {evictEntry(e.key);}

Solr实现了LFUCache,却没有再来一个FastLFUCache。因为LFUCache的实现用的是ConcurrentHashMap。能够很好的支持并发。如果非要来一个FastLFUCache,那么就得用上非阻塞数据结构了。


 

 

 

 

缓存在Solr的中应用


前面已经提到过,Solr实现了各种层次的缓存。缓存由SolrIndexSearcher集中控制。分别应用在queryfact等查询相关的操作上。


2.1 filterCache


filterCacheSolrIndexSearcher的定义如下:


SolrCache<Query,DocSet> filterCache;


   filterCache的key是Query,value是DocSet对象。而DocSet的基本功能就是过滤。filter在英语中的解释是"过滤器"。那么哪些地方有可能用到过滤功能呢?


filterCachesolr中的应用包含以下场景:


1、查询参数facet.method=enum


2、如果solrconfig.xml中配置<useFilterForSortedQuery/> true


3、查询参数含Facet.query或者group.query


4、查询参数含fq


    


2.2 fieldvalueCache


fieldValueCacheSolrIdexSearcher的定义如下:


SolrCache<String,UnInvertedField> fieldValueCache;


 

其中key代表FieldNamevalue是一种数据结构UnInvertedField


 

fieldValueCachesolr中只用于multivalued Field。一般用到它的就是facet操作。关于这个缓存需要注意的是,如果没有在solrconfig.xml中配置,那么它是默认存在的(初始大小10,最大10000,不会autowarm) 会有内存溢出的隐患。


由于该cachekeyFieldName,而一般一个solrCore中的字段最多也不过几百。在这么多字段中,multivalued 字段会更少,会用到facet操作的则少之又少。所以该在solrconfig.xml中的配置不必过大,大了也是浪费。


该缓存存储排序好的docIds,一般是topN。这个缓存占用内存会比filterCache 小。因为它存储的是topN。但是如果QueryCommand中带有filter(DocSet类型),那么该缓存不会起作用。原因是:DocSet在执行hashcodeequals方法时比较耗时。

2.4 documentCache

该缓存映射docId->Document。没有什么值得多说的。

 

2.5 自定义缓存

如果solr中实现的缓存不满足需求。那么可以在SolrConfig.xml中自定义缓存。 

<cache name="c"class="solr.FastLRUCache"size="4096"initialSize="1024"autowarmCount="1024"regenerator="com.mycompany.cache.CacheRegenerator"/>


需要写代码的地方就是 regenerator="com.mycompany.cache.CacheRegenerator"这里了。RegeneratorSolrIndexSearcher执行warm方法时会被调用。假如solr的索引2分钟更新一次,为了保证更新的索引能够被搜索到,那么就需要重新打开一个SolrIndexSearcher,这时候就有一个问题:SolrIndexSearcher里面的缓存怎么办?

如果把旧的缓存全部抛弃,那么搜索的性能势必下降。Solr的做法是通过warm方法来预热缓存。即把通过原有缓存里面的Key值,重新获取一次valuewarm完毕后再切换到新的Searcherregenrator里面的regenerateItem方法就是用来更新缓存。关注一下regenerateItem的参数:

  public boolean regenerateItem(SolrIndexSearcher newSearcher, SolrCache newCache, SolrCache oldCache, Object oldKey, Object oldVal) throws IOException;

SolrIndexSearcher,oldCache,oldKey,有oldVal想查询结果很容易就能得到了。这样做的话已经***到Solr内部了,不推荐。如果以后想要升级的话,可能得重新改代码。升级维护不太方便。

2.6 fieldCache

我们知道lucene保存了正向索引(docId-->field)和反向索引(field-->docId)。反向索引是搜索的核心,检索速度很快。但是如果我们需要快速由docId得到Field信息(比如按照某个字段排序,字段值的信息统计<solr facet功能>),由于需要磁盘读取,速度会比较慢。因此Lucene实现了fieldCache

Lucene实现了各种类型Field的缓存:Byte,Short,Int,Float,Long……

fieldCacheLucene内部的缓存,主要用于缓存Lucene搜索结果排序,比如按时间排序等。由于fieldCache内部利用数组来存储数据(可以参看FieldCacheImpl源码),而且数组的大小开的都是maxDoc,所以当数据量较大时,fieldCache是相当消耗内存的,所以很容易出现内存溢出问题。

 

fieldCache使用的样例可可参看如下的源代码。

package com.vancl.cache;import java.io.IOException;import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.core.WhitespaceAnalyzer;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field.Store;
import org.apache.lucene.document.IntField;
import org.apache.lucene.document.StringField;
import org.apache.lucene.index.DirectoryReader;
import org.apache.lucene.index.IndexReader;
import org.apache.lucene.index.IndexWriter;
import org.apache.lucene.index.IndexWriterConfig;
import org.apache.lucene.search.IndexSearcher;
import org.apache.lucene.search.MatchAllDocsQuery;
import org.apache.lucene.search.ScoreDoc;
import org.apache.lucene.search.Sort;
import org.apache.lucene.search.SortField;
import org.apache.lucene.search.TopDocs;
import org.apache.lucene.search.TopFieldCollector;
import org.apache.lucene.store.Directory;
import org.apache.lucene.store.RAMDirectory;
import org.apache.lucene.util.Version;public class TestFieldCache {Directory d= new RAMDirectory();Analyzer analyzer =new WhitespaceAnalyzer(Version.LUCENE_42);IndexWriterConfig conf = null;IndexWriter iw = null;public void index() throws IOException{conf = new IndexWriterConfig(Version.LUCENE_42,analyzer);iw = new IndexWriter(d, conf);Document doc = null;int[] ids ={1,5,3,2,4,8,6,7,9,10};String[] addTimes={"2012-12-12 12:12:12","2012-12-12 12:12:13","2012-12-12 12:12:14","2012-12-12 12:12:15","2012-12-12 12:12:11","2012-12-12 12:12:10","2012-12-12 12:12:09","2012-12-12 12:12:08","2012-12-12 12:12:07","2012-12-12 12:12:06"}	;for(int i=1;i<=10;i++){doc=new Document();doc.add(new StringField("addTime",addTimes[i-1], Store.YES));doc.add(new IntField("id",ids[i-1], Store.YES));iw.addDocument(doc);}iw.commit();iw.close();}public void query() throws IOException{IndexReader ir = DirectoryReader.open(d);IndexSearcher is = new IndexSearcher(ir);//按addTime逆序排序//Sort sort = new Sort(new SortField("addTime", SortField.Type.STRING,true));Sort sort = new Sort(new SortField("addTime", SortField.Type.STRING,true));//按id逆序排序//Sort sort = new Sort(new SortField("id", SortField.Type.INT,true));TopFieldCollector collector =	TopFieldCollector.create(sort, 5, false, false, false, false);is.search(new MatchAllDocsQuery(),collector);TopDocs top= collector.topDocs();for (ScoreDoc doc : top.scoreDocs) {//	System.out.println(ir.document(doc.doc).get("id"));System.out.println(ir.document(doc.doc).get("addTime"));}}public static void main(String[] args) throws IOException {TestFieldCache c = new TestFieldCache();c.index();c.query();}
}