项目实战--文档搜索引擎

在我们的学习过程中,会阅读很多的文档,例如jdk的API文档,但是在这样的大型文档中,如果没有搜索功能,我们是很难找到我们想查阅的内容的,于是我们可以实现一个搜索引擎来帮助我们阅读文档。

1. 实现思路

1.1 获取文档 

第一点,要搜索指定内容,首先要先获取到内容,我们以实现Java API文档搜索引擎来说,我们要先获取到Java的API文档,我们可以在Oracle的官网找到:Overview (Java SE 17 & JDK 17) (oracle.com)

Oracle官网提供了在线和离线两种文档,我们可以下载离线文档,通过离线文档来实现。

离线文档下载地址:Java 开发工具包 17 文档 (oracle.com)

下载好后解压缩,在 jdk-17.0.11_doc-all\docs\api 目录和子目录下的所有html文件就是所有的api文档

1.2 通过关键词查询

获取到了文档,我们还需要能够通过关键词定位到相关的文档,这里需要用到索引 

  • 正排索引: 给每个文档引入一个文档id,文档id是每个文档的身份标识,不能重复,通过文档id快速获取到对应文档就叫正排索引。
  • 倒排索引:通过一个或几个关键词查询到与之有关的所有文档的文档id,这种方式就叫到排索引。

于是要实现关键词查询,我们只需要给下载好的Java API文档实现一个正排索引和倒排索引,通过到排索引查询到相关的文档的id,要查看某个文档时再用查询到的id使用正排索引查询到对应文档。

1.3 如何返回查询到的结果

查询到对应的api文档之后,如何返回给用户,这里我的想法是返回一个在线文档的url,当用户想要查看某个文档时,返回Oracle官方的在线文档对应的页面的url。

那么此种方式就需要我们把在线文档的url和离线文档联系起来:

我们观察某个文档的url和在线文档的本地路径:

在线文档:

离线文档: 

 

 我们发现相同api文档的在线版本的url和离线版本路径,它们的后半部分是相同的,所有我们只需要通过一些字符串拼接操作,就可以通过离线文档的文件路径得到在线文档的url。

1.4 模块划分

通过上面的叙述,我们可以对我们的程序进行一个模块划分:

  • 索引模块:扫描并解析所有的本地文档并构建出索引;提供一些API实现查正排/到排的功能
  • 搜索模块:调用索引模块通过关键词查询到相关文档信息,并处理后返回
  • Web模块:实现一个简单的Web程序,能通过网页的形式和用户交互

2. 索引模块实现

创建一个Spring项目

2.1 实现Parser类 

实现一个Parser类用于扫描并解析本地的离线文档:

package org.example.docsearcher.config;@Configuration
public class Parser {//指定文档文件的路径private static final String FILE_PATH = "D:/桌面/jdk-17.0.11_doc-all/docs/api";//解析文档private void parser() {//1.找出所有html文件List<File> fileList = new ArrayList<>();enumFile(FILE_PATH, fileList);//2.对每个HTML文件进行解析for(File f : fileList) {parserHTML(f);}}//枚举出所有的html文件private void enumFile(String filePath, List<File> fileList) {}//解析出html文件的内容private void parserHTML(File file) {}
}

实现enumFile方法:

    private void enumFile(String filePath, List<File> fileList) {File file = new File(filePath);//获取目录下的文件列表File[] files = file.listFiles();for(File f : files) {if(f.isDirectory()) {//如果f是目录则递归添加文件enumFile(f.getAbsolutePath(), fileList);}else if(f.getName().endsWith(".html")){//如果f是html文件则添加到fileList中fileList.add(f);}}}

实现parserHTML方法:

要实现parserHTML方法我们要先理清楚,html文件中有什么和我们需要什么:

  • 标题:返回查询结果时,可以展示给用户以供选择
  • 正文:用于提取关键词构建倒排索引
  • url:用户点击时通过url跳转到对应页面
    private void parserHTML(File file) {//a.解析出标题String title = parserTitle(file);//b.解析出urlString url = parserUrl(file);//c.解析出正文String content = parserContent(file);}private String parserContent(File file) {StringBuilder content = new StringBuilder();//按字节读,这里使用BufferedReader 提高速度try(BufferedReader bufferedReader = new BufferedReader(new FileReader(file), 1024 * 1024)) {while(true) {int ch = bufferedReader.read();if(ch == -1) {//文件读完了break;}content.append((char)ch);}} catch (IOException e) {throw new RuntimeException(e);}String ret = content.toString();//使用正则表达式替换掉js代码ret = ret.replaceAll("<script.*?>.*?</script>", "");//使用正则表达式替换html标签ret = ret.replaceAll("<.*?>", "");//把换行符和连续的多个空格替换为一个空格使内容更美观ret = ret.replaceAll("\\s+", " ");}private String parserUrl(File file) {//拼接出在线文档对应的urlString s1 = "https://docs.oracle.com/en/java/javase/17/docs/api";String s2 = file.getAbsolutePath().substring(FILE_PATH.length()).replace("\\", "/");return s1 + s2;}private String parserTitle(File file) {String fileName = file.getName();return fileName.substring(0, fileName.length() - ".html".length());}

 注意:FileReader的read方法是每次从磁盘里读取一个字符到内存中,BuferedReader 内部带有一个缓存区,会一次把多个字符加载到缓存区中,调用read方法时会从缓存区中读取字符,减少直接访问磁盘的次数提高了速度,构造方法中的第二个参数就是设置缓冲区的大小,单位是字节

2.2 实现Index类

实现Index类用于创建索引和通过关键词和索引查询相关文档:

前排索引由文档id和文档组成,要求能够通过文档id快速查询到文档,索引我们可以使用一个List来储存前排索引,即通过数组下标当作文档id,数组的内容即为文档的信息,于是我们创建一个DocInfo类用于存储文档信息:

package org.example.docsearcher.model;import lombok.Data;@Data
public class DocInfo {//储存一个文档的相关信息private int docId;private String title;private String url;private String content;public DocInfo() {}public DocInfo(String title, String url, String content) {this.title = title;this.url = url;this.content = content;}
}

于是前排索引的形式就是:

List<DocInfo> forwardIndex;

后排索引要求由关键词查询到文档id,索引我们可以使用哈希表来关联关键词和文档id:

Map<String, List<Integer>> invertedIndex;

 但是只存储一个文档id无法表示不同文档和某一个关键词的相关程度,于是这里我们可以实现一个Relate类,用于存储一个关键词和一个文档直接的关联程度:

package org.example.docsearcher.model;import lombok.Data;@Data
public class Relate {//存储某个关键词和文档的相关程度//关键词private String key;//文档idprivate int docId;//权重,该值越大说明相关性越高private int weight;public Relate() {}public Relate(String key, int docId, int weight) {this.key = key;this.docId = docId;this.weight = weight;}
}

这里的权重我们可以以该关键词在该文档中出现的次数来表示 

于是最后的后排索引的形式是:

Map<String, List<Relate>> invertedIndex;

Index实现: 

package org.example.docsearcher.config;@Configuration
public class Index {//前排索引public static List<DocInfo> forwardIndex = new ArrayList<>();//后排索引public static Map<String, List<Relate>> invertedIndex = new HashMap<>();//通过docId,在正排索引中查询文档信息public DocInfo getDocInfoById(int docId) {return forwardIndex.get(docId);}//通过一个关键词在倒排索引中查看相关文档public List<Relate> getDocInfoByKey(String key) {return invertedIndex.get(key);}//在索引中新增一个文档public void addDoc(String title, String url, String content) {//增加前排索引DocInfo docInfo = addForward(title, url, content);//增加后排索引addInverted(docInfo);}private DocInfo addForward(String title, String url, String content) {}private void addInverted(DocInfo docInfo) {}
}

 实现addForward:

    private DocInfo addForward(String title, String url, String content) {DocInfo docInfo = new DocInfo(title, url, content);docInfo.setDocId(forwardIndex.size());forwardIndex.add(docInfo);return docInfo;}

实现addInverted:

实现该方法我们需要找出该文档中的所有词,并统计每个词出现的次数,我们可以使用 ansj 库来实现分词操作:

在pom文件中添加对应依赖:

        <dependency><groupId>org.ansj</groupId><artifactId>ansj_seg</artifactId><version>5.1.6</version></dependency>
    private void addInverted(DocInfo docInfo) {//通过分词统计每个词在文章中出现的次数来作为相关性权重Map<String, Integer> countMap = new HashMap<>();//统计标题中的词 权重为10String title = docInfo.getTitle();//分词,Term是ansj中的库,用于储存一个词的信息//parse()方法用于分词,getTerms把parse的返回结果转为一个List<Term>List<Term> terms = ToAnalysis.parse(title).getTerms();for(Term term : terms) {String key = term.getName();int count = countMap.getOrDefault(key, 0) + 10;countMap.put(key, count);}//统计正文中的词 权重为1String content = docInfo.getContent();terms = ToAnalysis.parse(content).getTerms();for(Term term : terms) {String key = term.getName();int count = countMap.getOrDefault(key, 0) + 1;countMap.put(key, count);}//添加到invertedIndexfor(Map.Entry<String, Integer> entry : countMap.entrySet()) {String key = entry.getKey();int weight = entry.getValue();List<Relate> relates = invertedIndex.get(key);Relate relate = new Relate(key, docInfo.getDocId(), weight);if(relates == null) {relates = new ArrayList<>();relates.add(relate);invertedIndex.put(key, relates);}else {relates.add(relate);}}}

由于制作索引的速度是非常慢的,所有我们可以把制作好的索引存储在磁盘里,使用时再从磁盘加载到内存中,避免每次使用都要制作索引:

在Index类中增加一个存储索引的文件夹路径的常量:SAVE_PATH

实现save 和 load 方法用于保存和加载索引:

由于我们的索引是以对象的形式存在的,所以我们先需要把对象序列化再存入磁盘中,我们可以使用jackson库来完成这个操作

        <dependency><groupId>com.fasterxml.jackson.core</groupId><artifactId>jackson-databind</artifactId><version>2.17.0</version></dependency>
public void save() {//jacksonObjectMapper mapper = new ObjectMapper();File file = new File(SAVE_PATH);//判断目录是否存在,不存在则创建目录if(!file.exists()) {file.mkdirs();}//使用两个文件分别保存正排索引和倒排索引File forward = new File(SAVE_PATH + "forward.txt");File inverted = new File(SAVE_PATH + "inverted.txt");try {//写入到文件mapper.writeValue(forward, forwardIndex);mapper.writeValue(inverted, invertedIndex);} catch (IOException e) {throw new RuntimeException(e);}}public void load() {ObjectMapper mapper = new ObjectMapper();File forward = new File(SAVE_PATH + "forward.txt");File inverted = new File(SAVE_PATH + "inverted.txt");try {//加载到内存forwardIndex = mapper.readValue(forward, new TypeReference<List<DocInfo>>() {});invertedIndex = mapper.readValue(inverted, new TypeReference<Map<String, List<Relate>>>() {});} catch (IOException e) {throw new RuntimeException(e);}}

2.3 联系Parser和Index

 在上面的代码中,Parser类主要负责解析html文件,Index负责通过解析出的信息来生成索引,所以需要把Parser类解析出来的信息传给Index生成索引,我们可以在parserHTML()方法的最后调用Index类的addDoc()方法,让文件一解析就传给addDoc()开始添加索引,我们给Parser类添加一个Index类的成员变量,通过这个对象来调用addDoc()方法:

 parserHTML()方法:

    private void parserHTML(File file) {//a.解析出标题String title = parserTitle(file);//b.解析出urlString url = parserUrl(file);//c.解析出正文String content = parserContent(file);//d.添加索引index.addDoc(title, url, content);}

到现在我们的索引模块的功能就已经实现了,调用Parser类的parser方法即可开始解析文件并制作索引。

2.4 速度优化

当我们完成这部分代码,开始制作索引时,发现制作索引的速度是非常慢的,我们添加一些代码统计制作索引的过程消耗的时间:

可以看到,我们制作索引的时间大概消耗了15秒,这只是相对于Java文档来说,要是是更大的文档时间会更长,要想提高速度,我们要先找到代码的那一步影响的速度,显而易见,解析和田间索引消耗的时间最多即parser()方法包含的代码,我们可以考虑优化这部分代码,该部分的代码主要包含三个操作:

  • 解析文件
  • 生成正排索引
  • 生成到排索引 

要优化这部分操作的速度我们可以考虑使用多线程,使用多个线程来并发完成这个操作:

实现一个parserByThread()方法使用多线程完成索引制作:

    private void parserByThread() throws InterruptedException {//1.找出所有html文件List<File> fileList = new ArrayList<>();enumFile(FILE_PATH, fileList);//2.使用线程词并发对每个HTML文件进行解析并制作索引CountDownLatch countDownLatch = new CountDownLatch(fileList.size());ExecutorService executorService = Executors.newFixedThreadPool(4);for(File f : fileList) {executorService.submit(new Runnable() {@Overridepublic void run() {System.out.println("开始解析:" + f.getAbsolutePath());parserHTML(f);countDownLatch.countDown();}});}//等待所有任务执行完成countDownLatch.await();//3.把索引文件保存到磁盘index.save();}

上面代码中我们使用了线程池,用4个线程来完成解析和制作索引的工作,使用CountDownLatch类来保证所有任务执行完再开始执行save方法,CountDownLatch构造方法传入的参数是执行任务的个数,每个任务执行完后需调用countDown方法,执行到await方法时如果调用countDown方法的次数小于实例CountDownLatch时传入的参数就会阻塞等待,直到调用countDown方法次数等于传入参数。

接下来我们还需要考虑线程安全问题,当多个线程操作同一块内存时就会出现线程安全问题 :

在我们的代码中有添加索引时存在这种情况,也就是addForward方法和addInverted方法,我们需要给访问内存的代码加锁来保证线程安全问题:

    private DocInfo addForward(String title, String url, String content) {DocInfo docInfo = new DocInfo(title, url, content);synchronized (locker1) {docInfo.setDocId(forwardIndex.size());forwardIndex.add(docInfo);}return docInfo;}
    private void addInverted(DocInfo docInfo) {//通过分词统计每个词在文章中出现的次数来作为相关性权重Map<String, Integer> countMap = new HashMap<>();//统计标题中的词 权重为10String title = docInfo.getTitle();List<Term> terms = ToAnalysis.parse(title).getTerms();for(Term term : terms) {String key = term.getName();int count = countMap.getOrDefault(key, 0) + 10;countMap.put(key, count);}//统计正文中的词 权重为1String content = docInfo.getContent();terms = ToAnalysis.parse(content).getTerms();for(Term term : terms) {String key = term.getName();int count = countMap.getOrDefault(key, 0) + 1;countMap.put(key, count);}//添加到invertedIndexfor(Map.Entry<String, Integer> entry : countMap.entrySet()) {String key = entry.getKey();int weight = entry.getValue();synchronized (locker2) {List<Relate> relates = invertedIndex.get(key);Relate relate = new Relate(key, docInfo.getDocId(), weight);if(relates == null) {relates = new ArrayList<>();relates.add(relate);invertedIndex.put(key, relates);}else {relates.add(relate);}}}}

注意两个方法操作的内存不是同一块,所有可以使用不同的的对象来加锁。

运行代码:

可以看到速度的提升非常明显 ,不过这里我们发现当索引制作完成我们的代码还没有提示运行结束,这是因为,我们通过线程池创建的线程模式是非守护线程,非守护线程会阻止进程的结束,我们可以在任务执行完时调用ExecutorService类的shutdown()方法来销毁线程,从而让进程顺利结束:

3. 搜索模块实现

搜索模块的功能是调用索引模块的代码,通过用户输入的关键词查询到相关文档信息,处理后返回

查询操作只需要调用索引模块的方法,这里我们重点关注如何处理查询到的信息。

首先我们先思考,需要返回什么信息,首先能想到的有文档标题,和文档描述(这两项需要展示给用户),所以需要在返回结果中包含这两项信息,其次,用户如果想要查看文档的具体信息,那么需要url来跳转到在线文档界面,所以还需要url,最后,如果我们是用户,我们肯定希望能更快的找到想要查询的文档,所以我们还可以对查询结果按和关键词的相关性做一个降序排序。

定义一个Result类用于充当返回结果的类型:

package org.example.docsearcher.model;import lombok.Data;@Data
public class Result {private String title;private String url;//描述private String desc;
}

定义DocSearcher类完成搜索模块的主要功能:

import org.ansj.domain.Term;
import org.ansj.splitWord.analysis.ToAnalysis;import java.util.ArrayList;
import java.util.Comparator;
import java.util.List;
import java.util.Locale;@Configuration
public class DocSearcher {//用于调用索引模块接口private Index index = new Index();public List<Result> search(String query) {//1.对用户输入结果进行分词//2.通过用户输入的关键词在倒排索引中查询相关文档//3.对查询到的结果按相关性降序排序//4.通过正排索引查询文档相关信息并做返回处理}}

这里对用户输入结果处理时还需要考虑一个问题:用户输入的词一定都是关键词吗?显然不是,例如用户输入:What is HashMap? ,显然里面的what 和 is 都不是关键词,并且这样的词在文档里会出现很多,就可能会导致用户想要看到的结果被挤到下方去了,这样的词称为暂停词,我们在对用户输入进行分词时要去掉暂停词,我们可以在网络上下载一个现成的暂停词表,运行程序时把它加载到内存中,用一个Set存储,用于排除分词结果中的暂停词。

这里我放在一个txt文件中。 

@Configuration
public class DocSearcher {public Index index = new Index();private static final String STOP_WORD_PATH = "D:/桌面/stopWords.txt";private Set<String> stopWords = new HashSet<>();public DocSearcher() {//加载索引index.load();//加载停用词loadStopWord();}public List<Result> search(String query) {//1.对用户输入结果进行分词List<Term> terms = ToAnalysis.parse(query).getTerms();//2.通过用户输入的关键词在倒排索引中查询相关文档List<Relate> allDocs = new ArrayList<>();for(Term term : terms) {String key = term.getName();//判断是否是暂停词,或者空格if(!stopWords.contains(key) && !key.equals(" ")) {List<Relate> docs = index.getInverted(key);//判断是否有相关文章if(docs == null) {continue;}//添加到查询结果allDocs.addAll(docs);}}//3.对查询到的结果按相关性降序排序allDocs.sort(new Comparator<Relate>() {@Overridepublic int compare(Relate o1, Relate o2) {return o2.getWeight() - o1.getWeight();}});//4.通过正排索引查询文档相关信息并做返回处理List<Result> results = new ArrayList<>();for(Relate relate : allDocs) {DocInfo docInfo = index.getForward(relate.getDocId());Result result = new Result();result.setTitle(docInfo.getTitle());result.setUrl(docInfo.getUrl());result.setDesc(genDesc(relate.getKey(), docInfo.getContent()));results.add(result);}return results;}private void loadStopWord() {try(BufferedReader bufferedReader = new BufferedReader(new FileReader(STOP_WORD_PATH))) {while(true) {String line = bufferedReader.readLine();if(line == null) {//读取完毕break;}stopWords.add(line);}} catch (IOException e) {throw new RuntimeException(e);}}private String genDesc(String key, String content) {//通过关键词和正文生成摘要//在正文中查找第一次出现关键词的位置,使用正则表达式确保找到的的是单独的一个单词//注意ansj分词结果会转为小写,所以需要把content也转为小写再匹配content = content.toLowerCase().replaceAll("\\b" + key + "\\b", " " + key + " ");int firstPos = content.indexOf(" " + key + " ");//取该位置前后各150个字符作为摘要int begPos = Math.max(firstPos - 150, 0);int endPos = Math.min(firstPos + 150, content.length());String desc = content.substring(begPos, endPos) + "...";//给关键词加上<i>标签,(?i)表示不区分大小写替换desc = desc.replaceAll("(?i)" + " " + key + " ", " <i>" + key + "</i> ");return desc;}}

4. Web模块实现

基本的功能已经实现,现在只需提供一个接口供用户访问即可

package org.example.docsearcher.controller;import org.example.docsearcher.model.Result;
import org.example.docsearcher.service.SearcherService;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;import java.util.List;@RestController
@RequestMapping("/searcher")
public class SearcherController {@AutowiredSearcherService service;@RequestMapping("/getInfo")public List<Result> getInfo(String query) {return service.getInfo(query);}
}
package org.example.docsearcher.service;import org.example.docsearcher.config.DocSearcher;
import org.example.docsearcher.model.Result;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Service;import java.util.List;@Service
public class SearcherService {@AutowiredDocSearcher searcher;public List<Result> getInfo(String query) {return searcher.search(query);}
}

5. 前端页面实现

现在后端代码已经全部完成,接下来实现一个简单的页面调用后端的接口即可:

<!DOCTYPE html>
<html lang="en">
<head><meta charset="UTF-8"><meta name="viewport" content="width=device-width, initial-scale=1.0"><title>Java文档搜索</title><style>* {margin: 0;padding: 0;box-sizing: border-box;}html, body {height: 100%;background-image: url(image/image.png);background-repeat: no-repeat;background-position: center center;background-size: cover;}.container {width: 70%;height: 100%;margin: 0 auto;background-color: rgba(255, 255, 255, 0.8);border-radius: 20px;padding: 20px;overflow: auto;}.header {display: flex;align-items: center;padding: 30px;background-color: #f8f9fa;border-radius: 8px;box-shadow: 0 0 10px rgba(0, 0, 0, 0.1);}#search-input {width: 90%;padding: 12px;font-size: 16px;border: 2px solid #dee2e6;border-radius: 5px;transition: border-color 0.3s ease;}#search-input:focus {border-color: #495057;outline: none;}#search-btn {margin-left: 5px;padding: 12px 20px;background-color: #007bff;color: white;border: none;border-radius: 5px;cursor: pointer;}#search-btn:active {background-color: #007bbf;}.item {width: 100%;margin-top: 20px;}.item a{display: block;height: 40px;font-size: 22px;line-height: 40px;font-weight: 700px;color: #007bff;}.item desc{font-size: 18px;}.item .url {font-size: 18px;color: rgb(0, 200, 0);}</style>
</head>
<body><!-- 整个页面元素的容器 --><div class="container"><!-- 搜索框和搜索按钮 --><div class="header"><input type="text" id="search-input" placeholder="请输入搜索内容..."><button id="search-btn" onclick="getInfo()">搜索</button></div><!-- 搜索结果 --><div class="result"><!-- <div class="item"><a href="#">我是标题</a><div class="desc">我是描述</div><div class="url">www.baidu.com</div></div> --></div></div><script src="js/jquery.min.js"></script><script><-- 点击搜索按钮后调用该方法 -->function getInfo() {$(".result").empty();var query = $("#search-input").val();$.ajax({url: "/searcher/getInfo?query=" + query,type: "get",success: function(results) {var html = "";for(var result of results) {html += '<div class="item"><a href="'+result.url+'" target="_blank">'+result.title+'</a>';html += '<div class="desc">'+result.desc+'</div>';html += '<div class="url">'+result.url+'</div></div>';}$(".result").html(html);}}); }</script>
</body></html>

启动服务器在前端界面搜索:

可以看到成功的弹出了搜索结果。这里我们还可以做一个优化,当我们使用浏览器搜索某个关键词时,浏览器的搜索结果中会把我们所输入的关键词标红:

我们也可以实现一个同样的功能。

这里我们通过前后端配合的方式实现,在后端生成每个搜索结果的描述的时候,我们给描述中的关键词都加上一个<i>标签,再通过前端设置样式来调整字体颜色:

修改 genDesc方法:

    private String genDesc(List<Term> terms, String key, String content) {//通过关键词和正文生成摘要//在正文中查找第一次出现关键词的位置,使用正则表达式确保找到的的是单独的一个单词//注意ansj分词结果会转为小写,所以需要把content也转为小写再匹配content = content.toLowerCase().replaceAll("\\b" + key + "\\b", " " + key + " ");int firstPos = content.indexOf(" " + key + " ");//取该位置前后各150个字符作为摘要int begPos = Math.max(firstPos - 150, 0);int endPos = Math.min(firstPos + 150, content.length());String desc = content.substring(begPos, endPos) + "...";//给关键词加上<i>标签,(?i)表示不区分大小写替换for(Term term : terms) {String word = term.getName();desc = desc.replaceAll("(?i)" + " " + word + " ", " <i>" + word + "</i> ");}return desc;}

在前端的代码中添加对<i>标签的样式:

        .item .desc i {color: red;font-style: normal;}

重新启动程序:

可以看到关键词成功被标红 , 这里我们还可以在前端代码中添加一个显示搜索结果数量的功能:

 

6. 部署程序

到此位置我们 api文件搜索引擎的所有功能都实现了,接下来就可以部署到云服务器上,在此之前我们需要把在本地制作好的索引文件和暂停词文件拷贝到云服务器上:

 

然后把代码中的路径改为云服务器中对应的路径:

 

打包程序:

 

双击package:

把生成的jar包拷贝到云服务器上,输入指令:

nohup java -jar jar包名称.jar &

即部署完毕 

接下来就可以支持用户使用公网id访问 我们的程序。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/26742.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Java——IO流(一)-(4/8):前置知识-字符集、UTF-8、GBK、ASCII、乱码问题、编码和解码等

目录 常见字符集介绍 标准ASCII字符集 GBK&#xff08;汉字内码扩展规范&#xff0c;国标&#xff09; Unicode字符集&#xff08;统一码&#xff0c;万国码&#xff09; 小结 字符集的编码、解码操作 方法 实例演示 常见字符集介绍 标准ASCII字符集 ASCll(American St…

Sklearn中逻辑回归建模

分类模型的评估 回归模型的评估方法&#xff0c;主要有均方误差MSE&#xff0c;R方得分等指标&#xff0c;在分类模型中&#xff0c;我们主要应用的是准确率这个评估指标&#xff0c;除此之外&#xff0c;常用的二分类模型的模型评估指标还有召回率&#xff08;Recall&#xff…

Golang | Leetcode Golang题解之第150题逆波兰表达式求值

题目&#xff1a; 题解&#xff1a; func evalRPN(tokens []string) int {stack : make([]int, (len(tokens)1)/2)index : -1for _, token : range tokens {val, err : strconv.Atoi(token)if err nil {indexstack[index] val} else {index--switch token {case ""…

WPF学习(3)--不同类通过接口实现同种方法

一、接口概述 1.接口的概念 在C#中&#xff0c;接口&#xff08;interface&#xff09;是一种引用类型&#xff0c;它定义了一组方法、属性、事件或索引器&#xff0c;但不提供实现。接口只定义成员的签名&#xff0c;而具体的实现由实现接口的类或结构体提供。接口使用关键字…

【车载音视频电脑】嵌入式AI分析车载DVR,支持8路1080P

产品特点 采用H.265 & H.264编解码&#xff0c;节约存储空间、传输流量&#xff1b; 高分辨率&#xff1a;支持8路1080P*15FPS/4路1080P*30FPS、720P、D1等编解码&#xff1b; 支持1张SATA硬盘&#xff0c;取用方便&#xff0c;满足大容量存储要求&#xff1b; 支持1个…

ChatGPT中文镜像网站分享

ChatGPT 是什么&#xff1f; ChatGPT 是 OpenAI 开发的一款基于生成预训练变换器&#xff08;GPT&#xff09;架构的大型语言模型。主要通过机器学习生成文本&#xff0c;能够执行包括问答、文章撰写、翻译等多种文本生成任务。截至 2023 年初&#xff0c;ChatGPT 的月活跃用户…

12.实战私有数据微调ChatGLM3

实战私有数据微调ChatGLM3 实战私有数据微调ChatGLM3实战构造私有的微调数据集基于 ChatGPT 设计生成训练数据的 Prompt使用 LangChain GPT-3.5-Turbo 生成训练数据样例训练数据解析、数据增强和持久化存储自动化批量生成训练数据集流水线提示工程&#xff08;Prompt Engineer…

OpenCV读取图片

import cv2 as cv # 读取图像 image cv.imread(F:\\mytupian\\xihuduanqiao.jpg) # 创建窗口 cv.namedWindow(image, cv.WINDOW_NORMAL) #显示图像后&#xff0c;允许用户随意调整窗口大小 # 显示图像 cv.imshow(image, image) cv.waitKey(0)import cv2 as cv srccv.imread(…

Java常用的设计模式,如单例模式、工厂模式、观察者模式等

设计模式是软件工程中的一种解决方案&#xff0c;用于应对常见的设计问题和挑战。它们提供了一种标准化的方式来解决设计难题&#xff0c;使代码更加灵活、可扩展和易于维护。 单例模式&#xff08;Singleton Pattern&#xff09; 概述 单例模式确保一个类只有一个实例&…

Java——LinkedList

1、链表 1.1 链表的概念及结构 链表在逻辑层面上是连续的&#xff0c;在物理层面上不一定是连续的 链表结构可分为&#xff0c;单向或双向、带头或不带头、循环或非循环&#xff0c;组合共计8种 重点&#xff1a;无头单向非循环链表、无头双向链表 1.2 模拟实现无头单向非…

拥抱开源,构建未来:王嘉树与 TDengine 的开源之旅

在当代的技术浪潮中&#xff0c;开源文化不仅催生了无数创新技术&#xff0c;也为广大技术爱好者提供了一个展示才华、相互学习的平台。我们今天采访到的这位北京邮电大学电子工程学院的研究生&#xff0c;就是在这样的背景下&#xff0c;通过开源活动不断探索、学习并实现自我…

数据分析常用6种分析思路(下)

作为一名数据分析师&#xff0c;你又没有发现&#xff0c;自己经常碰到一些棘手的问题就没有思路&#xff0c;甚至怀疑自己究竟有没有好好学过分析&#xff1f; 在上篇文章里&#xff0c;我们讲到了数据分析中的流程、分类、对比三大块&#xff0c;今天&#xff0c;我们继续讲…

【ElasticSearch】windows server 2019安装ES8.9.1 + kibana8.9.1 + IK分词器

目录 准备工作 ES Kibana IK 安装 es es访问测试 将es安装为系统服务 Kibana 配置es 运行kibana 访问测试 IK 补充 准备工作 ES8.9.1 kibana8.9.1 IK的版本最好要对应上&#xff01;&#xff01;&#xff01; ES es8.9.1&#xff1a; https://artifa…

笔记 | 用go写个docker

仅作为自己学习过程的记录&#xff0c;不具备参考价值 前言 看到一段非常有意思的话&#xff1a; 很多人刚接触docker的时候就会感觉非常神奇&#xff0c;感觉这个技术非常新颖&#xff0c;其实并不然&#xff0c;docker使用到的技术都是之前已经存在过的&#xff0c;只不过旧…

操作系统——信号

将信号分为以上四个阶段 1.信号注册&#xff1a;是针对信号处理方式的规定&#xff0c;进程收到信号时有三种处理方式&#xff1a;默认动作&#xff0c;忽略&#xff0c;自定义动作。如果不是自定义动作&#xff0c;这一步可以忽略。这个步骤要使用到signal/sigaction接口 2.…

5. 条件和递归

5. 条件和递归 本章主要话题是if表达式, 它根据程序的状态执行不同的代码. 但首先介绍两个操作符号: 向下取整除法操作符和求模操作符.5.1 向下取整除法操作符和求模操作符 向下取整除法操作符(//)对两个数除法运算, 并向下取整得到一个整数. 假设, 一个电影的播放时长为105分…

Java | Leetcode Java题解之第150题逆波兰表达式求值

题目&#xff1a; 题解&#xff1a; class Solution {public int evalRPN(String[] tokens) {int n tokens.length;int[] stack new int[(n 1) / 2];int index -1;for (int i 0; i < n; i) {String token tokens[i];switch (token) {case "":index--;stack…

vi/vim使用命令

你是否在编辑文件时以为键盘坏了&#xff0c;为什么不能删除呢&#xff0c;为什么不能敲代码呢&#xff0c;等你初识vi&#xff0c;会觉得这个东西为什么设计得这么难用&#xff0c;这篇教程带你熟练得用上这款经典的工具 Vi 是在 Unix 系统上广泛使用的编辑器&#xff0c;Vim …

Unity与Js通信交互

目录 1.Js给Unity传递消息 2.Unity给Js传递消息 简介: Unity 与 JavaScript 通信交互是指在 Unity 项目中实现与 JavaScript 代码进行数据交换和功能调用的过程。 在 Unity 中&#xff0c;可以通过特定的接口和技术来与外部的 JavaScript 环境进行连接。这使得 Unity 能够利…

进击算法工程师深度学习课程

"进击算法工程师深度学习课程"旨在培养学员在深度学习领域的专业技能和实战经验。课程涵盖深度学习基础理论、神经网络架构、模型优化方法等内容&#xff0c;通过项目实践和算法实现&#xff0c;帮助学员掌握深度学习算法原理和应用&#xff0c;提升在算法工程师领域…