当前位置: 首页 > news >正文

网站开发产品设计书wordpress是啥

网站开发产品设计书,wordpress是啥,温州网站建设方案外包,收录网址教程Elastic Stack简介 如果你没有听说过Elastic Stack#xff0c;那你一定听说过ELK#xff0c;实际上ELK是三款软件的简称#xff0c;分别是Elasticsearch、 Logstash、Kibana组成#xff0c;在发展的过程中#xff0c;又有新成员Beats的加入#xff0c;所以就形成了Elast…Elastic Stack简介 如果你没有听说过Elastic Stack那你一定听说过ELK实际上ELK是三款软件的简称分别是Elasticsearch、 Logstash、Kibana组成在发展的过程中又有新成员Beats的加入所以就形成了Elastic Stack。所以说ELK是旧的称呼Elastic Stack是新的名字。 全系的Elastic Stack技术栈包括 Elasticsearch Elasticsearch 基于java是个开源分布式搜索引擎它的特点有分布式零配置自动发现索引自动分片索引副本机制restful风格接口多数据源自动搜索负载等。 Logstash Logstash 基于java是一个开源的用于收集,分析和存储日志的工具。 Kibana Kibana 基于nodejs也是一个开源和免费的工具Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的Web 界面可以汇总、分析和搜索重要数据日志。 Beats Beats是elastic公司开源的一款采集系统监控数据的代理agent是在被监控服务器上以客户端形式运行的数据收集器的统称可以直接把数据发送给Elasticsearch或者通过Logstash发送给Elasticsearch然后进行后续的数据分析活动。Beats由如下组成: Packetbeat是一个网络数据包分析器用于监控、收集网络流量信息Packetbeat嗅探服务器之间的流量解析应用层协议并关联到消息的处理其支 持ICMP (v4 and v6)、DNS、HTTP、Mysql、PostgreSQL、Redis、MongoDB、Memcache等协议Filebeat用于监控、收集服务器日志文件其已取代 logstash forwarderMetricbeat可定期获取外部系统的监控指标信息其可以监控、收集 Apache、HAProxy、MongoDB MySQL、Nginx、PostgreSQL、Redis、System、Zookeeper等服务 Beats和Logstash其实都可以进行数据的采集但是目前主流的是使用Beats进行数据采集然后使用 Logstash进行数据的分割处理等早期没有Beats的时候使用的就是Logstash进行数据的采集。 ElasticSearch快速入门 简介 官网https://www.elastic.co/ ElasticSearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎基于RESTful web接口。Elasticsearch是用Java开发的并作为Apache许可条款下的开放源码发布是当前流行的企业级搜索引擎。设计用于云计算中能够达到实时搜索稳定可靠快速安装使用方便。 我们建立一个网站或应用程序并要添加搜索功能但是想要完成搜索工作的创建是非常困难的。我们希望搜索解决方案要运行速度快我们希望能有一个零配置和一个完全免费的搜索模式我们希望能够简单地使用JSON通过HTTP来索引数据我们希望我们的搜索服务器始终可用我们希望能够从一台开始并扩展到数百台我们要实时搜索我们要简单的多租户我们希望建立一个云的解决方案。因此我们利用Elasticsearch来解决所有这些问题及可能出现的更多其它问题。 ElasticSearch是Elastic Stack的核心同时Elasticsearch 是一个分布式、RESTful风格的搜索和数据分析引擎能够解决不断涌现出的各种用例。作为Elastic Stack的核心它集中存储您的数据帮助您发现意料之中以及意料之外的情况。 前言 Elasticsearch的发展是非常快速的所以在ES5.0之前ELK的各个版本都不统一出现了版本号混乱的状态所以从5.0开始所有Elastic Stack中的项目全部统一版本号。目前最新版本是6.5.4我们将基于这一版本进行学习。 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ydFMcnus-1614908740678)(http://victorfengming.gitee.io/elk/1_ElasticSearch%E4%BB%8B%E7%BB%8D%E4%B8%8E%E5%AE%89%E8%A3%85/images/image-20200922093432839.png)] 下载 到官网下载https://www.elastic.co/cn/downloads/ 选择对应版本的数据这里我使用的是Linux来进行安装所以就先下载好ElasticSearch的Linux安装包 拉取Docker容器 因为我们需要部署在Linux下为了以后迁移ElasticStack环境方便我们就使用Docker来进行部署首先我们拉取一个带有ssh的centos docker镜像 # 拉取镜像 docker pull moxi/centos_ssh # 制作容器 docker run --privileged -d -it -h ElasticStack --name ElasticStack -p 11122:22 -p 9200:9200 -p 5601:5601 -p 9300:9300 -v /etc/localtime:/etc/localtime:ro moxi/centos_ssh /usr/sbin/init然后直接远程连接11122端口即可 单机版安装 因为ElasticSearch不支持Root用户直接操作因此我们需要创建一个elsearch用户 # 添加新用户 useradd elsearch# 创建一个soft目录存放下载的软件 mkdir /soft# 进入然后通过xftp工具将刚刚下载的文件拖动到该目录下 cd /soft# 解压缩 tar -zxvf elasticsearch-7.9.1-linux-x86_64.tar.gz#重命名 mv elasticsearch-7.9.1/ elsearch因为刚刚我们是使用root用户操作的所以我们还需要更改一下/soft文件夹的所属改为elsearch用户 chown elsearch:elsearch /soft/ -R然后在切换成elsearch用户进行操作 # 切换用户 su - elsearch然后我们就可以对我们的配置文件进行修改了 # 进入到 elsearch下的config目录 cd /soft/elsearch/config然后找到下面的配置 #打开配置文件 vim elasticsearch.yml #设置ip地址任意网络均可访问 network.host: 0.0.0.0在Elasticsearch中如果network.host不是localhost或者127.0.0.1的话就会认为是生产环境会对环境的要求比较高我们的测试环境不一定能够满足一般情况下需要修改2处配置如下 # 修改jvm启动参数 vim conf/jvm.options#根据自己机器情况修改 -Xms128m -Xmx128m然后在修改第二处的配置这个配置要求我们到宿主机器上来进行配置 # 到宿主机上打开文件 vim /etc/sysctl.conf # 增加这样一条配置一个进程在VMAs(虚拟内存区域)创建内存映射最大数量 vm.max_map_count655360 # 让配置生效 sysctl -p启动ElasticSearch 首先我们需要切换到 elsearch用户 su - elsearch然后在到bin目录下执行下面 # 进入bin目录 cd /soft/elsearch/bin # 后台启动 ./elasticsearch -d启动成功后访问下面的URL http://202.193.56.222:9200/如果出现了下面的信息就表示已经成功启动了 如果你在启动的时候遇到过问题那么请参考下面的错误分析~ 错误分析 错误情况1 如果出现下面的错误信息 java.lang.RuntimeException: can not run elasticsearch as rootat org.elasticsearch.bootstrap.Bootstrap.initializeNatives(Bootstrap.java:111)at org.elasticsearch.bootstrap.Bootstrap.setup(Bootstrap.java:178)at org.elasticsearch.bootstrap.Bootstrap.init(Bootstrap.java:393)at org.elasticsearch.bootstrap.Elasticsearch.init(Elasticsearch.java:170)at org.elasticsearch.bootstrap.Elasticsearch.execute(Elasticsearch.java:161)at org.elasticsearch.cli.EnvironmentAwareCommand.execute(EnvironmentAwareCommand.java:86)at org.elasticsearch.cli.Command.mainWithoutErrorHandling(Command.java:127)at org.elasticsearch.cli.Command.main(Command.java:90)at org.elasticsearch.bootstrap.Elasticsearch.main(Elasticsearch.java:126)at org.elasticsearch.bootstrap.Elasticsearch.main(Elasticsearch.java:92) For complete error details, refer to the log at /soft/elsearch/logs/elasticsearch.log [roote588039bc613 bin]# 2020-09-22 02:59:39,537121 UTC [536] ERROR CLogger.cc310 Cannot log to named pipe /tmp/elasticsearch-5834501324803693929/controller_log_381 as it could not be opened for writing 2020-09-22 02:59:39,537263 UTC [536] INFO Main.cc103 Parent process died - ML controller exiting就说明你没有切换成 elsearch用户因为不能使用root操作es su - elsearch错误情况2 [1]:max file descriptors [4096] for elasticsearch process is too low, increase to at least[65536]解决方法切换到root用户编辑limits.conf添加如下内容 vi /etc/security/limits.conf# ElasticSearch添加如下内容: * soft nofile 65536 * hard nofile 131072 * soft nproc 2048 * hard nproc 4096错误情况3 [2]: max number of threads [1024] for user [elsearch] is too low, increase to at least [4096]也就是最大线程数设置的太低了需要改成4096 #解决切换到root用户进入limits.d目录下修改配置文件。 vi /etc/security/limits.d/90-nproc.conf #修改如下内容 * soft nproc 1024 #修改为 * soft nproc 4096错误情况4 [3]: system call filters failed to install; check the logs and fix your configuration or disable system call filters at your own risk解决Centos6不支持SecComp而ES5.2.0默认bootstrap.system_call_filter为true vim config/elasticsearch.yml # 添加 bootstrap.system_call_filter: false bootstrap.memory_lock: false错误情况5 [elsearche588039bc613 bin]$ Exception in thread main org.elasticsearch.bootstrap.BootstrapException: java.nio.file.AccessDeniedException: /soft/elsearch/config/elasticsearch.keystore Likely root cause: java.nio.file.AccessDeniedException: /soft/elsearch/config/elasticsearch.keystoreat java.base/sun.nio.fs.UnixException.translateToIOException(UnixException.java:90)at java.base/sun.nio.fs.UnixException.rethrowAsIOException(UnixException.java:111)at java.base/sun.nio.fs.UnixException.rethrowAsIOException(UnixException.java:116)at java.base/sun.nio.fs.UnixFileSystemProvider.newByteChannel(UnixFileSystemProvider.java:219)at java.base/java.nio.file.Files.newByteChannel(Files.java:375)at java.base/java.nio.file.Files.newByteChannel(Files.java:426)at org.apache.lucene.store.SimpleFSDirectory.openInput(SimpleFSDirectory.java:79)at org.elasticsearch.common.settings.KeyStoreWrapper.load(KeyStoreWrapper.java:220)at org.elasticsearch.bootstrap.Bootstrap.loadSecureSettings(Bootstrap.java:240)at org.elasticsearch.bootstrap.Bootstrap.init(Bootstrap.java:349)at org.elasticsearch.bootstrap.Elasticsearch.init(Elasticsearch.java:170)at org.elasticsearch.bootstrap.Elasticsearch.execute(Elasticsearch.java:161)at org.elasticsearch.cli.EnvironmentAwareCommand.execute(EnvironmentAwareCommand.java:86)at org.elasticsearch.cli.Command.mainWithoutErrorHandling(Command.java:127)at org.elasticsearch.cli.Command.main(Command.java:90)at org.elasticsearch.bootstrap.Elasticsearch.main(Elasticsearch.java:126)at org.elasticsearch.bootstrap.Elasticsearch.main(Elasticsearch.java:92)我们通过排查发现是因为 /soft/elsearch/config/elasticsearch.keystore 存在问题 也就是说该文件还是所属于root用户而我们使用elsearch用户无法操作所以需要把它变成elsearch chown elsearch:elsearch elasticsearch.keystore错误情况6 [1]: the default discovery settings are unsuitable for production use; at least one of [discovery.seed_hosts, discovery.seed_providers, cluster.initial_master_nodes] must be configured ERROR: Elasticsearch did not exit normally - check the logs at /soft/elsearch/logs/elasticsearch.log继续修改配置 elasticsearch.yaml # 取消注释并保留一个节点 node.name: node-1 cluster.initial_master_nodes: [node-1]ElasticSearchHead可视化工具 由于ES官方没有给ES提供可视化管理工具仅仅是提供了后台的服务elasticsearch-head是一个为ES开发的一个页面客户端工具其源码托管于Github地址为 传送门 head提供了以下安装方式 源码安装通过npm run start启动不推荐通过docker安装推荐通过chrome插件安装推荐通过ES的plugin方式安装不推荐 通过Docker方式安装 #拉取镜像 docker pull mobz/elasticsearch-head:5 #创建容器 docker create --name elasticsearch-head -p 9100:9100 mobz/elasticsearch-head:5 #启动容器 docker start elasticsearch-head通过浏览器进行访问 注意 由于前后端分离开发所以会存在跨域问题需要在服务端做CORS的配置如下 vim elasticsearch.ymlhttp.cors.enabled: true http.cors.allow-origin: *通过chrome插件的方式安装不存在该问题 通过Chrome插件安装 打开chrome的应用商店即可安装 https://chrome.google.com/webstore/detail/elasticsearch-head/ffmkiejjmecolpfloofpjologoblkegm 我们也可以新建索引 建议推荐使用chrome插件的方式安装如果网络环境不允许就采用其它方式安装。 ElasticSearch中的基本概念 索引 索引index是Elasticsearch对逻辑数据的逻辑存储所以它可以分为更小的部分。可以把索引看成关系型数据库的表索引的结构是为快速有效的全文索引准备的特别是它不存储原始值。Elasticsearch可以把索引存放在一台机器或者分散在多台服务器上每个索引有一或多个分片shard每个分片可以有多个副本replica。 文档 存储在Elasticsearch中的主要实体叫文档document。用关系型数据库来类比的话一个文档相当于数据库表中的一行记录。Elasticsearch和MongoDB中的文档类似都可以有不同的结构但Elasticsearch的文档中相同字段必须有相同类型。文档由多个字段组成每个字段可能多次出现在一个文档里这样的字段叫多值字段multivalued。 每个字段的类型可以是文本、数值、日期等。字段类型也可以是复杂类型一个字段包含其他子文档或者数 组。 映射 所有文档写进索引之前都会先进行分析如何将输入的文本分割为词条、哪些词条又会被过滤这种行为叫做 映射mapping。一般由用户自己定义规则。 文档类型 在Elasticsearch中一个索引对象可以存储很多不同用途的对象。例如一个博客应用程序可以保存文章和评 论。每个文档可以有不同的结构。不同的文档类型不能为相同的属性设置不同的类型。例如在同一索引中的所有文档类型中一个叫title的字段必须具有相同的类型。 RESTful API 在Elasticsearch中提供了功能丰富的RESTful API的操作包括基本的CRUD、创建索引、删除索引等操作。 创建非结构化索引 在Lucene中创建索引是需要定义字段名称以及字段的类型的在Elasticsearch中提供了非结构化的索引就是不需要创建索引结构即可写入数据到索引中实际上在Elasticsearch底层会进行结构化操作此操作对用户是透明的。 创建空索引 PUT /haoke {settings: {index: {number_of_shards: 2, #分片数number_of_replicas: 0 #副本数}} }删除索引 #删除索引 DELETE /haoke {acknowledged: true }插入数据 URL规则 POST /{索引}/{类型}/{id} POST /haoke/user/1001 #数据 { id:1001, name:张三, age:20, sex:男 }使用postman操作成功后 我们通过ElasticSearchHead进行数据预览就能够看到我们刚刚插入的数据了 说明非结构化的索引不需要事先创建直接插入数据默认创建索引。不指定id插入数据 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ivzt81zo-1614908740705)(http://victorfengming.gitee.io/elk/1_ElasticSearch%E4%BB%8B%E7%BB%8D%E4%B8%8E%E5%AE%89%E8%A3%85/images/image-20200922155935366.png)] 更新数据 在Elasticsearch中文档数据是不为修改的但是可以通过覆盖的方式进行更新。 PUT /haoke/user/1001 { id:1001, name:张三, age:21, sex:女 }更新结果如下 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-S0LhK1DA-1614908740708)(http://victorfengming.gitee.io/elk/1_ElasticSearch%E4%BB%8B%E7%BB%8D%E4%B8%8E%E5%AE%89%E8%A3%85/images/image-20200922160201130.png)] 可以看到数据已经被覆盖了。问题来了可以局部更新吗 – 可以的。前面不是说文档数据不能更新吗 其实是这样的在内部依然会查询到这个文档数据然后进行覆盖操作步骤如下 从旧文档中检索JSON修改它删除旧文档索引新文档 #注意这里多了_update标识 POST /haoke/user/1001/_update { doc:{ age:23 } }可以看到数据已经是局部更新了 删除索引 在Elasticsearch中删除文档数据只需要发起DELETE请求即可不用额外的参数 DELETE 1 /haoke/user/1001需要注意的是result表示已经删除version也增加了。 如果删除一条不存在的数据会响应404 删除一个文档也不会立即从磁盘上移除它只是被标记成已删除。Elasticsearch将会在你之后添加更多索引的时候才会在后台进行删除内容的清理。【相当于批量操作】 搜索数据 根据id搜索数据 GET /haoke/user/BbPe_WcB9cFOnF3uebvr #返回的数据如下 {_index: haoke,_type: user,_id: BbPe_WcB9cFOnF3uebvr,_version: 8,found: true,_source: { #原始数据在这里id: 1002,name: 李四,age: 40,sex: 男} }搜索全部数据 GET 1 /haoke/user/_search注意使用查询全部数据的时候默认只会返回10条 关键字搜索数据 #查询年龄等于20的用户 GET /haoke/user/_search?qage:20结果如下 DSL搜索 Elasticsearch提供丰富且灵活的查询语言叫做DSL查询(Query DSL),它允许你构建更加复杂、强大的查询。 DSL(Domain Specific Language特定领域语言)以JSON请求体的形式出现。 POST /haoke/user/_search #请求体 {query : {match : { #match只是查询的一种age : 20}} }实现查询年龄大于30岁的男性用户。 POST /haoke/user/_search #请求数据 {query: {bool: {filter: {range: {age: {gt: 30}}},must: {match: {sex: 男}}}} }查询出来的结果 全文搜索 POST /haoke/user/_search #请求数据 {query: {match: {name: 张三 李四}} }[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-LfZ724mz-1614908740730)(http://victorfengming.gitee.io/elk/1_ElasticSearch%E4%BB%8B%E7%BB%8D%E4%B8%8E%E5%AE%89%E8%A3%85/images/image-20200922163315285.png)] 高亮显示只需要在添加一个 highlight即可 POST /haoke/user/_search #请求数据 {query: {match: {name: 张三 李四}}highlight: {fields: {name: {}}} }聚合 在Elasticsearch中支持聚合操作类似SQL中的group by操作。 POST /haoke/user/_search {aggs: {all_interests: {terms: {field: age}}} }结果如下我们通过年龄进行聚合 从结果可以看出年龄30的有2条数据20的有一条40的一条。 ElasticSearch核心详解 文档 在Elasticsearch中文档以JSON格式进行存储可以是复杂的结构如 {_index: haoke,_type: user,_id: 1005,_version: 1,_score: 1,_source: {id: 1005,name: 孙七,age: 37,sex: 女,card: {card_number: 123456789}} }其中card是一个复杂对象嵌套的Card对象 元数据metadata 一个文档不只有数据。它还包含了元数据(metadata)——关于文档的信息。三个必须的元数据节点是 index 索引(index)类似于关系型数据库里的“数据库”——它是我们存储和索引关联数据的地方。 提示事实上我们的数据被存储和索引在分片(shards)中索引只是一个把一个或多个分片分组在一起的逻辑空间。然而这只是一些内部细节——我们的程序完全不用关心分片。对于我们的程序而言文档存储在索引(index)中。剩下的细节由Elasticsearch关心既可。 _type 在应用中我们使用对象表示一些“事物”例如一个用户、一篇博客、一个评论或者一封邮件。每个对象都属于一个类(class)这个类定义了属性或与对象关联的数据。user 类的对象可能包含姓名、性别、年龄和Email地址。 在关系型数据库中我们经常将相同类的对象存储在一个表里因为它们有着相同的结构。同理在Elasticsearch 中我们使用相同类型(type)的文档表示相同的“事物”因为他们的数据结构也是相同的。 每个类型(type)都有自己的映射(mapping)或者结构定义就像传统数据库表中的列一样。所有类型下的文档被存储在同一个索引下但是类型的映射(mapping)会告诉Elasticsearch不同的文档如何被索引。 _type 的名字可以是大写或小写不能包含下划线或逗号。我们将使用blog 做为类型名。 _id id仅仅是一个字符串它与_index 和_type 组合时就可以在Elasticsearch中唯一标识一个文档。当创建一个文 档你可以自定义_id 也可以让Elasticsearch帮你自动生成32位长度 查询响应 pretty 可以在查询url后面添加pretty参数使得返回的json更易查看。 指定响应字段 在响应的数据中如果我们不需要全部的字段可以指定某些需要的字段进行返回。通过添加 _source GET /haoke/user/1005?_sourceid,name #响应 {_index: haoke,_type: user,_id: 1005,_version: 1,found: true,_source: {name: 孙七,id: 1005} }如不需要返回元数据仅仅返回原始数据可以这样 GET /haoke/1 user/1005/_source还可以这样 GET /haoke/user/1005/_source?_1 sourceid,name判断文档是否存在 如果我们只需要判断文档是否存在而不是查询文档内容那么可以这样 HEAD /haoke/user/1005通过发送一个head请求来判断数据是否存在 HEAD 1 /haoke/user/1006当然这只表示你在查询的那一刻文档不存在但并不表示几毫秒后依旧不存在。另一个进程在这期间可能创建新文档。 批量操作 有些情况下可以通过批量操作以减少网络请求。如批量查询、批量插入数据。 批量查询 POST /haoke/user/_mget {ids : [ 1001, 1003 ] }结果 如果某一条数据不存在不影响整体响应需要通过found的值进行判断是否查询到数据。 POST /haoke/user/_mget {ids : [ 1001, 1006 ] }结果 也就是说一个数据的存在不会影响其它数据的返回 _bulk操作 在Elasticsearch中支持批量的插入、修改、删除操作都是通过_bulk的api完成的。 请求格式如下请求格式不同寻常 { action: { metadata }} { request body } { action: { metadata }} { request body } ...批量插入数据 {create:{_index:haoke,_type:user,_id:2001}} {id:2001,name:name1,age: 20,sex: 男} {create:{_index:haoke,_type:user,_id:2002}} {id:2002,name:name2,age: 20,sex: 男} {create:{_index:haoke,_type:user,_id:2003}} {id:2003,name:name3,age: 20,sex: 男}注意最后一行的回车。 批量删除 {delete:{_index:haoke,_type:user,_id:2001}} {delete:{_index:haoke,_type:user,_id:2002}} {delete:{_index:haoke,_type:user,_id:2003}}由于delete没有请求体所以action的下一行直接就是下一个action。 其他操作就类似了。一次请求多少性能最高 整个批量请求需要被加载到接受我们请求节点的内存里所以请求越大给其它请求可用的内存就越小。有一 个最佳的bulk请求大小。超过这个大小性能不再提升而且可能降低。最佳大小当然并不是一个固定的数字。它完全取决于你的硬件、你文档的大小和复杂度以及索引和搜索的负 载。幸运的是这个最佳点(sweetspot)还是容易找到的试着批量索引标准的文档随着大小的增长当性能开始 降低说明你每个批次的大小太大了。开始的数量可以在1000~5000个文档之间如果你的文档非常大可以使用较小的批次。通常着眼于你请求批次的物理大小是非常有用的。一千个1kB的文档和一千个1MB的文档大不相同。一个好的 批次最好保持在5-15MB大小间。 分页 和SQL使用LIMIT 关键字返回只有一页的结果一样Elasticsearch接受from 和size 参数 size: 结果数默认10from: 跳过开始的结果数默认0 如果你想每页显示5个结果页码从1到3那请求如下 GET /_search?size5 GET /_search?size5from5 GET /_search?size5from10应该当心分页太深或者一次请求太多的结果。结果在返回前会被排序。但是记住一个搜索请求常常涉及多个分 片。每个分片生成自己排好序的结果它们接着需要集中起来排序以确保整体排序正确。 GET /haoke/user/_1 search?size1from2在集群系统中深度分页 为了理解为什么深度分页是有问题的让我们假设在一个有5个主分片的索引中搜索。当我们请求结果的第一 页结果1到10时每个分片产生自己最顶端10个结果然后返回它们给请求节点(requesting node)它再 排序这所有的50个结果以选出顶端的10个结果。 现在假设我们请求第1000页——结果10001到10010。工作方式都相同不同的是每个分片都必须产生顶端的 10010个结果。然后请求节点排序这50050个结果并丢弃50040个 你可以看到在分布式系统中排序结果的花费随着分页的深入而成倍增长。这也是为什么网络搜索引擎中任何 语句不能返回多于1000个结果的原因。 映射 前面我们创建的索引以及插入数据都是由Elasticsearch进行自动判断类型有些时候我们是需要进行明确字段类型的否则自动判断的类型和实际需求是不相符的。 自动判断的规则如下 Elasticsearch中支持的类型如下 string类型在ElasticSearch 旧版本中使用较多从ElasticSearch 5.x开始不再支持string由text和 keyword类型替代。text 类型当一个字段是要被全文搜索的比如Email内容、产品描述应该使用text类型。设置text类型 以后字段内容会被分析在生成倒排索引以前字符串会被分析器分成一个一个词项。text类型的字段 不用于排序很少用于聚合。keyword类型适用于索引结构化的字段比如email地址、主机名、状态码和标签。如果字段需要进行过 滤(比如查找已发布博客中status属性为published的文章)、排序、聚合。keyword类型的字段只能通过精 确值搜索到。 创建明确类型的索引 如果你要像之前旧版版本一样兼容自定义 type ,需要将 include_type_nametrue 携带 put http://202.193.56.222:9200/itcast?include_type_nametrue {settings:{index:{number_of_shards:2,number_of_replicas:0}},mappings:{person:{properties:{name:{type:text},age:{type:integer},mail:{type:keyword},hobby:{type:text}}}} }查看映射 GET /itcast/_mapping插入数据 POST /itcast/_bulk {index:{_index:itcast,_type:person}} {name:张三,age: 20,mail: 111qq.com,hobby:羽毛球、乒乓球、足球} {index:{_index:itcast,_type:person}} {name:李四,age: 21,mail: 222qq.com,hobby:羽毛球、乒乓球、足球、篮球} {index:{_index:itcast,_type:person}} {name:王五,age: 22,mail: 333qq.com,hobby:羽毛球、篮球、游泳、听音乐} {index:{_index:itcast,_type:person}} {name:赵六,age: 23,mail: 444qq.com,hobby:跑步、游泳} {index:{_index:itcast,_type:person}} {name:孙七,age: 24,mail: 555qq.com,hobby:听音乐、看电影}测试搜索 POST /itcast/person/_search {query:{match:{hobby:音乐}} }[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-L5ioCs3J-1614908740773)(http://victorfengming.gitee.io/elk/1_ElasticSearch%E4%BB%8B%E7%BB%8D%E4%B8%8E%E5%AE%89%E8%A3%85/images/image-20200923104653427.png)] 结构化查询 term查询 term 主要用于精确匹配哪些值比如数字日期布尔值或 not_analyzed 的字符串(未经分析的文本数据类型) { term: { age: 26 }} { term: { date: 2014-09-01 }} { term: { public: true }} { term: { tag: full_text }}示例 POST /itcast/person/_search {query:{term:{age:20}} }terms查询 terms 跟 term 有点类似但 terms 允许指定多个匹配条件。 如果某个字段指定了多个值那么文档需要一起去 做匹配 {terms:{tag:[search,full_text,nosql]} }示例 POST /itcast/person/_search {query:{terms:{age:[20,21]}} }range查询 range 过滤允许我们按照指定范围查找一批数据 {range:{age:{gte:20,lt:30}} }范围操作符包含 gt : 大于gte:: 大于等于lt : 小于lte: 小于等于 示例 POST /itcast/person/_search {query:{range:{age:{gte:20,lte:22}}} }exists 查询 exists 查询可以用于查找文档中是否包含指定字段或没有某个字段类似于SQL语句中的IS_NULL 条件 {exists: {field: title} }这两个查询只是针对已经查出一批数据来但是想区分出某个字段是否存在的时候使用。示例 POST /haoke/user/_search {query: {exists: { #必须包含field: card}} }match查询 match 查询是一个标准查询不管你需要全文本查询还是精确查询基本上都要用到它。 如果你使用 match 查询一个全文本字段它会在真正查询之前用分析器先分析match 一下查询字符 {match: {tweet: About Search} }如果用match 下指定了一个确切值在遇到数字日期布尔值或者not_analyzed 的字符串时它将为你搜索你 给定的值 { match: { age: 26 }} { match: { date: 2014-09-01 }} { match: { public: true }} { match: { tag: full_text }}bool查询 bool 查询可以用来合并多个条件查询结果的布尔逻辑它包含一下操作符must :: 多个查询条件的完全匹配,相当于 and 。must_not :: 多个查询条件的相反匹配相当于 not 。should :: 至少有一个查询条件匹配, 相当于 or 。 这些参数可以分别继承一个查询条件或者一个查询条件的数组 {bool:{must:{term:{folder:inbox}},must_not:{term:{tag:spam}},should:[{term:{starred:true}},{term:{unread:true}}]} }过滤查询 前面讲过结构化查询Elasticsearch也支持过滤查询如term、range、match等。 示例查询年龄为20岁的用户。 POST /itcast/person/_search {query:{bool:{filter:{term:{age:20}}}} }查询和过滤的对比 一条过滤语句会询问每个文档的字段值是否包含着特定值。查询语句会询问每个文档的字段值与特定值的匹配程度如何。一条查询语句会计算每个文档与查询语句的相关性会给出一个相关性评分 _score并且 按照相关性对匹 配到的文档进行排序。 这种评分方式非常适用于一个没有完全配置结果的全文本搜索。一个简单的文档列表快速匹配运算并存入内存是十分方便的 每个文档仅需要1个字节。这些缓存的过滤结果集与后续请求的结合使用是非常高效的。查询语句不仅要查找相匹配的文档还需要计算每个文档的相关性所以一般来说查询语句要比 过滤语句更耗时并且查询结果也不可缓存。 建议 做精确匹配搜索时最好用过滤语句因为过滤语句可以缓存数据。 中文分词 什么是分词 分词就是指将一个文本转化成一系列单词的过程也叫文本分析在Elasticsearch中称之为Analysis。 举例我是中国人 -- 我/是/中国人 分词api 指定分词器进行分词 POST /_analyze {analyzer:standard,text:hello world }结果如下 在结果中不仅可以看出分词的结果还返回了该词在文本中的位置。 指定索引分词 POST /itcast/_analyze {analyzer: standard,field: hobby,text: 听音乐 }中文分词难点 中文分词的难点在于在汉语中没有明显的词汇分界点如在英语中空格可以作为分隔符如果分隔不正确就会造成歧义。如 我/爱/炒肉丝我/爱/炒/肉丝 常用中文分词器IK、jieba、THULAC等推荐使用IK分词器。 IK Analyzer是一个开源的基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始IKAnalyzer已经推出了3个大版本。最初它是以开源项目Luence为应用主体的结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.0则发展为面向Java的公用分词组件独立于Lucene项目同时提供了对Lucene的默认优化实现。 采用了特有的“正向迭代最细粒度切分算法“具有80万字/秒的高速处理能力 采用了多子处理器分析模式支持英文字母IP地址、Email、URL、数字日期常用中文数量词罗马数字科学计数法中文词汇姓名、地名处理等分词处理。 优化的词典存储更小的内存占用。 IK分词器 Elasticsearch插件地址https://github.com/medcl/elasticsearch-analysis-ik 安装分词器 首先下载到最新的ik分词器下载地址 下载完成后使用xftp工具拷贝到服务器上 #安装方法将下载到的 es/plugins/ik 目录下 mkdir es/plugins/ik#解压 unzip elasticsearch-analysis-ik-7.9.1.zip#重启 ./bin/elasticsearch我们通过日志发现它已经成功加载了ik分词器插件 测试 POST /_analyze {analyzer: ik_max_word,text: 我是中国人 }我们发现ik分词器已经成功分词完成 全文搜索 全文搜索两个最重要的方面是 相关性Relevance 它是评价查询与其结果间的相关程度并根据这种相关程度对结果排名的一种能力这 种计算方式可以是 TF/IDF 方法、地理位置邻近、模糊相似或其他的某些算法。分词Analysis 它是将文本块转换为有区别的、规范化的 token 的一个过程目的是为了创建倒排索引以及查询倒排索引。 构造数据 ES 7.4 默认不在支持指定索引类型默认索引类型是_doc http://202.193.56.222:9200/itcast?include_type_nametrue {settings:{index:{number_of_shards:1,number_of_replicas:0}},mappings:{person:{properties:{name:{type:text},age:{type:integer},mail:{type:keyword},hobby:{type:text,analyzer:ik_max_word}}}} }然后插入数据 POST http://202.193.56.222:9200/itcast/_bulk {index:{_index:itcast,_type:person}} {name:张三,age: 20,mail: 111qq.com,hobby:羽毛球、乒乓球、足球} {index:{_index:itcast,_type:person}} {name:李四,age: 21,mail: 222qq.com,hobby:羽毛球、乒乓球、足球、篮球} {index:{_index:itcast,_type:person}} {name:王五,age: 22,mail: 333qq.com,hobby:羽毛球、篮球、游泳、听音乐} {index:{_index:itcast,_type:person}} {name:赵六,age: 23,mail: 444qq.com,hobby:跑步、游泳、篮球} {index:{_index:itcast,_type:person}} {name:孙七,age: 24,mail: 555qq.com,hobby:听音乐、看电影、羽毛球}单词搜索 POST /itcast/person/_search {query:{match:{hobby:音乐}},highlight:{fields:{hobby:{}}} }查询出来的结果如下并且还带有高亮 过程说明 检查字段类型 爱好 hobby 字段是一个 text 类型 指定了IK分词器这意味着查询字符串本身也应该被分词。 分析查询字符串 。 将查询的字符串 “音乐” 传入IK分词器中输出的结果是单个项 音乐。因为只有一个单词项所以 match 查询执行的是单个底层 term 查询。 查找匹配文档 。 用 term 查询在倒排索引中查找 “音乐” 然后获取一组包含该项的文档本例的结果是文档3 、5 。 为每个文档评分 。 用 term 查询计算每个文档相关度评分 _score 这是种将 词频term frequency即词 “音乐” 在相关文档的hobby 字段中出现的频率和 反向文档频率inverse document frequency即词 “音乐” 在所有文档的hobby 字段中出现的频率以及字段的长度即字段越短相关度越高相结合的计算方式。 多词搜索 POST /itcast/person/_search {query:{match:{hobby:音乐 篮球}},highlight:{fields:{hobby:{}}} }可以看到包含了“音乐”、“篮球”的数据都已经被搜索到了。可是搜索的结果并不符合我们的预期因为我们想搜索的是既包含“音乐”又包含“篮球”的用户显然结果返回的“或”的关系。在Elasticsearch中可以指定词之间的逻辑关系如下 POST /itcast/person/_search {query:{match:{hobby:音乐 篮球operator:and}},highlight:{fields:{hobby:{}}} }通过这样的话就会让两个关键字之间存在and关系了 可以看到结果符合预期。 前面我们测试了“OR” 和 “AND”搜索这是两个极端其实在实际场景中并不会选取这2个极端更有可能是选取这种或者说只需要符合一定的相似度就可以查询到数据在Elasticsearch中也支持这样的查询通过 minimum_should_match来指定匹配度如70% 示例 {query:{match:{hobby:{query:游泳 羽毛球,minimum_should_match:80%}}},highlight: {fields: {hobby: {}}} } #结果省略显示 hits: { total: 4, #相似度为80%的情况下查询到4条数据 max_score: 1.621458, hits: [} #设置40%进行测试 {query:{match:{hobby:{query:游泳 羽毛球,minimum_should_match:40%}}},highlight: {fields: {hobby: {}}} }#结果 hits: { total: 5, #相似度为40%的情况下查询到5条数据 max_score: 1.621458, hits: [}相似度应该多少合适需要在实际的需求中进行反复测试才可得到合理的值。 组合搜索 在搜索时也可以使用过滤器中讲过的bool组合查询示例 POST /itcast/person/_search {query:{bool:{must:{match:{hobby:篮球}},must_not:{match:{hobby:音乐}},should:[{match:{hobby:游泳}}]}},highlight:{fields:{hobby:{}}} }上面搜索的意思是 搜索结果中必须包含篮球不能包含音乐如果包含了游泳那么它的相似度更高。 结果 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-sBVqSAwi-1614908740790)(http://victorfengming.gitee.io/elk/1_ElasticSearch%E4%BB%8B%E7%BB%8D%E4%B8%8E%E5%AE%89%E8%A3%85/images/image-20200923145310698.png)] 评分的计算规则 bool 查询会为每个文档计算相关度评分 _score 再将所有匹配的 must 和 should 语句的分数 _score 求和最后除以 must 和 should 语句的总数。 must_not 语句不会影响评分 它的作用只是将不相关的文档排除。 默认情况下should中的内容不是必须匹配的如果查询语句中没有must那么就会至少匹配其中一个。当然了也可以通过minimum_should_match参数进行控制该值可以是数字也可以的百分比。 示例 POST /itcast/person/_search {query:{bool:{should:[{match:{hobby:游泳}},{match:{hobby:篮球}},{match:{hobby:音乐}}],minimum_should_match:2}},highlight:{fields:{hobby:{}}} }minimum_should_match为2意思是should中的三个词至少要满足2个。 权重 有些时候我们可能需要对某些词增加权重来影响该条数据的得分。如下 搜索关键字为“游泳篮球”如果结果中包含了“音乐”权重为10包含了“跑步”权重为2。 POST /itcast/person/_search {query:{bool:{must:{match:{hobby:{query:游泳篮球,operator:and}}},should:[{match:{hobby:{query:音乐,boost:10}}},{match:{hobby:{query:跑步,boost:2}}}]}},highlight:{fields:{hobby:{}}} }ElasticSearch集群 集群节点 ELasticsearch的集群是由多个节点组成的通过cluster.name设置集群名称并且用于区分其它的集群每个节点通过node.name指定节点的名称。 在Elasticsearch中节点的类型主要有4种 master节点 配置文件中node.master属性为true(默认为true)就有资格被选为master节点。master节点用于控制整个集群的操作。比如创建或删除索引管理其它非master节点等。 data节点 配置文件中node.data属性为true(默认为true)就有资格被设置成data节点。data节点主要用于执行数据相关的操作。比如文档的CRUD。 客户端节点 配置文件中node.master属性和node.data属性均为false。该节点不能作为master节点也不能作为data节点。可以作为客户端节点用于响应用户的请求把请求转发到其他节点 部落节点 当一个节点配置tribe.*的时候它是一个特殊的客户端它可以连接多个集群在所有连接的集群上执行 搜索和其他操作。 搭建集群 #启动3个虚拟机分别在3台虚拟机上部署安装Elasticsearch mkdir /itcast/es-cluster#分发到其它机器 scp -r es-cluster elsearch192.168.40.134:/itcast#node01的配置 cluster.name: es-itcast-cluster node.name: node01 node.master: true node.data: true network.host: 0.0.0.0 http.port: 9200 discovery.zen.ping.unicast.hosts: [192.168.40.133,192.168.40.134,192.168.40.135] # 最小节点数 discovery.zen.minimum_master_nodes: 2 # 跨域专用 http.cors.enabled: true http.cors.allow-origin: *#node02的配置 cluster.name: es-itcast-cluster node.name: node02 node.master: true node.data: true network.host: 0.0.0.0 http.port: 9200 discovery.zen.ping.unicast.hosts: [192.168.40.133,192.168.40.134,192.168.40.135] discovery.zen.minimum_master_nodes: 2 http.cors.enabled: true http.cors.allow-origin: *#node03的配置 cluster.name: es-itcast-cluster node.name: node02 node.master: true node.data: true network.host: 0.0.0.0 http.port: 9200 discovery.zen.ping.unicast.hosts: [192.168.40.133,192.168.40.134,192.168.40.135] discovery.zen.minimum_master_nodes: 2 http.cors.enabled: true http.cors.allow-origin: *#分别启动3个节点 ./elasticsearch查看集群 创建索引 查询集群状态/_cluster/health 响应 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-UE1MJuLz-1614908740798)(http://victorfengming.gitee.io/elk/1_ElasticSearch%E4%BB%8B%E7%BB%8D%E4%B8%8E%E5%AE%89%E8%A3%85/images/image-20200923151953227.png)] 集群中有三种颜色 分片和副本 为了将数据添加到Elasticsearch我们需要索引(index)——一个存储关联数据的地方。实际上索引只是一个用来指向一个或多个分片(shards)的“逻辑命名空间(logical namespace)”. 一个分片(shard)是一个最小级别“工作单元(worker unit)”,它只是保存了索引中所有数据的一部分。我们需要知道是分片就是一个Lucene实例并且它本身就是一个完整的搜索引擎。应用程序不会和它直接通 信。分片可以是主分片(primary shard)或者是复制分片(replica shard)。索引中的每个文档属于一个单独的主分片所以主分片的数量决定了索引最多能存储多少数据。复制分片只是主分片的一个副本它可以防止硬件故障导致的数据丢失同时可以提供读请求比如搜索或者从别的shard取回文档。当索引创建完成的时候主分片的数量就固定了但是复制分片的数量可以随时调整。 故障转移 将data节点停止 这里选择将node02停止 当前集群状态为黄色表示主节点可用副本节点不完全可用过一段时间观察发现节点列表中看不到node02副本节点分配到了node01和node03集群状态恢复到绿色。 将node02恢复 ./node02/1 bin/elasticsearch 可以看到node02恢复后重新加入了集群并且重新分配了节点信息。 将master节点停止 接下来测试将node01停止也就是将主节点停止。 从结果中可以看出集群对master进行了重新选举选择node03为master。并且集群状态变成黄色。 等待一段时间后集群状态从黄色变为了绿色 恢复node01节点 ./node01/1 bin/elasticsearch重启之后发现node01可以正常加入到集群中集群状态依然为绿色 特别说明 如果在配置文件中discovery.zen.minimum_master_nodes设置的不是N/21时会出现脑裂问题之前宕机 的主节点恢复后不会加入到集群。 分布式文档 路由 首先来看个问题 如图所示当我们想一个集群保存文档时文档该存储到哪个节点呢 是随机吗 是轮询吗实际上在ELasticsearch中会采用计算的方式来确定存储到哪个节点计算公式如下 shard hash(routing) % number_1 of_primary_shards其中 routing值是一个任意字符串它默认是_id但也可以自定义。这个routing字符串通过哈希函数生成一个数字然后除以主切片的数量得到一个余数(remainder)余数 的范围永远是0到number_of_primary_shards - 1这个数字就是特定文档所在的分片 这就是为什么创建了主分片后不能修改的原因。 文档的写操作 新建、索引和删除请求都是写write操作它们必须在主分片上成功完成才能复制分片上 下面我们罗列在主分片和复制分片上成功新建、索引或删除一个文档必要的顺序步骤 客户端给Node 1 发送新建、索引或删除请求。节点使用文档的_id 确定文档属于分片0 。它转发请求到Node 3 分片0 位于这个节点上。Node 3 在主分片上执行请求如果成功它转发请求到相应的位于Node 1 和Node 2 的复制节点上。当所有 的复制节点报告成功 Node 3 报告成功到请求的节点请求的节点再报告给客户端。 客户端接收到成功响应的时候文档的修改已经被应用于主分片和所有的复制分片。你的修改生效了。 搜索文档 文档能够从主分片或任意一个复制分片被检索。 下面我们罗列在主分片或复制分片上检索一个文档必要的顺序步骤 客户端给Node 1 发送get请求。节点使用文档的_id 确定文档属于分片0 。分片0 对应的复制分片在三个节点上都有。此时它转发请求到 Node 2 。Node 2 返回文档(document)给Node 1 然后返回给客户端。对于读请求为了平衡负载请求节点会为每个请求选择不同的分片——它会循环所有分片副本。可能的情况是一个被索引的文档已经存在于主分片上却还没来得及同步到复制分片上。这时复制分片会报告文档未找到主分片会成功返回文档。一旦索引请求成功返回给用户文档则在主分片和复制分片都是可用的。 全文搜索 对于全文搜索而言文档可能分散在各个节点上那么在分布式的情况下如何搜索文档呢 搜索分为2个阶段 搜索query取回fetch 搜索query 查询阶段包含以下三步 客户端发送一个search搜索 请求给Node 3 , Node 3 创建了一个长度为fromsize 的空优先级队Node 3 转发这个搜索请求到索引中每个分片的原本或副本。每个分片在本地执行这个查询并且结果将结果到 一个大小为fromsize 的有序本地优先队列里去。每个分片返回document的ID和它优先队列里的所有document的排序值给协调节点Node 3 。Node 3 把这些 值合并到自己的优先队列里产生全局排序结果。 取回 fetch 分发阶段由以下步骤构成 协调节点辨别出哪个document需要取回并且向相关分片发出GET 请求。每个分片加载document并且根据需要丰富enrich它们然后再将document返回协调节点。一旦所有的document都被取回协调节点会将结果返回给客户端。 Java客户端 在Elasticsearch中为java提供了2种客户端一种是REST风格的客户端另一种是Java API的客户端 REST客户端 Elasticsearch提供了2种REST客户端一种是低级客户端一种是高级客户端。 Java Low Level REST Client官方提供的低级客户端。该客户端通过http来连接Elasticsearch集群。用户在使 用该客户端时需要将请求数据手动拼接成Elasticsearch所需JSON格式进行发送收到响应时同样也需要将返回的JSON数据手动封装成对象。虽然麻烦不过该客户端兼容所有的Elasticsearch版本。Java High Level REST Client官方提供的高级客户端。该客户端基于低级客户端实现它提供了很多便捷的 API来解决低级客户端需要手动转换数据格式的问题。 构造数据 POST /haoke/house/_bulk{index:{_index:haoke,_type:house}} {id:1001,title:整租 · 南丹大楼 1居室 7500,price:7500} {index:{_index:haoke,_type:house}} {id:1002,title:陆家嘴板块精装设计一室一厅可拎包入住诚意租。,price:8500} {index:{_index:haoke,_type:house}} {id:1003,title:整租 · 健安坊 1居室 4050,price:7500} {index:{_index:haoke,_type:house}} {id:1004,title:整租 · 中凯城市之光视野开阔景色秀丽拎包入住,price:6500} {index:{_index:haoke,_type:house}} {id:1005,title:整租 · 南京西路品质小区 21213三轨交汇 配套齐* 拎包入住,price:6000} {index:{_index:haoke,_type:house}} {id:1006,title:祥康里 简约风格 *南户型 拎包入住 看房随时,price:7000}REST低级客户端 创建项目加入依赖 ?xml version1.0 encodingUTF-8? project xmlnshttp://maven.apache.org/POM/4.0.0xmlns:xsihttp://www.w3.org/2001/XMLSchema-instancexsi:schemaLocationhttp://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsdmodelVersion4.0.0/modelVersiongroupIdorg.example/groupIdartifactIdStudy_ElasticSearch_Code/artifactIdversion1.0-SNAPSHOT/versionbuildpluginsplugingroupIdorg.apache.maven.plugins/groupIdartifactIdmaven-compiler-plugin/artifactIdconfigurationsource7/sourcetarget7/target/configuration/plugin/plugins/builddependenciesdependencygroupIdorg.elasticsearch.client/groupIdartifactIdelasticsearch-rest-client/artifactIdversion6.8.5/version/dependencydependencygroupIdjunit/groupIdartifactIdjunit/artifactIdversion4.12/versionscopetest/scope/dependencydependencygroupIdcom.fasterxml.jackson.core/groupIdartifactIdjackson-databind/artifactIdversion2.11.1/version/dependency/dependencies /project编写测试类 import com.fasterxml.jackson.core.JsonProcessingException; import com.fasterxml.jackson.databind.ObjectMapper; import org.apache.http.HttpHost; import org.apache.http.util.EntityUtils; import org.elasticsearch.client.Request; import org.elasticsearch.client.Response; import org.elasticsearch.client.RestClient; import org.elasticsearch.client.RestClientBuilder;import java.io.IOException; import java.util.HashMap; import java.util.Map;/*** 使用低级客户端 访问** author: 陌溪* create: 2020-09-23-16:33*/ public class ESApi {private RestClient restClient;private static final ObjectMapper MAPPER new ObjectMapper();/*** 初始化*/public void init() {RestClientBuilder restClientBuilder RestClient.builder(new HttpHost(202.193.56.222, 9200, http));this.restClient restClientBuilder.build();}/*** 查询集群状态*/public void testGetInfo() throws IOException {Request request new Request(GET, /_cluster/state);request.addParameter(pretty, true);Response response this.restClient.performRequest(request);System.out.println(response.getStatusLine());System.out.println(EntityUtils.toString(response.getEntity()));}/*** 根据ID查询数据* throws IOException*/public void testGetHouseInfo() throws IOException {Request request new Request(GET, /haoke/house/Z3CduXQBYpWein3CRFug);request.addParameter(pretty, true);Response response this.restClient.performRequest(request);System.out.println(response.getStatusLine());System.out.println(EntityUtils.toString(response.getEntity()));}public void testCreateData() throws IOException {Request request new Request(POST, /haoke/house);MapString, Object data new HashMap();data.put(id, 2001);data.put(title, 张江高科);data.put(price, 3500);// 写成JSONrequest.setJsonEntity(MAPPER.writeValueAsString(data));Response response this.restClient.performRequest(request);System.out.println(response.getStatusLine());System.out.println(EntityUtils.toString(response.getEntity()));}// 搜索数据public void testSearchData() throws IOException {Request request new Request(POST, /haoke/house/_search);String searchJson {\query\: {\match\: {\title\: \拎包入住\}}};request.setJsonEntity(searchJson);request.addParameter(pretty,true);Response response this.restClient.performRequest(request);System.out.println(response.getStatusLine());System.out.println(EntityUtils.toString(response.getEntity()));}public static void main(String[] args) throws IOException {ESApi esApi new ESApi();esApi.init(); // esApi.testGetInfo(); // esApi.testGetHouseInfo();esApi.testCreateData();} }REST高级客户端 创建项目引入依赖 dependencygroupIdorg.elasticsearch.client/groupIdartifactIdelasticsearch-rest-high-level-client/artifactIdversion6.8.5/version /dependency编写测试用例 import com.fasterxml.jackson.databind.ObjectMapper; import org.apache.http.HttpHost; import org.apache.http.util.EntityUtils; import org.elasticsearch.action.ActionListener; import org.elasticsearch.action.delete.DeleteRequest; import org.elasticsearch.action.delete.DeleteResponse; import org.elasticsearch.action.get.GetRequest; import org.elasticsearch.action.get.GetResponse; import org.elasticsearch.action.index.IndexRequest; import org.elasticsearch.action.index.IndexResponse; import org.elasticsearch.action.search.SearchRequest; import org.elasticsearch.action.search.SearchResponse; import org.elasticsearch.action.update.UpdateRequest; import org.elasticsearch.action.update.UpdateResponse; import org.elasticsearch.client.*; import org.elasticsearch.common.Strings; import org.elasticsearch.common.unit.TimeValue; import org.elasticsearch.index.query.QueryBuilders; import org.elasticsearch.search.SearchHit; import org.elasticsearch.search.SearchHits; import org.elasticsearch.search.builder.SearchSourceBuilder; import org.elasticsearch.search.fetch.subphase.FetchSourceContext;import java.io.IOException; import java.util.HashMap; import java.util.Map; import java.util.concurrent.TimeUnit;/*** ES高级客户端** author: 陌溪* create: 2020-09-23-16:56*/ public class ESHightApi {private RestHighLevelClient client;public void init() {RestClientBuilder restClientBuilder RestClient.builder(new HttpHost(202.193.56.222, 9200, http));this.client new RestHighLevelClient(restClientBuilder);}public void after() throws Exception {this.client.close();}/*** 新增文档同步操作** throws Exception*/public void testCreate() throws Exception {MapString, Object data new HashMap();data.put(id, 2002);data.put(title, 南京西路 拎包入住 一室一厅);data.put(price, 4500);IndexRequest indexRequest new IndexRequest(haoke, house).source(data);IndexResponse indexResponse this.client.index(indexRequest,RequestOptions.DEFAULT);System.out.println(id- indexResponse.getId());System.out.println(index- indexResponse.getIndex());System.out.println(type- indexResponse.getType());System.out.println(version- indexResponse.getVersion());System.out.println(result- indexResponse.getResult());System.out.println(shardInfo- indexResponse.getShardInfo());}/*** 异步创建文档* throws Exception*/public void testCreateAsync() throws Exception {MapString, Object data new HashMap();data.put(id, 2003);data.put(title, 南京东路 最新房源 二室一厅);data.put(price, 5500);IndexRequest indexRequest new IndexRequest(haoke, house).source(data);this.client.indexAsync(indexRequest, RequestOptions.DEFAULT, newActionListenerIndexResponse() {Overridepublic void onResponse(IndexResponse indexResponse) {System.out.println(id- indexResponse.getId());System.out.println(index- indexResponse.getIndex());System.out.println(type- indexResponse.getType());System.out.println(version- indexResponse.getVersion());System.out.println(result- indexResponse.getResult());System.out.println(shardInfo- indexResponse.getShardInfo());}Overridepublic void onFailure(Exception e) {System.out.println(e);}});System.out.println(ok);Thread.sleep(20000);}/*** 查询* throws Exception*/public void testQuery() throws Exception {GetRequest getRequest new GetRequest(haoke, house,GkpdE2gBCKv8opxuOj12);// 指定返回的字段String[] includes new String[]{title, id};String[] excludes Strings.EMPTY_ARRAY;FetchSourceContext fetchSourceContext new FetchSourceContext(true, includes, excludes);getRequest.fetchSourceContext(fetchSourceContext);GetResponse response this.client.get(getRequest, RequestOptions.DEFAULT);System.out.println(数据 - response.getSource());}/*** 判断是否存在** throws Exception*/public void testExists() throws Exception {GetRequest getRequest new GetRequest(haoke, house,GkpdE2gBCKv8opxuOj12); // 不返回的字段getRequest.fetchSourceContext(new FetchSourceContext(false));boolean exists this.client.exists(getRequest, RequestOptions.DEFAULT);System.out.println(exists - exists);}/*** 删除数据** throws Exception*/public void testDelete() throws Exception {DeleteRequest deleteRequest new DeleteRequest(haoke, house,GkpdE2gBCKv8opxuOj12);DeleteResponse response this.client.delete(deleteRequest,RequestOptions.DEFAULT);System.out.println(response.status());// OK or NOT_FOUND}/*** 更新数据** throws Exception*/public void testUpdate() throws Exception {UpdateRequest updateRequest new UpdateRequest(haoke, house,G0pfE2gBCKv8opxuRz1y);MapString, Object data new HashMap();data.put(title, 张江高科2);data.put(price, 5000);updateRequest.doc(data);UpdateResponse response this.client.update(updateRequest,RequestOptions.DEFAULT);System.out.println(version - response.getVersion());}/*** 测试搜索** throws Exception*/public void testSearch() throws Exception {SearchRequest searchRequest new SearchRequest(haoke);searchRequest.types(house);SearchSourceBuilder sourceBuilder new SearchSourceBuilder();sourceBuilder.query(QueryBuilders.matchQuery(title, 拎包入住));sourceBuilder.from(0);sourceBuilder.size(5);sourceBuilder.timeout(new TimeValue(60, TimeUnit.SECONDS));searchRequest.source(sourceBuilder);SearchResponse search this.client.search(searchRequest,RequestOptions.DEFAULT);System.out.println(搜索到 search.getHits().totalHits 条数据.);SearchHits hits search.getHits();for (SearchHit hit : hits) {System.out.println(hit.getSourceAsString());}}public static void main(String[] args) throws Exception {ESHightApi esHightApi new ESHightApi();esHightApi.init();esHightApi.testCreate();} }
http://www.zqtcl.cn/news/421102/

相关文章:

  • 响应式网站建设平台东莞网站建设aj
  • 代码做网站的软件市场营销策划书
  • 东莞网站建设 手机壳文登建设局网站
  • 网站建设和后台空间管理关系企业网络需求分析
  • 做小说网站做国外域名还是国内的好温州市网站建设
  • wordpress识别手机跳转网站3d视频动画制作
  • 展示型企业网站设计方案邯郸市口碑网络技术有限公司
  • 网站配色案例泰州seo平台
  • wordpress标题title优化代码seo技术顾问
  • 怎么做直播网站的超管延安免费做网站
  • 织梦做手机网站hao123从网上开始
  • 网站制作公司十强重庆网站建设mlfart
  • 南京调查公司网站杭州一起做网站
  • 不关站备案wordpress内网网站模板
  • 做学术用的网站如果在各大网站做免费的网络推广
  • 设计素材网站线上网站数据报表
  • 做一个小型网站多少钱wordpress 手机商城模板
  • 谷歌网站收录提交金山网站建设关键词排名
  • 域名备案中网站可以开通个人网站开发多少钱
  • 西安维护网站广州公司网站设计制作
  • 荆门做网站网络推广公司多久能回本
  • 搜索网站存在的关键字室内设计公司排名榜
  • 响应式网页开发昆明网站排名优化公司哪家好
  • 如东建设局网站线上购物平台
  • 重庆网站推广营销淘宝的网站怎么做的好
  • 重庆企业建站模板珠海企业官网设计制作
  • 网页作图软件东莞优化哪家好
  • 专业的商城网站开发深圳网站界面设计
  • 做网站需要自备服务器吗专业生产车间设计图纸网站
  • 用vs2010做网站教程昆明模板建站定制网站