网站首页 > 技术文章 正文
写在前面
ElasticSearch是一个分布式、可扩展、实时的搜索与数据分析引擎,它能从项目一开始就赋予你的数据以搜索、分析和探索的能力,在日常工作和学习中扮演着非常重要的角色,鉴于此本篇将从ElasticSearch的安装、基础概念、基本用法、高级查询等角度来进行介绍。
ElasticSearch简介
ElasticSearch是一款基于Apache Lucene构建的开源搜索引擎,采用Java编写,提供简单易用的RESTful API,开发者可以通过它轻松实现简单明了的搜索功能。ElasticSearch轻松的横向扩展能力,支持PB级别的结构化和非结构化数据处理。其实就是说当机器的磁盘容量不满足需求的时候,可以通过不断的横向添加节点(机器)来解决容量问题,通过这种方式可以使我们的存储容量从GB到TB甚至PB级别的转化。
接下来学习ElasticSearch的应用场景: (1)海量数据分析引擎。当你需要对应用日志、系统日志等进行分析时,可以使用ElasticSearch的聚合搜索功能来实现; (2)站内搜索引擎。当你需要快速搭建一个站内搜索的时候,使用ElasticSearch就能完成这个任务; (3)数据仓库。开发者可以使用ElasticSearch强大的分布式搜索能力,直接将其作为数据仓库产品来使用,可以存储PB级别的结构化或者非结构化数据,这样可以为上层应用提供强大的数据存储能力。
当然上面介绍的应用场景只是一些较为通用的场景,而实际上一些大型公司会将ElasticSearch用在其他的地方,如英国卫报公司则使用ElasticSearch来实时搜集用户日志和社交网络数据以便于实时分析公众对文章的响应程度。而维基百科和GitHub尽管都使用ElasticSearch进行站内实时的数据搜索,但是维基百科则使用ElasticSearch提供全文搜索,并高亮关键字;GitHub则使用ElasticSearch来解锁1000多亿代码;百度则使用ElasticSearch搭建其实时日志监控平台。
ElasticSearch安装
ElasticSearch的版本非常特殊,它的迭代顺序是这样的:1.x-->2.x-->5.x-->6.x-->7.x。为什么会出现这个问题呢?那是因为ElasticSearch属于Elastic技术栈,但是Elastic技术栈中其他中间件的版本更新迭代不同,版本号也出现了混乱,举个例子ElasticSearch用2.x版本,而要求Kibana使用4.x版本,这势必会提高小白的学习门槛,要知道在学习任何软件的第一部分就是选择合适版本,鉴于此Elastic在16年就正式统一了所有Elastic技术栈中所有产品的版本号。综合考虑目前情况,笔者选择使用ElasticSearch6.x版本,当然在后续文章中则会使用最新版的7.x系列来进行学习。
ElasticSearch单实例安装
第一步,下载安装java8及以上版本,之后进行环境变量的设置: (1)JAVA_HOME值为G:\Application\java1.8;(2)在系统变量的Path处设置两个值,分别是:%JAVA_HOME%\bin和%JAVA_HOME%\jre\bin。(3)使用java -version命令来检验是否安装成功,输出版本信息则表明Java安装成功:
第二步,新建ElasticSearch文件,并将后续下载的文件存放与此,同时便于后续管理。
第三步,下载ElasticSearch安装包,点击 ElasticSearch镜像地址,选择合适的64位版本后进行下载。
第四步,启动ElasticSearch。开发者可以进入到ElasticSearch的bin目录,然后直接执行start /min elasticsearch命令即可在后台启动ElasticSearch。之后直接打开浏览器,输入http://127.0.0.1:9200后显示下图所示信息,也表明elasticsearch已成功启动:
这样关于ElasticSearch单实例的安装就完成了,但是由于ElasticSearch返回的是JSON格式信息,对开发者并不是非常友好,因此需要安装Head插件,因为它提供了Web界面,帮我们解决了无界面这一问题,同时也可以提供基本信息查看,REST请求模拟,以及基本数据的检索等功能。点击 这里 获取插件,然后download,选择下载ZIp文件即可:
请注意该插件要求nodejs版本大于6,可以使用node -v命令来查看当前系统nodejs版本的信息,可以看到笔者为v12.13.1,满足要求,其实这就是一个node项目,因此需要进入到elasticsearch-head-master包内,然后执行npm install命令来安装相关依赖包,之后执行npm run start,当然也可以使用cnpm命令来代替之前的npm命令,结果如下所示:
可以看到它的Web服务运行在http://localhost:9100,因此可以打开浏览器去访问这个地址:
但是目前Web页面显示集群未连接,但是此时ElasticSearch和Head插件都已经启动了,所以问题在于两者还未完成通信(存在跨域问题),因此需要停掉正在运行的ElasticSearch,同时进入到其config包内,修改其elasticsearch.yml配置文件,在其末尾添加如下两行代码:
http.cors.enabled: true
http.cors.allow-origin: "*"
最后保存退出,重启ElasticSearch和Head插件,注意顺序不能搞错,然后再去浏览器访问http://localhost:9100地址,此时页面如下所示:
ElasticSearch多实例安装
接下来将搭建一个包含3个节点的集群,其中一个master,两个slave节点,为了便于操作将之前搭建的单节点实例作为master节点。首先进入到之前搭建的单节点实例中,修改其elasticsearch.yml配置文件,如下所示:
cluster.name: envythink
node.name: master
node.master: true
network.host: 127.0.0.1
http.port: 9200
注意各个配置信息所在的位置:
之后重启ElasticSearch这一master节点,然后访问浏览器确认集群名称和当前节点修改都已生效:
由于ElasticSearch默认启动使用的是elasticsearch.yml配置文件,且无法以其他名称文件启动,因此要想实现一台机器部署多个实例,就必须直接复制多个安装程序。
在ElasticSearch目录下新建slave-node目录,然后复制两份安装文件进入并修改名字为slave1和slave2,其中slave1中config目录下的elasticsearch.yml配置文件修改如下信息:
可以看到这里我们修改了节点的名称和端口号,以及配置发现集群的IP地址。同时将此的elasticsearch.yml配置文件复制一份到slave2中config目录下,替换之前的elasticsearch.yml配置文件,并将节点名称和端口号依次修改为slave2和9202,之后启动这两个salve节点,并重启Head插件,之后再去浏览器中访问Head页面,如下所示:(注意这个顺序可能会随着节点的顺序而发生变动)
如果出现下面的错误:
failed to send join request to master [{master}{4f6DA5uJQ8iJokZ3T18gjg}{2dOtfXXbTrynhShWrzt3xQ}{127.0.0.1}{127.0.0.1:9300}{ml.machine_memory=8374956032, ml.max_open_jobs=20, xpack.installed=true, ml.enabled=true}], reason [RemoteTransportException[[master][127.0.0.1:9300]
那是因为之前复制ElasticSearch文件时,将其data目录下的文件也一同复制了,因此需要清空data文件夹,然后再进行重试即可。
ElasticSearch基础概念
首先是集群和节点的概念,我们知道集群是由一个或多个节点组成的,如前面我们搭建的具有三个节点的集群,其默认名称为ElasticSearch,但是前面我们通过cluster.name参数将其修改为envythink。请注意对于任意一个节点来说,其集群的名字只能有一个,实际上所有的节点都是靠这个集群的名称来加入集群的。此外每个节点都有自己的名字,可以通过node.name来自定义,同时节点都是可以存储数据,参与集群索引数据,以及搜索数据的独立服务。其次是索引,你可以将其理解为是含有相同属性的文档集合。接着是类型,一般来说索引可以定义一个或者多个类型,但是文档必须是属于一个类型。那么问题来了,文档又是什么呢?文档就是可以被索引的基本数据单位,如用户的个人信息,它是ElasticSearch中最基本的存储单位。索引在ElasticSearch中是通过名字来识别的,且它必须是英文字母小写,且不含中划线,我们都是通过名字来对文档数据进行增删改查等操作。
关于索引、类型和文档这三者之间的关系,可以借鉴数据库的相关知识,将索引类比为数据库;类型类比为数据表;而文档就是一行SQL记录。再来举一个较为详细的系统,假设我们这里有一个信息查询系统,此处使用ElasticSearch来作存储,那么里面的数据就可以分为各种各样的索引,如图书索引,服装索引,电器索引等,而对于图书索引又可以细分为文学类、工具类、技术类等类型,而具体到每一本书籍则就是文档,也就是最小的存储单位。
和索引相关还有两个比较重要的概念就是分片和备份。每个索引都有多个分片,每个分片就是一个Lucene索引。而拷贝一份分片就完成了分片的备份。使用分片可以将索引进行拆分,可以分担每一个索引上的压力,同时分片还允许用户进行水平扩展和拆分,以及分布式的操作,可以提高搜索以及其他操作的效率。使用备份的好处就是当一个主分片出现问题时,备份的分片就可以代替工作,从而提高了ElasticSearch的可用性,同时备份的分片也支持搜索操作,可以减轻搜索的压力。ElasticSearch默认在创建索引时,会创建5个分片,一个用于备份,当然这个数据也是可以修改的。此外分片的数量只能在创建索引的时候指定,而不能在后期进行修改,但是备份却是可以动态修改的。
ElasticSearch基本用法
由于ElasticSearch使用的是RESTful风格的API,因此在学习ElasticSearch的基本用法之前,需要了解ElasticSearch中API的基本格式:http://<ip>:<port>/<索引>/<类型>/<文档id>,注意上面的索引、类型和文档都是名词,而动作则使用HTTP对应的GET/POST/PUT/DELETE。
创建索引
接下来可以结合之前的Head插件来显式创建索引,点击左上角的索引-->创建索引-->填入数据-->点击确定(注意这里的movie是索引名称,必须是英文小写,且不能使用中划线):
之后回到首页,可以看到页面出现了10个绿底黑字的方框,这些都是ElasticSearch的分片,如下所示:
其实你还可以发现这些方框有的边框颜色粗,有的浅,那是因为粗的是主分片,浅的是分片的备份。其实上面这种是非结构化的创建,其实还有结构化的创建。那么如何确定某个索引是结构化还是非结构化的呢?可以借助于Head插件来完成,点击索引的信息按钮,然后点击索引信息按钮,如下所示:
然后会弹出一个页面,注意这里面的"mappings"字段,它是结构化的关键词,如果后面的内容是空的,则表示它是非结构化的索引。也就是说上面我们创建的movie其实是一个非结构化的索引:
那么问题来了,如何创建结构化的索引呢?同样可以借助于head插件,点击右上角的“复合查询”按钮,然后选择POST方式:
并修改接口为movie/action/_mappings,然后在里面新增如下代码:
{
"action": {
"properties": {
"title": {
"type": "text"
}
}
}
之后查看一下首页,可以发现之前的“mappings”字段里面已经显示了刚才添加的信息:
尽管使用Head插件可以结构化创建,但是对于JOSN的书写并不太友好,此时我们可以使用Postman这一工具来进行创建,但是需要开发者自己书写一些基础配置信息,如"settings"等,之后才能编写“mappings”关键字等信息,如下所示:
{
"settings": {
"number_of_shards": 3,
"number_of_replicas": 1
},
"mappings": {
"novel": {
"properties": {
"name": {
"type": "text"
},
"isbn": {
"type": "keyword"
},
"price": {
"type": "integer"
},
"published": {
"type": "date",
"format": "yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch_millis"
}
}
}
}
}
之后点击提交即可,结果如下所示,注意使用PUT方法用于新增数据(ES6.x系列要求一个index只能存储一种type):
之后刷新首页,可以看到右侧多出了一个book的索引,然后查看该索引的信息可以发现该索引中的"mappings"关键字中的信息就是之前我们通过Postman创建的:
数据插入
在学完了如何创建索引之后,接下来开始学习如何插入数据,在ElasticSearch中,插入分为两种:“指定文档id插入”和“自动产生文档id插入”。这里的文档id它是一个唯一索引值,指向文档数据。接下来学习如何使用Postman工具来插入数据,选择PUT方法,并输入接口为http://127.0.0.1:9200/book/novel/1,请注意这里的book为索引,novel为类型,1是文档的id,这个文档id用于唯一标识文档,然后书写如下JSON信息:
然后点击确定,刷新首页并点击上方的数据预览,可以看到我们之前的数据就已经成功插入了:
同时可以看到对于book这一索引来说,其docs的数量为1,它表示book索引下所有的文档的数量:
在前面文档的id都是开发者自己来指定的,其实还可以让ES自己来生成,不过此时需要使用的是POST方法,相应的代码如下所示:
{
"name": "《彷徨》",
"isbn": "978-7-134-34663-7",
"price": 69,
"published": "2019-09-01 10:01:01"
}
其中Postman对应的操作如下所示:
可以看到此时的文档id就是ES自动为我们所生成的字符串,这样关于数据的插入就先学习到这。
数据修改
在简单学完如何插入数据之后,接下来开始学习如何对数据进行修改。对数据修改有两种方式:直接修改文档和脚本修改文档。首先学习直接修改文档这种方式,在前面我们已经成功的往book这一索引中添加了两条记录,接下来就尝试将之前文档id为1的记录的《朝花夕拾》修改为《呐喊》,继续使用Postman测试工具同时使用POST方法,注意此时的API接口为http://127.0.0.1:9200/book/novel/1/_update,后面必须添加_update参数:
此时开发者填入的JSON信息必须包裹在doc字段中,这个doc字段用于表明这是直接修改文档方式:
{
"doc": {
"name": "《呐喊》"
}
}
之后点击确认,可以发现name属性的值的确发生了变化:
除了上面介绍的直接修改文档方式外,开发者还可以使用脚本修改文档这一方式。ES支持多种脚本语言,这里以内置的脚本语言painless为例进行说明,注意无论是直接修改文档还是通过脚本来修改文档,其对应的API接口是不变的,依旧为http://127.0.0.1:9200/book/novel/1/_update,但是前面的doc需要修改为script:
{
"script": {
"lang": "painless",
"inline": "ctx._source.price +=20"
}
}
请注意其中的ctx表示上下文,_scorce则是获取资源,而后面则是得到了文档的属性。不过这样有一个问题:直接将参数写进了语句中,而无法动态注入,其实上面的写法可以采用动态属性注入的方式:
{
"script": {
"lang": "painless",
"inline": "ctx._source.price=params.price",
"params": {
"price": 100
}
}
}
这样就可以实现属性的动态赋值,那么关于数据的简单修改就学习到这里。
数据删除
接下来开始学习如何删除数据,这里主要学习如何删除文档和索引。首先学习如何删除文档,可以借助于Postman测试工具,选择使用DELETE方法,然后输入API接口为http://127.0.0.1:9200/book/novel/1,注意这里需要添加文档id,然后点击提交即可删除文档。
接下来是删除索引,注意索引除非是必要删除,否则不要轻易删除,因为删除它会删除它所包含的所有数据。同样删除索引也可以借助于Postman测试工具。选择使用DELETE方法,然后输入API接口为http://127.0.0.1:9200/book,注意这里仅仅是需要添加索引名称,然后点击提交即可删除索引。其实删除索引还可以借助于Head插件来完成,点击movie索引的“动作”按钮,然后选择“删除”,之后弹出输入框,开发者输入“删除”后,点击确定即可完成删除:
然后首页会自动刷新,可以看到索引名称为movie的索引已经被删除了:
这样关于数据的删除就先学习到这里,后续开始学习如何查询数据。
数据查询
接下来开始学习较为重要的数据查询,数据查询包括简单查询、条件查询和聚合查询这三种,下面将仔细学习这三种查询方式。考虑到后续的需要,这里就新创建了一个book索引,其对应的JSON信息为:
{
"settings": {
"number_of_shards": 3,
"number_of_replicas": 1
},
"mappings": {
"novel": {
"properties": {
"word_count": {
"type": "integer"
},
"author": {
"type": "keyword"
},
"title": {
"type": "text"
},
"publish_date": {
"type": "date",
"format": "yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch_millis"
}
}
}
}
}
之后查看一下首页发现book索引已经创建成功,如下所示:
接下来就是为这个book索引添加文档,这里提前准备了一些数据,如下所示:
首先来学习简单查询,使用Postman测试工具,选择GET方法,使用的接口为http://127.0.0.1:9200/book/novel/文档id,然后查看结果:
接着再来学习条件查询,注意条件查询使用POST方法,使用的接口为http://127.0.0.1:9200/book/_search,然后构建一个查询的JOSN信息,注意所有的信息都必须包含在query这个关键词内,match_all表示查询所有的结果信息:
{
"query": {
"match_all": {}
}
}
请注意这里面的took表示查询所花费的时间,单位为毫秒;hits表示查询的全部结果数,可以看到有12条信息,但是此处只会显示10条,我们可以自己来指定返回的数量以及从从何处返回,只需在上述JSON格式信息中添加过滤条件即可,from表示从查询的第一个数据开始返回,size表示只返回一个:
{
"query": {
"match_all": {}
},
"from": 1,
"size": 1
}
运行结果如下所示:
上面的条件查询没设置过滤条件,接下来尝试查询所有title中包含Java的文档,此时对应的JSON格式信息如下:
{
"query": {
"match": {
"title": "Java"
}
}
}
然后点击查询,可以发现居然只查询到两条,而title中包含JavaScript的却没有查询到:
查询结果默认是根据_score倒序排列的,开发者可以自定义排序字段,如使用出版时间publish_date,然后将其默认的升序排序修改为倒序:
{
"query": {
"match": {
"title": "Java"
}
},
"sort": {
"publish_date": {
"order": "desc"
}
}
}
最后再来学习聚合查询,所谓的聚合查询就是指将多个相同的数据进行统计查询,如根据字数对书籍进行聚合查询,相应的JSON格式信息为:
{
"aggs": {
"group_by_word_count": {
"terms": {
"field": "word_count"
}
}
}
}
请注意这里的aggs表示聚合查询,group_by_word_count是自定义的聚合名称,terms表示聚合条件,field表示聚合字段为word_count。聚合结果如下所示:
前面都是查询的信息,后面则是聚合的结果,当然还可以多个聚合查询,如:
{
"aggs": {
"group_by_word_count": {
"terms": {
"field": "word_count"
}
},
"group_by_publish_date": {
"terms": {
"field": "publish_date"
}
}
}
}
这样在查询结果的最后面会显示出两个聚合结果。其实还可以指定对某个值进行计算,如对字数word_count进行计算:
{
"aggs": {
"grades_word_count": {
"stats": {
"field": "word_count"
}
}
}
}
然后点击运行,运算结果如下所示,里面包含了最大值、最小值、平均值和总和:
stats表示对指定字段进行计算,里面包含5个值,如果只是需要单纯的某个值,可以将stats修改为min、max、avg、sum和count。
猜你喜欢
- 2024-10-29 你还在用 Date?快使用 LocalDateTime 了!
- 2024-10-29 Java修炼终极指南:79,80,81 签到终极修炼天赋
- 2024-10-29 硬核!最全的延迟任务实现方式汇总!附代码(强烈推荐)
- 2024-10-29 还在实体类中用Date?JDK8新的日期类型不香么?
- 2024-10-29 LocalDateTime 说:2020,是时候换个更好的日期时间类了
- 2024-10-29 程序员,你还在使用Date嘛?建议你使用LocalDateTime哦
- 2024-10-29 深度思考:在JDK8中,日期类型该如何使用?
- 2024-10-29 为什么建议使用你 LocalDateTime,而不是 Date?
- 2024-10-29 百度开源的分布式唯一ID生成器UidGenerator,解决了时钟回拨问题
- 2024-10-29 DeepLearning4j 实战:手写体数字识别的 GPU 实现与性能对比
你 发表评论:
欢迎- 最近发表
- 标签列表
-
- oraclesql优化 (66)
- 类的加载机制 (75)
- feignclient (62)
- 一致性hash算法 (71)
- dockfile (66)
- 锁机制 (57)
- javaresponse (60)
- 查看hive版本 (59)
- phpworkerman (57)
- spark算子 (58)
- vue双向绑定的原理 (68)
- springbootget请求 (58)
- docker网络三种模式 (67)
- spring控制反转 (71)
- data:image/jpeg (69)
- base64 (69)
- java分页 (64)
- kibanadocker (60)
- qabstracttablemodel (62)
- java生成pdf文件 (69)
- deletelater (62)
- com.aspose.words (58)
- android.mk (62)
- qopengl (73)
- epoch_millis (61)
本文暂时没有评论,来添加一个吧(●'◡'●)