网站首页 > 技术文章 正文
Logstash 是一个开源的数据处理管道,它能够从各种来源收集日志和事件数据,进行解析、转换,下面将介绍如何将MySQL数据同步到 Elasticsearch。
一、安装 Logstash
- 下载 Logstash: 访问 Logstash 官网 https://www.elastic.co/downloads/logstash 下载最新版本的 Logstash 包。
- 解压缩: 将下载的 Logstash 包解压缩到您想要安装的目录。
- 配置环境变量: 在系统环境变量中添加 Logstash 的安装路径,例如:export PATH=$PATH:/path/to/logstash/bin
二、配置 Logstash
logstash 的配置文件使用 JSON 格式,需要注意的是对应的mysql表一定要有主键,而且有更新时间字段。下面是我的一个配置文件/path/to/logstash/config/logstash.conf(文件路径可以自己指定,启动的时候带上就可以):
input {
jdbc {
# 设置 MySql/MariaDB 数据库url以及数据库名称
jdbc_connection_string => "jdbc:mysql://127.0.0.1:3306/mydb?useUnicode=true&characterEncoding=UTF-8&autoReconnect=true"
# 用户名和密码
jdbc_user => "root"
jdbc_password => ""
# 数据库驱动所在位置,可以是绝对路径或者相对路径
jdbc_driver_library => "/path/to/logstash/bin/mysql-connector-java-8.0.23.jar"
# mysql驱动类名
jdbc_driver_class => "com.mysql.cj.jdbc.Driver"
# 开启分页
jdbc_paging_enabled => "true"
# 分页每页数量,可以自定义
jdbc_page_size => "30"
# 执行的sql文件路径
statement => "SELECT *,FLOOR(addtime/86400) AS day,FLOOR(addtime/ 3600) AS hour FROM article WHERE del=0 AND addtime > :sql_last_value ORDER BY addtime ASC"
# 设置定时任务间隔 含义:分、时、天、月、,全部为*默认含义为每分钟跑一次任务
schedule => "* * * * *"
# 索引类型
type => "_doc"
# 是否开启记录上次追踪的结果,也就是上次更新的时间,这个会记录到 last_run_metadata_path 的文件
use_column_value => true
# 记录上一次追踪的结果值
last_run_metadata_path => "/path/to/logstash/mysql_update_time"
# 如果 use_column_value 为true, 配置本参数,追踪的 column 名,可以是自增id或者时间
tracking_column => "addtime"
# tracking_column 对应字段的类型
tracking_column_type => "timestamp"
# 是否清除 last_run_metadata_path 的记录,true则每次都从头开始查询所有的数据库记录
clean_run => false
# 数据库字段名称大写转小写
lowercase_column_names => false
}
}
output {
elasticsearch {
# 如果不配置type,动态模板会创建失败
#document_type => "_doc"
hosts => ["127.0.0.1"]
#账号
user => "elastic"
password => ""
index => "my_index"
# 设置_docID和数据相同
document_id => "%{id}"
data_stream =>false
template => "/path/to/logstash/config/template.json"
#是否重写模版
template_overwrite => false
manage_template => false
}
# 日志输出
stdout {
codec => json_lines
}
}
然后编写上面配置中对应的模板文件/path/to/logstash/config/template.json,这里注意和ES索引的mapping文件 字段格式上可能有些差别。
{
"index_patterns": ["my_index"],
"template": {
"settings": {
"index": {
"number_of_shards": 3,
"number_of_replicas": 2,
}
},
"mappings": {
"properties": {
"id": {
"type": "keyword"
},
"addtime": {
"type": "date",
"format": "epoch_millis"
},
"day": {
"type": "long"
},
"hour": {
"type": "long"
},
"title": {
"type": "text",
"analyzer": "ik_smart",
"search_analyzer": "ik_smart"
},
}
}
}
}
配置好之后启动logstash,我们使用后台启动
sudo nohup /path/to/logstash/bin/logstash -f /path/to/logstash/config/logstash.conf > /dev/null 2>&1 &
启动之后logstash就会根据 addtime的变动 每分钟将mysql数据同步到ES索引了,在实际应用中还有个问题需要解决就是DELETE操作,logstash同步只能添加和更新的操作,删除操作是无法同步到ES的。
解决办法1:在业务中有删除操作的地方,用程序直接调用ES接口删除。
解决办法2:在MySQL中添加一个字段来表示删除,比如增加deltime字段记录删除时的时间戳来表示删除。当日这里业务中删除操作时,对应SQL语句要改为更新deltime值为当时时间戳,而不是直接DELETE。然后在修改上面的logstash.conf配置文件,增加删除动作。
input {
...
}
filter {
# 设置删除周期(例如,过去 2 分钟,确保删除周期>同步周期,这样才不会有遗漏)
let { delete_threshold = (now - (2 * 60)) }
if [deltime] and [deltime] >= delete_threshold {
mutate {
remove_field => [ "deltime" ]
}
#调用es接口删除对应数据
elasticsearch {
hosts => ["localhost:9200"]
index => "my_index"
document_id => "%{id}"
action => "delete"
}
}
}
output {
# 其他数据同步到 Elasticsearch 操作,例如更新、新增等
...
}
猜你喜欢
- 2024-10-29 你还在用 Date?快使用 LocalDateTime 了!
- 2024-10-29 Java修炼终极指南:79,80,81 签到终极修炼天赋
- 2024-10-29 硬核!最全的延迟任务实现方式汇总!附代码(强烈推荐)
- 2024-10-29 还在实体类中用Date?JDK8新的日期类型不香么?
- 2024-10-29 LocalDateTime 说:2020,是时候换个更好的日期时间类了
- 2024-10-29 程序员,你还在使用Date嘛?建议你使用LocalDateTime哦
- 2024-10-29 深度思考:在JDK8中,日期类型该如何使用?
- 2024-10-29 为什么建议使用你 LocalDateTime,而不是 Date?
- 2024-10-29 百度开源的分布式唯一ID生成器UidGenerator,解决了时钟回拨问题
- 2024-10-29 DeepLearning4j 实战:手写体数字识别的 GPU 实现与性能对比
你 发表评论:
欢迎- 最近发表
- 标签列表
-
- oraclesql优化 (66)
- 类的加载机制 (75)
- feignclient (62)
- 一致性hash算法 (71)
- dockfile (66)
- 锁机制 (57)
- javaresponse (60)
- 查看hive版本 (59)
- phpworkerman (57)
- spark算子 (58)
- vue双向绑定的原理 (68)
- springbootget请求 (58)
- docker网络三种模式 (67)
- spring控制反转 (71)
- data:image/jpeg (69)
- base64 (69)
- java分页 (64)
- kibanadocker (60)
- qabstracttablemodel (62)
- java生成pdf文件 (69)
- deletelater (62)
- com.aspose.words (58)
- android.mk (62)
- qopengl (73)
- epoch_millis (61)
本文暂时没有评论,来添加一个吧(●'◡'●)