MySQL如何实时同步数据到ES?试试这款阿里开源的神器 天天实时
来源:腾讯云     时间:2023-04-14 15:39:49

SpringBoot实战电商项目mall(40k+star)地址:github.com/macrozheng/…

摘要

mall项目中的商品搜索功能,一直都没有做实时数据同步。最近发现阿里巴巴开源的canal可以把MySQL中的数据实时同步到Elasticsearch中,能很好地解决数据同步问题。今天我们来讲讲canal的使用,希望对大家有所帮助!

canal简介

canal主要用途是对MySQL数据库增量日志进行解析,提供增量数据的订阅和消费,简单说就是可以对MySQL的增量数据进行实时同步,支持同步到MySQL、Elasticsearch、HBase等数据存储中去。


(资料图片)

canal工作原理

canal会模拟MySQL主库和从库的交互协议,从而伪装成MySQL的从库,然后向MySQL主库发送dump协议,MySQL主库收到dump请求会向canal推送binlog,canal通过解析binlog将数据同步到其他存储中去。

canal使用

接下来我们来学习下canal的使用,以MySQL实时同步数据到Elasticsearch为例。

组件下载

首先我们需要下载canal的各个组件canal-server、canal-adapter、canal-admin,下载地址:https://github.com/alibaba/canal/releases

canal的各个组件的用途各不相同,下面分别介绍下:

canal-server(canal-deploy):可以直接监听MySQL的binlog,把自己伪装成MySQL的从库,只负责接收数据,并不做处理。canal-adapter:相当于canal的客户端,会从canal-server中获取数据,然后对数据进行同步,可以同步到MySQL、Elasticsearch和HBase等存储中去。canal-admin:为canal提供整体配置管理、节点运维等面向运维的功能,提供相对友好的WebUI操作界面,方便更多用户快速和安全的操作。

由于不同版本的MySQL、Elasticsearch和canal会有兼容性问题,所以我们先对其使用版本做个约定。

MySQL配置

由于canal是通过订阅MySQL的binlog来实现数据同步的,所以我们需要开启MySQL的binlog写入功能,并设置binlog-format为ROW模式,我的配置文件为/mydata/mysql/conf/my.cnf,改为如下内容即可;
[mysqld]## 设置server_id,同一局域网中需要唯一server_id=101 ## 指定不需要同步的数据库名称binlog-ignore-db=mysql  ## 开启二进制日志功能log-bin=mall-mysql-bin  ## 设置二进制日志使用内存大小(事务)binlog_cache_size=1M  ## 设置使用的二进制日志格式(mixed,statement,row)binlog_format=row  ## 二进制日志过期清理时间。默认值为0,表示不自动清理。expire_logs_days=7  ## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致slave_skip_errors=1062  
配置完成后需要重新启动MySQL,重启成功后通过如下命令查看binlog是否启用;
show variables like "%log_bin%"
+---------------------------------+-------------------------------------+| Variable_name                   | Value                               |+---------------------------------+-------------------------------------+| log_bin                         | ON                                  || log_bin_basename                | /var/lib/mysql/mall-mysql-bin       || log_bin_index                   | /var/lib/mysql/mall-mysql-bin.index || log_bin_trust_function_creators | OFF                                 || log_bin_use_v1_row_events       | OFF                                 || sql_log_bin                     | ON                                  |+---------------------------------+-------------------------------------+
再查看下MySQL的binlog模式;
show variables like "binlog_format%";  
+---------------+-------+| Variable_name | Value |+---------------+-------+| binlog_format | ROW   |+---------------+-------+
接下来需要创建一个拥有从库权限的账号,用于订阅binlog,这里创建的账号为canal:canal;
CREATE USER canal IDENTIFIED BY "canal";  GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO "canal"@"%";FLUSH PRIVILEGES;
创建好测试用的数据库canal-test,之后创建一张商品表product,建表语句如下。
CREATE TABLE `product`  (  `id` bigint(20) NOT NULL AUTO_INCREMENT,  `title` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,  `sub_title` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,  `price` decimal(10, 2) NULL DEFAULT NULL,  `pic` varchar(255) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,  PRIMARY KEY (`id`) USING BTREE) ENGINE = InnoDB AUTO_INCREMENT = 2 CHARACTER SET = utf8 COLLATE = utf8_general_ci ROW_FORMAT = Dynamic;

canal-server使用

将我们下载好的压缩包canal.deployer-1.1.5-SNAPSHOT.tar.gz上传到Linux服务器,然后解压到指定目录/mydata/canal-server,可使用如下命令解压;
tar -zxvf canal.deployer-1.1.5-SNAPSHOT.tar.gz
解压完成后目录结构如下;
├── bin│ ├── restart.sh│ ├── startup.bat│ ├── startup.sh│ └── stop.sh├── conf│ ├── canal_local.properties│ ├── canal.properties│ └── example│   └── instance.properties├── lib├── logs│ ├── canal│ │ └── canal.log│ └── example│     ├── example.log│     └── example.log└── plugin
修改配置文件conf/example/instance.properties,按如下配置即可,主要是修改数据库相关配置;
# 需要同步数据的MySQL地址canal.instance.master.address=127.0.0.1:3306canal.instance.master.journal.name=canal.instance.master.position=canal.instance.master.timestamp=canal.instance.master.gtid=# 用于同步数据的数据库账号canal.instance.dbUsername=canal# 用于同步数据的数据库密码canal.instance.dbPassword=canal# 数据库连接编码canal.instance.connectionCharset = UTF-8# 需要订阅binlog的表过滤正则表达式canal.instance.filter.regex=.*\\..*
使用startup.sh脚本启动canal-server服务;
sh bin/startup.sh
启动成功后可使用如下命令查看服务日志信息;
tail -f logs/canal/canal.log
2020-10-26 16:18:13.354 [main] INFO  com.alibaba.otter.canal.deployer.CanalController - ## start the canal server[172.17.0.1(172.17.0.1):11111]2020-10-26 16:18:19.978 [main] INFO  com.alibaba.otter.canal.deployer.CanalStarter - ## the canal server is running now ......
启动成功后可使用如下命令查看instance日志信息;
tail -f logs/example/example.log 
2020-10-26 16:18:16.056 [main] INFO  c.a.o.c.i.spring.support.PropertyPlaceholderConfigurer - Loading properties file from class path resource [canal.properties]2020-10-26 16:18:16.061 [main] INFO  c.a.o.c.i.spring.support.PropertyPlaceholderConfigurer - Loading properties file from class path resource [example/instance.properties]2020-10-26 16:18:18.259 [main] INFO  c.a.otter.canal.instance.spring.CanalInstanceWithSpring - start CannalInstance for 1-example 2020-10-26 16:18:18.282 [main] WARN  c.a.o.canal.parse.inbound.mysql.dbsync.LogEventConvert - --> init table filter : ^.*\..*$2020-10-26 16:18:18.282 [main] WARN  c.a.o.canal.parse.inbound.mysql.dbsync.LogEventConvert - --> init table black filter : ^mysql\.slave_.*$2020-10-26 16:18:19.543 [destination = example , address = /127.0.0.1:3306 , EventParser] WARN  c.a.o.c.p.inbound.mysql.rds.RdsBinlogEventParserProxy - ---> begin to find start position, it will be long time for reset or first position2020-10-26 16:18:19.578 [main] INFO  c.a.otter.canal.instance.core.AbstractCanalInstance - start successful....2020-10-26 16:18:19.912 [destination = example , address = /127.0.0.1:3306 , EventParser] WARN  c.a.o.c.p.inbound.mysql.rds.RdsBinlogEventParserProxy - prepare to find start position just last position {"identity":{"slaveId":-1,"sourceAddress":{"address":"localhost","port":3306}},"postion":{"gtid":"","included":false,"journalName":"mall-mysql-bin.000006","position":2271,"serverId":101,"timestamp":1603682664000}}2020-10-26 16:18:22.435 [destination = example , address = /127.0.0.1:3306 , EventParser] WARN  c.a.o.c.p.inbound.mysql.rds.RdsBinlogEventParserProxy - ---> find start position successfully, EntryPosition[included=false,journalName=mall-mysql-bin.000006,position=2271,serverId=101,gtid=,timestamp=1603682664000] cost : 2768ms , the next step is binlog dump
如果想要停止canal-server服务可以使用如下命令。
sh bin/stop.sh

canal-adapter使用

将我们下载好的压缩包canal.adapter-1.1.5-SNAPSHOT.tar.gz上传到Linux服务器,然后解压到指定目录/mydata/canal-adpter,解压完成后目录结构如下;
├── bin│ ├── adapter.pid│ ├── restart.sh│ ├── startup.bat│ ├── startup.sh│ └── stop.sh├── conf│ ├── application.yml│ ├── es6│ ├── es7│ │ ├── biz_order.yml│ │ ├── customer.yml│ │ └── product.yml│ ├── hbase│ ├── kudu│ ├── logback.xml│ ├── META-INF│ │ └── spring.factories│ └── rdb├── lib├── logs│ └── adapter│     └── adapter.log└── plugin
修改配置文件conf/application.yml,按如下配置即可,主要是修改canal-server配置、数据源配置和客户端适配器配置;
canal.conf:  mode: tcp # 客户端的模式,可选tcp kafka rocketMQ  flatMessage: true # 扁平message开关, 是否以json字符串形式投递数据, 仅在kafka/rocketMQ模式下有效  zookeeperHosts:    # 对应集群模式下的zk地址  syncBatchSize: 1000 # 每次同步的批数量  retries: 0 # 重试次数, -1为无限重试  timeout: # 同步超时时间, 单位毫秒  accessKey:  secretKey:  consumerProperties:    # canal tcp consumer    canal.tcp.server.host: 127.0.0.1:11111 #设置canal-server的地址    canal.tcp.zookeeper.hosts:    canal.tcp.batch.size: 500    canal.tcp.username:    canal.tcp.password:  srcDataSources: # 源数据库配置    defaultDS:      url: jdbc:mysql://127.0.0.1:3306/canal_test?useUnicode=true      username: canal      password: canal  canalAdapters: # 适配器列表  - instance: example # canal实例名或者MQ topic名    groups: # 分组列表    - groupId: g1 # 分组id, 如果是MQ模式将用到该值      outerAdapters:      - name: logger # 日志打印适配器      - name: es7 # ES同步适配器        hosts: 127.0.0.1:9200 # ES连接地址        properties:          mode: rest # 模式可选transport(9300) 或者 rest(9200)          # security.auth: test:123456 #  only used for rest mode          cluster.name: elasticsearch # ES集群名称
添加配置文件canal-adapter/conf/es7/product.yml,用于配置MySQL中的表与Elasticsearch中索引的映射关系;
dataSourceKey: defaultDS # 源数据源的key, 对应上面配置的srcDataSources中的值destination: example  # canal的instance或者MQ的topicgroupId: g1 # 对应MQ模式下的groupId, 只会同步对应groupId的数据esMapping:  _index: canal_product # es 的索引名称  _id: _id  # es 的_id, 如果不配置该项必须配置下面的pk项_id则会由es自动分配  sql: "SELECT        p.id AS _id,        p.title,        p.sub_title,        p.price,        p.pic        FROM        product p"        # sql映射  etlCondition: "where a.c_time>={}"   #etl的条件参数  commitBatch: 3000   # 提交批大小
使用startup.sh脚本启动canal-adapter服务;
sh bin/startup.sh
启动成功后可使用如下命令查看服务日志信息;
tail -f logs/adapter/adapter.log
20-10-26 16:52:55.148 [main] INFO  c.a.o.canal.adapter.launcher.loader.CanalAdapterLoader - Load canal adapter: logger succeed2020-10-26 16:52:57.005 [main] INFO  c.a.o.c.client.adapter.es.core.config.ESSyncConfigLoader - ## Start loading es mapping config ... 2020-10-26 16:52:57.376 [main] INFO  c.a.o.c.client.adapter.es.core.config.ESSyncConfigLoader - ## ES mapping config loaded2020-10-26 16:52:58.615 [main] INFO  c.a.o.canal.adapter.launcher.loader.CanalAdapterLoader - Load canal adapter: es7 succeed2020-10-26 16:52:58.651 [main] INFO  c.alibaba.otter.canal.connector.core.spi.ExtensionLoader - extension classpath dir: /mydata/canal-adapter/plugin2020-10-26 16:52:59.043 [main] INFO  c.a.o.canal.adapter.launcher.loader.CanalAdapterLoader - Start adapter for canal-client mq topic: example-g1 succeed2020-10-26 16:52:59.044 [main] INFO  c.a.o.canal.adapter.launcher.loader.CanalAdapterService - ## the canal client adapters are running now ......2020-10-26 16:52:59.057 [Thread-4] INFO  c.a.otter.canal.adapter.launcher.loader.AdapterProcessor - =============> Start to connect destination: example <=============2020-10-26 16:52:59.100 [main] INFO  org.apache.coyote.http11.Http11NioProtocol - Starting ProtocolHandler ["http-nio-8081"]2020-10-26 16:52:59.153 [main] INFO  org.apache.tomcat.util.net.NioSelectorPool - Using a shared selector for servlet write/read2020-10-26 16:52:59.590 [main] INFO  o.s.boot.web.embedded.tomcat.TomcatWebServer - Tomcat started on port(s): 8081 (http) with context path ""2020-10-26 16:52:59.626 [main] INFO  c.a.otter.canal.adapter.launcher.CanalAdapterApplication - Started CanalAdapterApplication in 31.278 seconds (JVM running for 33.99)2020-10-26 16:52:59.930 [Thread-4] INFO  c.a.otter.canal.adapter.launcher.loader.AdapterProcessor - =============> Subscribe destination: example succeed <=============
如果需要停止canal-adapter服务可以使用如下命令。
sh bin/stop.sh

数据同步演示

经过上面的一系列步骤,canal的数据同步功能已经基本可以使用了,下面我们来演示下数据同步功能。

首先我们需要在Elasticsearch中创建索引,和MySQL中的product表相对应,直接在Kibana的Dev Tools中使用如下命令创建即可;
PUT canal_product{  "mappings": {    "properties": {      "title": {        "type": "text"      },      "sub_title": {        "type": "text"      },      "pic": {        "type": "text"      },      "price": {        "type": "double"      }    }  }}
创建完成后可以查看下索引的结构;
GET canal_product/_mapping
之后使用如下SQL语句在数据库中创建一条记录;
INSERT INTO product ( id, title, sub_title, price, pic ) VALUES ( 5, "小米8", " 全面屏游戏智能手机 6GB+64GB", 1999.00, NULL );
创建成功后,在Elasticsearch中搜索下,发现数据已经同步了;
GET canal_product/_search
再使用如下SQL对数据进行修改;
UPDATE product SET title="小米10" WHERE id=5
修改成功后,在Elasticsearch中搜索下,发现数据已经修改了;再使用如下SQL对数据进行删除操作;
DELETE FROM product WHERE id=5
删除成功后,在Elasticsearch中搜索下,发现数据已经删除了,至此MySQL同步到Elasticsearch的功能完成了!

canal-admin使用

将我们下载好的压缩包canal.admin-1.1.5-SNAPSHOT.tar.gz上传到Linux服务器,然后解压到指定目录/mydata/canal-admin,解压完成后目录结构如下;
├── bin│ ├── restart.sh│ ├── startup.bat│ ├── startup.sh│ └── stop.sh├── conf│ ├── application.yml│ ├── canal_manager.sql│ ├── canal-template.properties│ ├── instance-template.properties│ ├── logback.xml│ └── public│     ├── avatar.gif│     ├── index.html│     ├── logo.png│     └── static├── lib└── logs
创建canal-admin需要使用的数据库canal_manager,创建SQL脚本为/mydata/canal-admin/conf/canal_manager.sql,会创建如下表;

修改配置文件conf/application.yml,按如下配置即可,主要是修改数据源配置和canal-admin的管理账号配置,注意需要用一个有读写权限的数据库账号,比如管理账号root:root;

server:  port: 8089spring:  jackson:    date-format: yyyy-MM-dd HH:mm:ss    time-zone: GMT+8spring.datasource:  address: 127.0.0.1:3306  database: canal_manager  username: root  password: root  driver-class-name: com.mysql.jdbc.Driver  url: jdbc:mysql://${spring.datasource.address}/${spring.datasource.database}?useUnicode=true&characterEncoding=UTF-8&useSSL=false  hikari:    maximum-pool-size: 30    minimum-idle: 1canal:  adminUser: admin  adminPasswd: admin
接下来对之前搭建的canal-server的conf/canal_local.properties文件进行配置,主要是修改canal-admin的配置,修改完成后使用sh bin/startup.sh local重启canal-server:
# register ipcanal.register.ip =# canal admin configcanal.admin.manager = 127.0.0.1:8089canal.admin.port = 11110canal.admin.user = admincanal.admin.passwd = 4ACFE3202A5FF5CF467898FC58AAB1D615029441# admin auto registercanal.admin.register.auto = truecanal.admin.register.cluster = 使用startup.sh脚本启动canal-admin服务;
使用startup.sh脚本启动canal-admin服务;
sh bin/startup.sh
启动成功后可使用如下命令查看服务日志信息;
启动成功后可使用如下命令查看服务日志信息;
020-10-27 10:15:04.210 [main] INFO  org.apache.coyote.http11.Http11NioProtocol - Starting ProtocolHandler ["http-nio-8089"]2020-10-27 10:15:04.308 [main] INFO  org.apache.tomcat.util.net.NioSelectorPool - Using a shared selector for servlet write/read2020-10-27 10:15:04.534 [main] INFO  o.s.boot.web.embedded.tomcat.TomcatWebServer - Tomcat started on port(s): 8089 (http) with context path ""2020-10-27 10:15:04.573 [main] INFO  com.alibaba.otter.canal.admin.CanalAdminApplication - Started CanalAdminApplication in 31.203 seconds (JVM running for 34.865)
访问canal-admin的Web界面,输入账号密码admin:123456即可登录,访问地址:http://192.168.3.101:8089登录成功后即可使用Web界面操作canal-server。

参考资料

canal官方文档:https://github.com/alibaba/canal/wiki

配置文件地址

github.com/macrozheng/…

本文就是愿天堂没有BUG给大家分享的内容

关键词: