-
Notifications
You must be signed in to change notification settings - Fork 2.5k
Faq
答: 在回答这问题之前,首先来看一张canal&otter和mysql复制的类比图.
mysql的自带复制技术可分成三步:
- master将改变记录到二进制日志(binary log)中(这些记录叫做二进制日志事件,binary log events,可以通过show binlog events进行查看);
- slave将master的binary log events拷贝到它的中继日志(relay log),这里是I/O thread线程.
- slave重做中继日志中的事件,将改变反映它自己的数据,这里是SQL thread线程.
基于canal&otter的复制技术和mysql复制类似,具有类比性.
- Canal对应于I/O thread,接收Master Binary Log.
- Otter对应于SQL thread,通过Canal获取Binary Log数据,执行同步插入数据库.
两者的区别在于:
- otter目前嵌入式依赖canal,部署为同一个jvm,目前设计为不产生Relay Log,数据不落地.
- otter目前允许自定义同步逻辑,解决各类需求.
a. ETL转化. 比如Slave上目标表的表名,字段名,字段类型不同,字段个数不同等.
b. 异构数据库. 比如Slave可以是oracle或者其他类型的存储,nosql等.
c. M-M部署,解决数据一致性问题
d. 基于manager部署,方便监控同步状态和管理同步任务.
答: 支持mysql系列的5.1 ~ 5.6/5.7版本,mariadb 5/10版本. (全面支持ROW/STATEMENT/MIXED几种binlog格式的解析)
答:这里总结了一下
- 从问题1中的图中看到,otter依赖canal解决数据库增量日志,所以会收到canal的版本支持限制,仅支持mysql系列,不支持oracle做为master库进行解析.
- mysql做为master,otter只支持ROW模式的数据同步,其他两种模式不支持. (只有ROW模式可保证数据的最终一致性)
- 目标库,也就是slave,可支持mysql/oracle,也就是说可以将mysql的数据同步到oracle库中,反过来不行.
答:这里总结了一下
- 暂不支持无主键表同步. (同步的表必须要有主键,无主键表update会是一个全表扫描,效率比较差)
- 支持部分ddl同步 (支持create table / drop table / alter table / truncate table / rename table / create index / drop index,其他类型的暂不支持,比如grant,create user,trigger等等),同时ddl语句不支持幂等性操作,所以出现重复同步时,会导致同步挂起,可通过配置高级参数:跳过ddl异常,来解决这个问题.
- 不支持带外键的记录同步. (数据载入算法会打散事务,进行并行处理,会导致外键约束无法满足)
- 数据库上trigger配置慎重. (比如源库,有一张A表配置了trigger,将A表上的变化记录到B表中,而B表也需要同步。如果目标库也有这trigger,在同步时会插入一次A表,2次B表,因为A表的同步插入也会触发trigger插入一次B表,所以有2次B表同步.)
答:
- 管理&运维方便. otter为纯java开发的系统,提供web管理界面,一站式管理整个公司的数据库同步任务.
- 同步效率提升. 在保证数据一致性的前提下,拆散原先Master的事务内容,基于pk hash的并发同步,可以有效提升5倍以上的同步效率.
- 自定义同步功能. 支持基于增量复制的前提下,定义ETL转化逻辑,完成特殊功能.
- 异地机房同步. 相比于mysql异地长距离机房的复制效率,比如阿里巴巴杭州和美国机房,复制可以提升20倍以上. 长距离传输时,master向slave传输binary log可能会是一个瓶颈.
- 双A机房同步. 目前mysql的M-M部署结构,不支持解决数据的一致性问题,基于otter的双向复制+一致性算法,可完美解决这个问题,真正实现双A机房.
- 特殊功能.
a. 支持图片同步. 数据库中的一条记录,比如产品记录,会在数据库里存在一张图片的path路径,可定义规则,在同步数据的同时,将图片同步到目标.
node出现java.lang.OutOfMemoryError : Gc overhead limit exceeded.
答:
单node建议的同步任务,建议控制下1~2wtps以下,不然内存不够用. 出现不够用时,具体的解决方案:
- 调大node的-Xms,-Xmx内存设置,默认为3G,heap区大概是2GB
- 减少每个同步的任务内存配置.
a. canal配置里有个内存存储buffer记录数参数,默认是32768,代表32MB的binlog,解析后在内存中会占用100MB的样子.
b. pipeline配置里有个批次大小设置,默认是6000,代表每次获取6MB左右,解析后在内存占用=并行度*6MB*3,大概也是100MB的样子.
所以默认参数,全速跑时,单个通道占用200MB的样子,2GB能跑几个大概能估算出来了
场景:
- 源库binlog被删除,比如出现:Could not find first log file name in binary log index file
- 源库binlog出现致命解析错误,比如运行过程使用了删除性质的ddl,drop table操作,导致后续binlog在解析时无法获取表结构.
答:
首先需要理解一下canal的位置管理,主要有两个位点信息:起始位置 和 运行位置(记录最后一次正常消费的位置). 优先加载运行位置,第一次启动无运行位置,就会使用起始位置进行初始化,第一次客户端反馈了ack信号后,就会记录运行位置.
所以重置位置的几步操作:
- 删除运行位置. (pipeline同步进度页面配置)
- 配置起始位置. (canal配置页面)
- 检查是否生效. (pipeline对应的日志)
注意点:
- 如果日志中出现prepare to find start position just last position. 即代表是基于运行位置启动,新设置的位点并没有生效。 (此时需要检查下位点删除是否成功 或者 canal是否被多个pipeline引用,导致位点删除后,被另一个pipeline重新写入,导致新设置的位点没有生效.)
- otter中使用canal,不允许pipeline共享一个canal. otter中配置的canal即为一个instance,而otter就是为其一个client,目前canal不支持一个instance多个client的模式,会导致数据丢失,慎重.
答:
首先需要理解下Position超时监控,该监控主要是监控当前同步进度中的位点的最后更新时间和当前时间的差值,简单点说就是看你同步进度的位点多少时间没有更新了,超过阀值后触发该报警规则.
还有一点需要说明,同步进度中的位点只会记录一个事务的BEGIN/COMMIT位置,保证事务处理的完整性,不会记录事务中的中间位置.
几种情况下会出现同步进度位点长时间无更新:
- 源库出现大事务,比如进行load data/ delete * from xxx,同时操作几百万/千万的数据,同步该事务数据时,位点信息一直不会被更新,比如默认超过10分钟后,就会触发Position超时监控,此时就是一个误判,触发自动恢复,又进入重新同步,然后进入死循环。
- otter系统未知bug,导致系统的调度算法出现死锁,无法正常的同步数据,导致同步进度无法更新,触发该Position超时监控。此时:自动恢复的一次停用+启用同步任务,就可以恢复正常.
ps. 该Position超时监控,可以说是主要做为一种otter的系统保险机制,可以平衡一下,如果误判的影响>系统bug触发的概率,可以考虑关闭Position超时监控,一般超时监控也会发出报警.
异常信息:
pid:2 nid:2 exception:setl:load miss data with keys:[MemoryPipeKey[identity=Identity[channelId=1,pipelineId=2,processId=4991953],time=1383190001987,dataType=DB_BATCH]]
异常信息:
pid:2 nid:null exception:channel:can't restart by no select live node
该异常代表pipelineId = 2,select模块的node没有可用的节点.
异常信息:
pid:-1 nid:null exception:cid:2 restart recovery successful for rid:-1
该异常代表channelId = 2,成功发起了一次restart同步任务的操作.
异常信息:
pid:-1 nid:null exception:nid:2 is dead and restart cids:[1,2]
该异常代表node id = 2,因为该node挂了,触发了channelId = 1 / 2的两个同步任务发起restart同步任务的操作. (一种failover的机制)
几点说明:
- 针对zookeeper observer介绍:http://zookeeper.apache.org/doc/trunk/zookeeperObservers.html
- 以上的配置主要针对机房容灾 (即允许单个机房挂了,而不影响系统可用性),最简配置如下:
杭州: manager(1台) + zookeeper(1台 standalone模式) + node(1..n台)
美国: node(1..n台). - zookeeper的部署建议为奇数,主要是paxos算法决定了,2n偶数台的HA效果和2n-1台的效果一样,observer无这样的限制,可为偶数台.