UCloud 数据传输服务 UDTS,一键解决数据迁移难题 | U刻
产品动态/

UCloud 数据传输服务 UDTS,一键解决数据迁移难题

  • UCloud 数据传输服务 UDTS,一键解决数据迁移难题

    背景

    数据库作为核心数据的重要存储,很多时候都会面临数据迁移的需求,例如:业务从本地迁移上云、数据中心故障需要切换至灾备中心、混合云或多云部署下的数据同步、流量突增导致数据库性能瓶颈需要拆分……

    而传统的开源数据库迁移工具 SSMA、imp/exp 等为了保证迁移数据的一致性,必须要在迁移之前停止服务,容易造成业务中断。对于有些用户,迁移数据量非常大可能达 TB 级别,即便有了这些开源工具还需要规划磁盘空间大小、传输的网络带宽、CPU 资源等等。另外由于这些开源工具的参数配置也相对比较复杂,对用户而言这部分学习成本也较高。

    为此,UCloud 推出了数据传输 (UCloud Data Transmission Service) UDTS 服务,支持多种同构和异构数据源之间进行全量或增量数据传输、支持多库或全库的迁移、支持 ETL 数据过滤等,从而帮助用户降低数据迁移的风险、提高数据传输的实时可靠性,方便其灵活调整数据架构、实时同步数据并分析等。

    UDTS 一键启动迁移服务

    传统的数据库迁移步骤包括系统环境的配置、工具的安装编译、数据备份、恢复测试等,整套流程不仅复杂且传输过程易出错,还可能面临数据丢失风险。


    而 UDTS 从产品功能上实现了服务化,帮助用户简化了这些复杂的操作。用户无须关心所需的底层物理资源,也不需要关注工具的复杂参数配置, 只需要在控制台一键点击创建迁移任务, 选择增量 / 全量任务类型,填写数据源信息即可启动迁移服务。如图:

    相比传统的迁移工具,UDTS 更加灵活弹性,对于正在迁移的任务,用户如果不想迁移了可随时停止,如果任务信息填错等需要修改的时候,用户也可以随时进行修改重启。UDTS 还能提供完善的运行信息,例如迁移任务的起始时间、剩余时间、数据量等。在安全可靠性方面,UDTS 在公有云平台上进行数据迁移不仅支持外网的迁移,还提供 UCloud 内网的数据迁移。

    支持丰富的迁移类型

    如上图所示,目前 UDTS 支持主流数据库 MySQL、TiDB、PgSQL、SQLServer、MongoDB、Redis 的同构数据源之间的迁移,以及异构数据源的迁移 MySQL->TiDB。还支持一些其他类型的迁移,例如从 CSV->UDW(UCloud 数据仓库)、CSV->MySQL。
    了解到很多 UFile 用户有数据迁移的需求,因此 UDTS 新增了 UFile 之间的数据迁移,包括支持全 bucket 迁移、按 prefix 迁移、断点续传,同时可以与 UCloud 工作流服务 StepFlow 结合实现增量同步。

    UDTS 的三次重要升级

    迁移维度从表到库

    经过调研我们发现有些用户的表比较少且集中,有些用户一个表有上百 G 的数据,如果按库迁移的话,一个库里面上 TB 的数据迁移在导出阶段一旦出问题就得从头再来,因此 UDTS 最初是从表的维度开始迁移,一次只能迁移一个库里面的一张表。

    后来又调研到有用户的一个 MySQL 实例有十几个库,每个库有二十几张表,如果按表迁移可能要创建几百个任务,对于该用户来说按表迁移的显然任务量巨大。于是我们很快开发支持了按库进行迁移,将这个用户库里面所有表一次全部迁移过去。另外 UDTS 还支持多库及全库的迁移,可以将一个实例下除系统库(mysql, information_schema, performance_schema, test, sys)以外的所有库一次性迁移过去。

    支持 ETL 数据过滤

    有些用户会面临这样的需求:在数据迁移的时候不希望或者不需要将所有数据完整的迁移到目标库,因此 UDTS 开发了按条件(行)选择及按列选择功能。


    还有一些数据整合的场景,用户原来的数据分散在不同的数据库中,现在希望整合到同一个高性能数据库中。但有时会遇到数据库名重复冲突导致无法整合。于是 UDTS 提供了迁移时重命名的功能,可以针对数据库也可以针对表,这样就帮助这类用户解决了数据整合的难题。同时我们还提供了列级的映射,让用户有更灵活的迁移服务。


    使用过 MySQL 的用户可能经常会遇到这种情况,如果业务量大,从库老是追不上主库。我们遇到有用户在做完全量迁移后,做增量迁移的时候发现老是追不上主库,经过分析发现该用户有一个批量计算在里面,有一张表有几千万条数据,每隔一段时间做一次批量计算,将那张表拷贝一份在里面做大量的运算,用完了之后再删掉,不断的重复做这件事情。但由于这些表都是临时生成的只知道前缀不知道名字,于是 UDTS 增加了一个数据过滤功能,支持按特定的前缀来排除特定的表,这样运行出来速度就很快,任务一旦启动就从来没有掉过队,一直是实时保持同步的。

    从单地域到多地域

    UDTS 从最初的北京单地域逐渐扩展了很多其他地域,这里涉及到跨地域甚至跨国迁移的问题。单地域迁移,比如在北京几个可用区之间的延时最多可能一两毫秒,而跨国迁移中有些国家网络延时可能达到几十毫秒,而低延时对于数据迁移的服务来说非常关键。
    第一个大问题就是带宽问题,同一地域内无论是内网还是外网带宽可以认为是无限的,但跨国迁移不同,云厂商的网络出口流量出于成本或安全的考虑都会做一些限制,因此最开始经常遇到一些失败的情形,迁移过程中网络突然断掉,这是由于流量超过了云厂商机房的网络阈值导致 IP 被限制了,因此我们要保证整个迁移过程中网速不能超过数据中心的阈值。

    第二个问题是高延迟,例如数据库连接中间丢包产生的现象比较多就必须做一些改进,因此 UDTS 产品需要更健壮,断点续传的功能一定要非常稳健。


    第三个问题是我们发现有很多跨国迁移用户对数据非常敏感不愿意走公网,需要单独拉一条专线,但是由于专线的厂商有一些保活机制在里面,会对数据库连接产生干扰,经常遇到网络突然中断的情况。因此专线之间的保活措施如果确实有问题可以把机制关掉,另外数据库的错误连接数一定要设置的很高,不然很容易达到阈值导致连接连不上去。

    UDTS 在多地域的支持上,除了 UCloud 国内的节点(含台湾,香港),也陆续开通了如新加坡、越南、巴西圣保罗等海外节点,后续还会逐步扩展 UDTS 服务至 UCloud 全地域节点实现全球化级别的服务。

    UDTS 双向迁移

    为什么要做双向迁移呢?假如一个用户要确保迁移万无一失,一旦迁过去一段时间后出错了,立马要回切,这里面就涉及到一个问题,一般数据迁移都是从源到目的做一个全量,然后增量同步,才会把业务切过去。但是这个过程流量只会写一边,导致不断产生的新数据并没有写到源端。


    有些场景很复杂,不只是一个关系型数据库,迁移下来有一整套比如缓存、DNS 服务或者其他服务,万一整个迁移过来后工作一段时间发现出问题了,就需要立马把业务切回去,这时从数据库的角度来说基本切不回去了,因为目的端已经产生了很多增量数据而源端没有。如果有双向同步,数据写到目标端就可以实时同步到源端,将业务随时切回来。

    还有异地双活的场景,有些用户可能一部分业务跑在这家云厂商另外一部分业务跑在另外一家云厂商上面,或两边厂商都要跑一模一样的环境,这些都需要数据同步,从而达到跨云协同或者跨云容灾。一家云商出问题以后,快速将业务切换到另外一家云商上,保证业务可用。


    双活怎么做?不管哪家云厂商数据库都支持高可用,不用同云厂商做了不同的架构改造,每一家都有自己的模式。UCloud 的关系型数据库 UDB 高可用的结构不能和 AWS 的高可用结构通过主从做实时同步,一个主库可以有很多个从库,但是一个从库只能有一个主库。如果有了双向同步,就可以实现业务的双活部署,无论从哪边写都可以实时的同步。

    双向同步有一个难点就是流量循环,为了避免这个问题,我们一般用打标签的方法,给一条语记做一个标记,迁移的时候就能识别出来这个是从哪边迁移过来直接扔掉不迁。

    打标签的方案有三种:

    • 方案一:修改数据库源码,在 binlog 中给源加标记;
    • 方案二:要求表有主键,将 insert/update 修改为 replace into;
    • 方案三:将每一条语句打包成带特殊 TAG 语句的事务,同步服务识别出 TAG,忽略整条事务。

    这里我们选择的是方案三,主要是由于方案一需要改动数据库源码,还需要数据库团队合作,且这个方案只能支持我们自己的云数据库,不能支持原生 MySQL 数据库及其它厂商的数据库;方案二限制太多,且有 sql 语句重复执行的问题。

    总结

    数据迁移作为 IT 架构不同阶段中的重要一环,无论是从本地迁移上云或是异地多活(灾备)等场景,UDTS 都能够保证数据的平滑迁移,解决传统数据迁移的诸多难题。为了进一步提高用户体验,UDTS 将不断完善当前已有功能,并支持更多同构、异构类型的数据传输服务。


    UDTS 自免费公测 3 个月以来,已经完成迁移 200 + 次,总迁移数据量达 5T。欢迎点击 http://ucloudtml.mikecrm.com/syCy5iJ 申请试用!