中国区的AWS支持0etl integration已经一段时间了,目前北京区和宁夏区均支持。中文翻译为零ETL集成。
当前支持的引擎是Aurora MySQL数据托管式导出到Redshift. Global区域支持Aurora PostgreSQL. 中国区后续也会陆续出现此功能的。
功能介绍文档:
【1】使用 Aurora 与 Amazon Redshift 的零 ETL 集成 - Amazon Aurora
同账号下配置0etl integration的详细测试步骤如下:
配置文档:
aurora端:
【2】https://docs.amazonaws.cn/AmazonRDS/latest/AuroraUserGuide/zero-etl.setting-up.html
redshift端:
【3】https://docs.amazonaws.cn/AmazonRDS/latest/AuroraUserGuide/zero-etl.setting-up.html#zero-etl-setting-up.data-warehouse
前提条件:
0etl的前提条件还是比较苛刻的,版本,参数,必修要启用Encryption, 并且只能同区域实现配置。具体请参考文档[2]和[3], 真的是少一条都不行。
创建步骤在如下文档里有写,是很清楚的:
[4] 创建 Aurora 与 Amazon Redshift 的零 ETL 集成 - Amazon Aurora
我从Console上把步骤截图,参考如下:
1. 点点点
2. 起名字:
3. 选RDS:
4. 一定要filter data, 否则整个Aurora MySQL RDS的数据都导入到Redshift里了,很贵,时间也会很长:
5. 选择本账号下Redshift集群,Provisioned或者Serverless都可以:
如果选到一个Redshift cluster但是Redshift cluster没有相应的权限,没关系,可以点击“fix for me”然后点下一步,让RDS来修复或者添加权限是好用的。
如果不想让RDS来修复权限,那么可以自己配置IAM:
权限文档:开始使用零 ETL 集成 - Amazon Redshift
{"Version": "2012-10-17","Statement": [{"Effect": "Allow","Principal": {"Service": "redshift.amazonaws.com"},"Action": "redshift:AuthorizeInboundIntegration","Condition": {"StringEquals": {"aws:SourceArn": "source_arn"}}},{"Effect": "Allow","Principal": {"AWS": "source_principal"},"Action": "redshift:CreateInboundIntegration"}]
}
6. 点击continue:
7. 点next:
8. 接下来就是创建了,首先会保持在creating阶段很久,这期间无法删除,无法更改。大概需要30分钟。
9.一些杂七杂八的注意事项和容易出现的报错:
在真正创建0etl之前,建议一定要检查要进行迁移的数据。
如果源表没有Primary Key,那么integration最终会failed.
并且0etl处于异常状态的时候,不支持修改这个integration,也就是无法通过修改表增加主键,再把这个表reload一遍。这一点不如DMS服务更方便。
同时根据如下文档,在创建集成后添加筛选条件,Aurora 会重新评估筛选条件,所有受影响的表都需要重新同步。
【5】Aurora 与 Amazon Redshift 零 ETL 集成的数据筛选 - Amazon Aurora
再有,0etl受数据库本身的limitation影响。比如,redshift 中对于 varchar 等字符类型的最长仅支持 65535 长度。所以超出的长度无法传入 redshift 中.有些数据类型会在导入 redshift 时会被转换成 varchar,这些类型的数据在通过 zero-ETL 传入 redshift 时,如果超过 65535 时都有可能遇到报错。
报错如下:
1. [长度问题]Replicating initial data for table test1.test failed. Column 'test' length 414209 is longer than in the table 65535. Check the data that might be causing issues. If the issue persists, contact AWS Support.
2. [长度问题]Replicating initial data for table test2.test failed. Column 'test' length 78947 is longer than in the table 65535. Check the data that might be causing issues. If the issue persists, contact AWS Support.
[6] 向源 Aurora 数据库集群中添加数据并在 Amazon Redshift 中对其进行查询 - Amazon Aurora
下一篇会更新跨账号配置0etl步骤。