我希望定期(比如每周)更新我的开发数据库以匹配我的生产数据库。是否有方法使用Azure本身来完成此操作,或者我需要编写脚本来完成此操作?谢谢大家!
csga3l581#
你可以使用复制活动,然后使用计划触发器在Azure Data Factory中执行该活动。1.select 写入行为。
2.添加一个时间表触发器和设置运行间隔根据您的需要。
j1dl9f462#
我对你的情况有一个想法,但我不确定它是否符合你的要求。这是an answe r从@大卫Makogon到另一个问题。你认为如何手动导出和导入文档?或者尝试创建一个函数来执行这些操作,可以通过时间触发器激活。我试过迁移工具,可以导入数据。x1c 0d1x
gcxthw6b3#
现在最简单的方法可能是设置生产帐户以使用continuous backup model。这允许自助式时间点恢复到新的Cosmos帐户,并且可以设置为保留30天(收费)或7天(当前免费)。恢复成本基于恢复的数据的GB大小,但这可能比从源阅读批处理并将其写入目标所涉及的请求单元的成本更低(除非容器很大,并且您只是在写入增量更改)。这方面的主要警告是
4ioopgfo4#
我建议使用Azure数据工厂。
4条答案
按热度按时间csga3l581#
你可以使用复制活动,然后使用计划触发器在Azure Data Factory中执行该活动。
1.select 写入行为。
2.添加一个时间表触发器和设置运行间隔根据您的需要。
j1dl9f462#
我对你的情况有一个想法,但我不确定它是否符合你的要求。这是an answe r从@大卫Makogon到另一个问题。你认为如何手动导出和导入文档?或者尝试创建一个函数来执行这些操作,可以通过时间触发器激活。
我试过迁移工具,可以导入数据。x1c 0d1x
gcxthw6b3#
现在最简单的方法可能是设置生产帐户以使用continuous backup model。
这允许自助式时间点恢复到新的Cosmos帐户,并且可以设置为保留30天(收费)或7天(当前免费)。
恢复成本基于恢复的数据的GB大小,但这可能比从源阅读批处理并将其写入目标所涉及的请求单元的成本更低(除非容器很大,并且您只是在写入增量更改)。
这方面的主要警告是
4ioopgfo4#
我建议使用Azure数据工厂。