我需要一些帮助来确定如何为将来构建/优化我的Azure体系结构。
我目前正在运行一个测试,如下所示:
我目前正在发送某种数据x1(每天700 k),如上图所示,“流分析”服务除了在数据库中摄取数据外不做任何其他事情,而不进行任何聚合或其他处理。
测试目前正在运行,没有任何问题,但我担心将来可能会遇到困难,因为我想连接更多数据(x2、x3...),这当然会增加发送的数据量。
现在我的问题是:
我很难弄清楚如何设置“Event Hub”和“Stream Analytics”服务来处理不断增加的新数据。
1.目前我有一个具有一个分区的“事件中心”。随着数据量的增加,这是否足够,流分析服务是否仍能跟上处理速度?
1.我是应该为每个不同的数据类型(x1、x2...)创建一个单独的**“事件中心”**,还是应该创建一个具有多个分区的“事件中心”?
1.对于每种数据类型,是否有一个具有多个分区的单独“事件中心”?
我很难理解分区的概念以及如何实现它们。
有没有人有类似的架构,可以给予我一些建议。
先谢谢你
1条答案
按热度按时间jq6vz3qz1#
您可以将EventHub分区看作是一个多车道高速公路。4车道高速公路的吞吐量比1车道高速公路的吞吐量大。单车道高速公路的唯一好处是处理将按顺序进行(FIFO)。但是如果这不是命令/要求,您应该将分区设置为最大(32)使用eventhub流接收的全部功能。如果发布者不将消息定向到特定分区,Eventhub将自动将消息分发到不同的分区。您可以在这里找到有关分区的信息。
另一个允许eventhub将来可扩展的选项是设置eventhub的吞吐量,使其在最小值/最大值之间自动缩放Link,例如1 TU-4 TU。
同样,您可以将流分析设置为自动缩放链接。