关闭。这个问题需要更加突出重点。它目前不接受答案。
**想改进这个问题吗?**通过编辑这篇文章更新这个问题,使它只关注一个问题。
去年关门了。
改进这个问题
我已经做了一个聊天应用程序,现在我存储了所有用户聊天的完整历史记录。
我使用django作为后端,postgres作为数据库。我每天的活跃用户接近10万,每天发送100万条信息。
所以我想知道如何水平缩放postgres数据?我听说在sql数据库中切分并不简单,而且它们对扩展也有限制。我听说谷歌的大表可以扩展到100 PB,而postgres很难扩展到这个级别。是真的吗?如果不是的话,目前如何衡量?另外,如何处理历史上的消息,它们最终会变得太大而无法处理?
另一个问题是,我是否应该转移到另一个数据集来处理诸如mongodb、cassandra或其他任何数据集之类的扩展,因为这让我担心最终我将不得不扩展到每月数十亿条消息的级别,如果我现在可以转移,那会更好。我不想过度思考或过度分析,但我只想了解如何去做
1条答案
按热度按时间cqoc49vn1#
... 我听说google的bigtable可以扩展到100 PB
bigtable确实是一个PB级的数据库。请注意,有些人已经将postgresql扩展到了PB级,例如yahoo!早在2008年:
https://www.quora.com/who-has-the-largest-postgresql-database
正如在评论中提到的,这看起来更像是一个堆栈设计问题,您可能还想看看http://highscalability.com/.