如何在apachespark中为文本文件创建hdfs?

dbf7pr2w  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(389)

这是我第一次处理大数据和使用集群。
为了在从属节点之间分配字节,我读到使用apachespark的hdfs很容易。
如何创建hdfs?

sulc1iza

sulc1iza1#

如果您只是想尝试和学习,那么即使没有hdfs,也可以使用apachespark来处理文件。看看spark快速入门。
如果您确实需要hdfs集群,那么最好安装一个大型hadoop发行版。cloudera、hortonworks、mapr都提供简单免费的安装和付费支持服务。

相关问题