我正在尝试用java编写一个spark作业,它将打开一个与impala的jdbc连接,让我加载一个表并执行其他操作。我该怎么做?任何例子都会大有帮助。谢谢您!
jw5wzhpr1#
如果必须使用jdbc,您可能需要尝试在spark驱动程序中执行查询。e、 g.在python中使用impyla,您将从impala得到一个正常元组列表中的结果。稍后可以使用parallelize()将此结果转换为spark rdd。
1条答案
按热度按时间jw5wzhpr1#
如果必须使用jdbc,您可能需要尝试在spark驱动程序中执行查询。
e、 g.在python中使用impyla,您将从impala得到一个正常元组列表中的结果。稍后可以使用parallelize()将此结果转换为spark rdd。