我希望构建一个spark结构化的流媒体作业,它可以执行以下操作(查找一个巨大的非静态数据集)读Kafka(json记录)对于每个json记录获取{用户密钥}通过{user\u key}从巨大的phoenix表(非静态)过滤器读取进一步的df变换写入另一个phoenix表如何根据kafka消息查找大量的非静态数据集?
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!