我们在Kafka有avro数据,其中数据包含“fet”等特殊字符ää我ö".我们正在尝试使用spark流作业将此数据插入配置单元。但我们观察到,在使用spark流处理这些数据时,特殊字符会变成垃圾值,比如“fet×l”。如何使用spark接收具有特殊字符的数据?
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!