r致命错误

izj3ouym  于 2021-05-29  发布在  Hadoop
关注(0)|答案(0)|浏览(244)

我正在尝试使用r通过'rhdfs'和'rmr2'包破坏一些日志文件。源文件位于云的本地linux目录中,而我试图存储该文件的目标文件夹位于hdfs集群中。
直到昨晚代码停止运行,每次都抛出多个不同的错误,代码才正常工作。系统配置与以前相同。我试着一条一条地运行所有的线路,现在我得到的错误是,


# A fatal error has been detected by the Java Runtime

Environment:

# 

# SIGSEGV (0xb) at pc=0x00007fddc769ab15, pid=8466, tid=0x00007fddc9fa4940

# 

# JRE version: OpenJDK Runtime Environment (8.0_181-b13) (build 1.8.0_181-b13)

# Java VM: OpenJDK 64-Bit Server VM (25.181-b13 mixed mode linux-amd64 compressed oops)

# Problematic frame:

# C  [libc.so.6+0x82b15]

我正在运行下面的代码,在这之前它运行得很好,

filenames <- hdfs.ls("new")$file
f<-lapply(regmatches(filenames,regexec("/user/akashb/new/(.*)",filenames)), `[`, 2L)

  x <- from.dfs(filenames[1],format="text") $val
  tf <- as.character(f[1])
  dts <- paste("/user/akashb/new2/",tf, ".csv", sep = "")

x中的值也显示良好。但当我试着跑的时候:

x <- x[grep("ads.xxx.com",x,ignore.case = T,invert=T)]

上面的错误正在显示。(“致命错误…”)另外,当我通过unix shell运行脚本时,生成的错误是:


***caught segfault***

address 0x1d146408, cause 'memory not mapped'

我对java一点也不熟悉,所以根本无法诊断错误。我尝试了一些stackoverflow推荐的方法,比如卸载和重新安装所有非基本的包,但是它们没有用。任何帮助都将不胜感激。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题