无法在apachespark上执行来自aspectj的通知

cx6n0qe3  于 2021-07-14  发布在  Spark
关注(0)|答案(0)|浏览(243)

我的spark项目使用maven进行依赖关系管理。我正在尝试使用aspectj向spark应用程序注入错误。
我使用aspectj集成构建了我的项目,https://www.mojohaus.org/aspectj-maven-plugin/multimodule/multimodule_strategy.html
我的项目结构是这样的,
父模块
----->spark应用程序模块
----->aspect\模块(这里提供了与aspectj相关的代码和spark驱动程序的主要方法,这也依赖于spark\应用程序\模块)
----->aspect\父\模块(它依赖于aspect\模块,用于编译后编织)
我已经将所有jar捆绑在一起,因此spark\u app\u模块和aspect\u模块中的类都存在于捆绑的jar中。
现在,我已经将aspectjt.jar和aspectjweaver.jar复制到两台客户机(从这里我将运行spark应用程序)以及spark主机和工作机。基本上是把它们复制到spark的jar里。
当我运行main方法时,建议是从aspect\u模块中的驱动程序代码执行的,对于spark\u app\u模块中spark executor代码的一部分的类,建议不会被触发。
是否缺少任何配置?任何文件,教程或任何形式的帮助是感激的。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题