[贡献请求] 将promptflow跟踪和指标与OpenLLMetry对齐

bq9c1y66  于 6个月前  发布在  其他
关注(0)|答案(5)|浏览(63)

您的贡献请求是否与问题相关?请描述。

我是 OpenLLMetry 的维护者,我们在其中为 OpenTelemetry 上的 LLM 提供商进行跟踪和指标的仪器化。
我想通过在这里采用 OpenLLMetry SDK 来调整 promptflow 报告这些指标和跟踪的方式。

详细说明功能和价值。

通过调整 LLM 跟踪和指标的语义约定,使其能够被不同的可观察性平台支持;附加框架、模型和矢量数据库进行仪器化。

附加上下文

我们正在与 otel community 合作,使我们定义的属性成为官方语义约定,我正在领导 LLM semantic conventions WG 完成这项工作。

hmmo2u0o

hmmo2u0o1#

感谢@nirga,promptlfow正在与open telemetry集成,即使用open telemetry标准来发出由promptflow和内部调用(如OpenAI)产生的跟踪。我写了一篇关于这个的文章,其中演示了如何使用Prompt flow和OpenTelemetry追踪LangChain应用程序。这篇文章尚未合并,因此还不适合客户使用。在这个示例中,我使用了opentelemetry-instrumentation-langchain包提供的Traceloop。我认为这是由OPenLLMetry提供的。您是否希望将其与此对齐?

zwghvu4y

zwghvu4y2#

是的,但不仅仅是这样。还要对Promptflow本身创建的span进行对齐:

  • 像提示和令牌计数这样的事物
  • 将提示密钥作为属性发送到OpenAI span
  • 发送工作流和任务span
3df52oht

3df52oht3#

感谢@nirga联系我们。我在你的PR中有一些评论,让我们在那里讨论详细信息。

tzxcd3kk

tzxcd3kk4#

感谢@zzn2!之后,使用这些是否也有意义?

cuxqih21

cuxqih215#

是的,当它稳定时,我们可以与该约定保持一致。

相关问题