您的贡献请求是否与问题相关?请描述。
我是 OpenLLMetry 的维护者,我们在其中为 OpenTelemetry 上的 LLM 提供商进行跟踪和指标的仪器化。
我想通过在这里采用 OpenLLMetry SDK 来调整 promptflow 报告这些指标和跟踪的方式。
详细说明功能和价值。
通过调整 LLM 跟踪和指标的语义约定,使其能够被不同的可观察性平台支持;附加框架、模型和矢量数据库进行仪器化。
附加上下文
我们正在与 otel community 合作,使我们定义的属性成为官方语义约定,我正在领导 LLM semantic conventions WG 完成这项工作。
5条答案
按热度按时间hmmo2u0o1#
感谢@nirga,promptlfow正在与open telemetry集成,即使用open telemetry标准来发出由promptflow和内部调用(如OpenAI)产生的跟踪。我写了一篇关于这个的文章,其中演示了如何使用Prompt flow和OpenTelemetry追踪LangChain应用程序。这篇文章尚未合并,因此还不适合客户使用。在这个示例中,我使用了opentelemetry-instrumentation-langchain包提供的Traceloop。我认为这是由OPenLLMetry提供的。您是否希望将其与此对齐?
zwghvu4y2#
是的,但不仅仅是这样。还要对Promptflow本身创建的span进行对齐:
3df52oht3#
感谢@nirga联系我们。我在你的PR中有一些评论,让我们在那里讨论详细信息。
tzxcd3kk4#
感谢@zzn2!之后,使用这些是否也有意义?
cuxqih215#
是的,当它稳定时,我们可以与该约定保持一致。