langflow ``` /api/v1/custom_component/update 400 bad request ```

zpjtge22  于 5个月前  发布在  其他
关注(0)|答案(1)|浏览(80)

Bug描述

{
"detail": "1个验证错误,MessageInput的值类型无效<class 'dict'> [type=value_error, input_value={'text_key': 'text', 'dat...: '2024-07-31 05:41:44'}, input_type=dict]
要了解更多信息,请访问 https://errors.pydantic.dev/2.8/v/value_error "
}
DropdownInput(
name="model_name",
display_name="Model Name",
value="llama3",
info="参考 https://ollama.ai/library 以获取更多模型。",
refresh_button=True,
),
是因为ollama.ai更改为ollama.com了吗?所以这个插件无法正确获取模块名称吗?

重现步骤

在Ollama插件中,点击模块名称刷新

预期行为

显示模块名称

谁能帮忙?

  • 无响应*

操作系统

docker镜像1.0.14

Langflow版本

1.0.14

Python版本

None

截图

  • 无响应*

流程文件

  • 无响应*
xxls0lw8

xxls0lw81#

是的,这个问题可能是由于域名从 ollama.ai 更改为 ollama.com 导致的,导致插件无法正确检索模型名称。在 ChatOllamaComponent 类中的 get_model 方法从使用 base_url 值构建的 URL 中检索模型名称。如果 base_url 仍然设置为 ollama.ai ,它将无法正确检索模型。
以下是相关的代码片段:

def get_model(self, url: str) -> list[str]:
    try:
        with httpx.Client() as client:
            response = client.get(url)
            response.raise_for_status()
            data = response.json()

            model_names = [model["name"] for model in data.get("models", [])]
            return model_names
    except Exception as e:
        raise ValueError("Could not retrieve models. Please, make sure Ollama is running.") from e

要解决此问题,请确保将 base_url 更新为使用 ollama.com 而不是 ollama.ai1(https://github.com/langflow-ai/langflow/blob/dev/src/backend/base/langflow/components/models/OllamaModel.py)。

  • 要继续与 Dosu 交谈,请提及 @dosu。*

相关问题