在QdrantVectorStore中使用本地fastembed稀疏模型的方法如下:
- 首先,确保你已经将Fastembed库下载到离线环境中。
- 然后,从Fastembed库中获取稀疏模型的文件路径。例如,如果你使用的是
prithivida/Splade_PP_en_v1
,那么文件路径可能是/path/to/your/local/fastembed/models/prithivida/Splade_PP_en_v1
。 - 在创建QdrantClient时,设置
SPARSE_MODEL
参数为本地稀疏模型的文件路径。
以下是一个示例代码:
from qdrant_client import QdrantClient, models
class HybridQdrantClient:
DEFAULT_HOST = "[http://localhost:6333](http://localhost:6333)"
DENSE_MODEL = "BAAI/bge-large-en-v1.5"
SPARSE_MODEL = "/path/to/your/local/fastembed/models/prithivida/Splade_PP_en_v1"
CACHE_DIR = "/data/models/fastembed_cache/"
# 创建QdrantClient示例
client = QdrantClient(host=HybridQdrantClient.DEFAULT_HOST)
这样,你就可以在QdrantVectorStore中使用本地Fastembed稀疏模型进行混合Qdrant搜索了。
3条答案
按热度按时间brtdzjyr1#
Just override the sparse functions
llama_index/llama-index-integrations/vector_stores/llama-index-vector-stores-qdrant/llama_index/vector_stores/qdrant/base.py
Line 147 in 1fc48b7
| | sparse_doc_fn: Optional[SparseEncoderCallable] =None, |
lkaoscv72#
这是默认的
llama_index/llama-index-integrations/vector_stores/llama-index-vector-stores-qdrant/llama_index/vector_stores/qdrant/utils.py
第67行 in 1fc48b7
| | deffastembed_sparse_encoder( |
pdkcd3nj3#
@logan-markewich ,谢谢,我会采纳你的建议并将结果反馈回来,以便他人受益。