我已经使用不同的量化器从不同提供商测试了4-5个phi-3-128K-Instruct模型,所有这些都是GGUF文件,但没有一个可以在ollama上运行,

myzjeezk  于 4个月前  发布在  其他
关注(0)|答案(5)|浏览(39)

问题:为什么ollama可以导入模型,但无法运行?

答:根据提供的错误信息,问题出在创建上下文时。可能的原因是模型文件损坏或者与当前环境不兼容。建议检查模型文件是否完整,以及尝试使用其他版本的Ollama或更新的模型文件。

wqsoz72f

wqsoz72f1#

你可能在使用一个旧的llama.cpp子模块,它缺少以下合并(子模块正在使用一周前的版本,这些合并发生在昨天左右),以获得基本的Phi-3支持;

$x_{1e0f1}x$

$x_{1e1f1}x$
因此,需要类似于此的更新;

$x_{1e2f1}x$

然而,llama.cpp上的这个问题已经被重新打开,专门针对128k上下文;

$x_{1e3f1}x$

mzmfm0qo

mzmfm0qo2#

这最有意义。Llama.cpp能够加载我尝试过的至少一个模型。有简单的方法可以拉取特定的提交吗?

在2024年4月25日星期四,12:51 AM,hak8or ***@***.***>写道:你可能在使用较旧的llama.cpp子模块时遇到了ollama,它缺少以下合并(子模块正在使用一周前的版本,这些合并发生在昨天左右),以获得基本的Phi-3支持; - ggerganov/llama.cpp#6857 < ggerganov/llama.cpp#6857 > - ggerganov/llama.cpp#6852 < ggerganov/llama.cpp#6852 > 因此需要类似于此的更新; - #3665 < #3665 > 不过需要注意的是,llama.cpp上的这个问题已经被专门重新打开,用于128k上下文; - ggerganov/llama.cpp#6849 < ggerganov/llama.cpp#6849 > — 直接回复此电子邮件,查看GitHub上的内容<#3894 (评论)>,或取消订阅< https://github.com/notifications/unsubscribe-auth/ABDD3ZI2F2DOOOJ6BVTECQ3Y7CDURAVCNFSM6AAAAABGX2WNBCVHI2DSMVQWIX3LMV43OSLTON2WKQ3PNVWWK3TUHMZDANZWGM2TEMJUGU >。你收到这封邮件是因为你是这个主题的作者。消息ID:***@***.***>

qij5mzcb

qij5mzcb3#

临时解决方法是将上下文设置为60000。虽然不如128K好,但比4K要好。
这似乎对我的四块(4)12.2GiB Titan GPUs的ollama有效。其他人可能需要调整他们的上下文大小以匹配他们的硬件。

643ylb08

643ylb084#

60k上下文用于使用pruneAI的phi-3-mini-128k gguf通过ollama运行,但尝试通过langchain的ChatOllama使用它仍然会产生乱码。

self.model_name = ChatOllama(
            model=phi3-128k,
            temperature=1,
            num_ctx=32768,
            //num_keep=4,
            stop=[
                "<|user|>",
                "<|assistant|>"
                "<|system|>"
                "<|end|>"
                "<|endoftext|>"
            ]
        )

以下是我使用的模型文件:

FROM "pathto\Phi-3-mini-128k-instruct.Q4_K_M.gguf"
TEMPLATE """{{ if .System }}<|system|>
 {{ .System }}<|end|>
 {{ end }}{{ if .Prompt }}<|user|>
 {{ .Prompt }}<|end|>
 {{ end }}<|assistant|>
 {{ .Response }}<|end|>
"""
PARAMETER stop "<|user|>"
PARAMETER stop "<|assistant|>"
PARAMETER stop "<|system|>"
PARAMETER stop "<|end|>"
PARAMETER stop "<|endoftext|>"
PARAMETER num_keep 4
PARAMETER num_ctx 32768
有任何解释吗?还是我漏掉了什么?
gr8qqesn

gr8qqesn5#

在 0.1.32 中首次为 $\phi_3$ 提供了支持,转换应该在 0.1.33 中起作用。请尝试最新的 RC 并告诉我们是否仍然存在问题。

相关问题