你好,如果奥拉马能运行OpenAI/Whisper,那将非常棒,我们可以实现语音和文本的链接。关于这个路线图有什么消息吗?
dffbzjpn1#
+1,但我更喜欢whisper.cpp,它也可以在CPU上运行。
93ze6v8z2#
+1 but I'd prefere whisper.cpp which also works on cpuThat would be better, since i donot have a gpu
v8wbuo2f3#
这个的更新有吗?我们已经有原生或langchain支持了吗?
7lrncoxx4#
+1在这里,我很想能够在GPU上运行whisper!我不认为我对这一切有足够的了解来从pytorch模型创建自己的ModelFile。
p3rjfoxz5#
如果可能的话,我也想要一个较小的模型。我对这个主题了解不多,但难道较小的模型不足以检测关键词,如"Hi Alfred"吗?然后将其余部分传输到类似Whisper的东西中。
64jmpszr6#
我认为faster-whisper会更有趣,因为它更快。
umuewwlo7#
由于Ollama和whisper.cpp在某种程度上都与llama.cpp有关,也许whisper.cpp可以作为一个很好的起点。这只是我的猜测,也许@wookayin作为似乎同时关注Ollama和llama.cpp的人,有一些输入?
7条答案
按热度按时间dffbzjpn1#
+1,但我更喜欢whisper.cpp,它也可以在CPU上运行。
93ze6v8z2#
+1 but I'd prefere whisper.cpp which also works on cpu
That would be better, since i donot have a gpu
v8wbuo2f3#
这个的更新有吗?我们已经有原生或langchain支持了吗?
7lrncoxx4#
+1在这里,我很想能够在GPU上运行whisper!
我不认为我对这一切有足够的了解来从pytorch模型创建自己的ModelFile。
p3rjfoxz5#
如果可能的话,我也想要一个较小的模型。我对这个主题了解不多,但难道较小的模型不足以检测关键词,如"Hi Alfred"吗?然后将其余部分传输到类似Whisper的东西中。
64jmpszr6#
我认为faster-whisper会更有趣,因为它更快。
umuewwlo7#
由于Ollama和whisper.cpp在某种程度上都与llama.cpp有关,也许whisper.cpp可以作为一个很好的起点。这只是我的猜测,也许@wookayin作为似乎同时关注Ollama和llama.cpp的人,有一些输入?