[教程] 用Ollama+自定义引擎调教内网模型 (Qwen2) #324
anartigone
started this conversation in
Show and tell
Replies: 0 comments
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
-
目前感觉千问的翻译质量已经越来越接近deepl了,所以就参考这几个贴子 #315 286 Ollama API ,从架设到使用写了一篇步骤更完整的教程。
之前用Text-generation-webui的api插件搞过ETCP的对接,各种出问题搞不定。现在换了Ollama一下子就成功了,非常感激前人的尝试。
安装Ollama (Linux版)
添加网络访问环境
sudo systemctl edit ollama.service
应用改动
下载模型
ollama pull qwen2
查看模型
ollama list
启动模型
ollama run qwen2
ETCP的自定义引擎:
HTTP请求设置 (根据硬件速度调整)
API请求的相同功能也可以通过Modelfile来实现
nano Modelfile
然后创建
ollama create qwen2-t -f Modelfile
并运行ollama run qwen2-t
确认参数
ollama show qwen2-t --parameters
并修改模板"model": "qwen2-t:latest"
用本地模型的好处就是可以在参数和提示词里调教它,比如deepl的繁简混出问题就能在这里得到解决。其他的比如标点、你/您之类的问题也一样可以加提示词。
我用的这套参数是极力保持措词一致性的,这样会少很多在词典之外的翻译结果的混沌。不过由于千问模型本身就随机性极高,所以也没办法调到十分理想。
除此之外,这个本地服务还能同时供应沉浸式翻译和openai-translator,可谓一鱼三吃了。
Beta Was this translation helpful? Give feedback.
All reactions