我们可使用本地大型语言模型,如Mistral、Llama等,来给文本做总结,相比在线的 Kimi ,ChatGPT, 我们不用担心数据泄露,因为整个操作都是在本地电脑完成的。
我们用 ollama 举例
首先安装 ollama https://ollama.com/ ,
macOS 右键菜单自带服务菜单,我们可以通过服务选择一段文本发送给本地 llm 来达到目的。
也是跨应用发送文本,为了达到这个目的,我们还需要借助 Automator。
创建一个快捷操作:
选取两个动作:
分别输入以下内容:
/usr/local/bin/ollama run mistral summarize:
on run {input, parameters}
display dialog (input as text)
return input
end run
之后保存。
然后就可以使用了:
这是结果。
我的使用感受,有点慢。后续慢慢优化吧。
我们可以提前运行一下这个
ollama run mistral
命令,把相应的模型提前下载好。这样使用起来就反应就比较快了。
不然4个G的模型还是要花费一些时间的。
ollma
完!