Obsidian笔记中copilot插件介绍

Posted by TheD Blog on January 29, 2025

近些年一直都在用obsidian记笔记,包括这个博客也是用obsidian写完后enveloppe插件推送,最后由jekyll自动生成网页并经由GitHub Pages发布的,流程上非常省心。

最近也是看了deepseek的相关视频,突然想起了装上后就没用过的obsidian-copilot插件,于是把它拿出来折腾了一下。主要是GitHub Student套装中的copilot不包含api,但obsidian-copilot使用需要api支持。这次依旧没有openai的api,原本计划采用deepseek的api,但不凑巧用户太多,deepseek在升级api付费系统无法申请新api,最后采用了阿里云的模型。

obsidian-copilot提供了三种功能——chat、vault QA和copilot plus。最后一个是插件提供的服务,需要购买它家的会员才能使用,抠门如我自然是无缘见得功能有多强大。chat与通常的gpt服务类似,但是可以很方便地附带上自己的笔记。vault QA需要先利用embedding模型对库的内容进行索引,然后才能正常问答。由于是对全库进行处理,它官方推荐使用本地开源模型以减少开销。但今年过年回家只带了轻薄本,于是同样采用了阿里云的text-embedding-v3模型,处理一次大概也就五毛钱,感谢近两年的gpt内卷大战,将模型价格达到了现在的程度。

插件配置

插件的配置操作非常简单明了,如果采用官方支持的模型(openai、claude和gemini等)直接提供api-key就好。如果是非官方支持的模型它只支持openai形式的api接口,如果是DashScope形式的就得自己想想办法了。非官方支持模型可以通过指定模型名base urlapi-key进行调用。顺便说一嘴阿里云的base url是https://dashscope.aliyuncs.com/compatible-mode/v1,刚开始以为是使用HTTP方式调用时的那个url,结果并不是。

配置完模型后可以进行简单的参数调整,主要是Temperature、Token和上下文的限制,如果熟悉相信自然会配置最符合自己期望的参数,如果不熟悉采用默认值也是不错的选择。

使用结果

问答(chat)模式下的体验与网页版的普通模型差距不大,唯一的好处方便粘贴笔记实际上也可以通过手动复制粘贴实现。

用起来比较爽的还是 QA模式,在索引完成后打开索引过的笔记时会显示内容上比较相关的几篇笔记,目前看下来阿里云的embedding模型结果还是比较可以的,显示的笔记确实相关性较高。当提问时会自动选择几篇与问题比较相近的笔记作为内容一并提供过去,ai的回答与自己的知识库会比较相干,相当于自动给ai提供了一些背景资料。总体上来说还是比较满意的。