Perplexica

Perplexica:部署完全属于你的问答引擎

Key Takeaway

  • Perplexica是一款开源的问答引擎,旨在提供Perplexity的本地部署替代方案,具有高度自由度。
  • Perplexica支持云端和本地模型,可通过OpenAI、Anthropic、Grok的API调用,或通过Ollama调用开源大模型。
  • 部署Perplexica需要Docker,并可通过docker compose up命令进行安装。
  • Perplexica的UI与Perplexity相似,支持Copilot功能,能根据提问生成多个搜索关键词以提升效果。
  • Perplexica还支持云端部署,用户可在RepoCloud等平台一键部署,实现个人专属的问答引擎。

Full Content

我一直想在本地部署一套问答引擎。

在我构想的AI工作系统当中,问答引擎是基础。但是,现在做得最好的Perplexity,它对网络环境挺挑的。想用的时候突然用不了,就很烦。

所以很多时候不是我不想为SaaS付费,而是这客观条件逼得我只能走本地部署这条路。

好在这类型的项目挺多的。我之前就介绍过一款,叫LLocalSearch。折腾了一圈之后,我目前最满意的是Perplexica。

从名字就能看出来,这款产品就是照着Perplexity抄的。放在一起对比,UI几乎一模一样。

我之所以对它满意,主要原因是,它的自由度很高。

在模型方面,你可以走云端,通过OpenAI、Anthropic或者Grok的API去调用相应的模型。你也可以走本地,通过Ollama去调用开源大模型。

我把之前安装的都删了,重新走一遍,大家就明白了。

先把Docker打开,咱们一会儿需要使用。接着老规矩,通过git clone把项目下载下来。然后把config这个文件前边的sample去掉。

对大模型的配置,可以在config里进行。比如填上OpenAI的API Key,或者Ollama的地址。如果你没有改端口的话,那就是默认的11434。要注意:不是填localhost:11434,而是host.docker.internal:11434,因为咱们是在docker里运行。

这边没填也没关系,等全部安装完成之后,可以在应用里边的设置页面进行配置。

最后,使用docker compose up这行命令,就会自动下载、安装需要的所有东西。等个几分钟,就可以通过localhost:3000这个本地页面使用了。

咱们来测试一下效果。先试试GPT-4o。可以看到,大概四到五秒钟能给出结果,还是很不错的。回答的来源,还有追问,都跟Perplexity一样。

如果打开Copilot选项,那么AI会根据你的提问去多生成几个,一起拿去搜,这样能提升整体效果。

接着试试开源模型的效果。语言模型用qwen2,嵌入模型用nomic。第一次启动有点慢,需要加载一下。后边明显快多了。

前边说了,我喜欢Perplexica的主要原因是它的自由度。这个自由度不仅限于模型。

在部署方面,除了本地部署,它还支持云端部署。在官方GitHub页面下方,就有一键部署的按钮。

它应该是跟RepoCloud有合作。你在上边注册之后,会给3美金的免费额度。这时只需要搜索项目名称,找到Perplexica;然后填写OpenAI API Key,以及用户名和密码;最后等上大概5分钟,项目就在云端部署好了。

可以看到,RepoCloud给了一个链接,我们可以在桌面端、移动端随意使用。比如我在iPad上打开,用刚才设置的用户名和密码登陆,就会看到同样的界面。运行起来,速度还OK。RepoCloud会根据你的使用量auto-scaling。

我发现,这种个人专属的感觉特别棒。强烈建议大家试试。不管你是自己使用还是团队共用,都可以。

OK,以上就是本期内容。接下来我准备详细研究一下Perplexica和它所使用的搜索引擎SearXNG。有新发现的话,我会分享到newtype社群。还没加入的小伙伴抓紧加入吧。那咱们下期见!