LLocalSearch

问答引擎,本地部署

Key Takeaway

  • 问答引擎是搜索引擎的下一个形态,能直接提供组织好的内容而非网页链接。
  • LLocalSearch是一个开源项目,允许用户在本地部署问答引擎,并可联网搜索。
  • LLocalSearch的基本逻辑是:本地大模型理解问题 -> 转换为搜索关键词 -> 搜索相关资料并存入本地向量数据库 -> 结合问题和资料推理并输出答案。
  • 部署LLocalSearch需要Ollama和Docker,并下载Function Calling模型和嵌入模型。
  • LLocalSearch目前仍处于早期阶段,但提供了本地化问答引擎的潜力。

Full Content

搜索引擎的下一个形态,肯定是问答引擎。

因为我们要的不是网页,而是网页里的内容。

要把网页这个壳剥开,把里边的一部分内容提取出来,反馈给用户,只有AI能办到。

我在年初就订阅了Perplexity,它是目前最好的问答引擎。年度订阅是200美金,有点肉痛,但是真的能完全替代Google。不过最近我还是把它给退订了。因为这家公司宣布,要在搜索结果中植入广告。

我对他们真挺失望的:以为能走出一条不一样的路,结果还是回去卖广告。而且这次有AI的帮助,鬼知道会搞出什么套路来。

不过,幸运的是,咱们很快就会有替代品了。

LLocalSearch是一个开源项目。目前可以用,但还不完善。如果你想尝鲜的话,可以来试试。

就像名字里说的那样,LLocalSearch能让你把一整套问答引擎都部署在自己的电脑上。

这边有一个概念我得先澄清一下:在本地运行,不代表不能联网。

这个开源项目,它完全是用我PC的算力,用我在PC上安装的大模型。但同时它具备联网的能力,这样才能帮咱们查资料,对吧?所以这是不矛盾的。

我先给你看一下效果,再说怎么安装。

左边是产品的样子,右边是资源的使用情况。

因为我开着OBS在录制,所以GPU的使用会比较高。如果没OBS影响的话,主要消耗的是内存。

LLocalSearch的基本逻辑是:

当你提出一个问题,本地大模型会先理解你的意思,然后把问题转换成适合拿去搜索的一组关键词。

接着,它会帮你去网上搜索所有相关资料,把找到的资料都放到本地向量数据库里,这边用的是Chroma DB。

最后,再把问题和资料结合起来做推理,输出最终答案。

在前一个问题的基础上,你可以继续追问。

如果你对整个处理过程不放心,可以点击右上角的按钮,把每个步骤都展开。

如果你也想安装,去GitHub上搜这个名字就能找到:LLocalSearch。我在知识星球里也发过链接,已经加入的小伙伴可以自取。

在安装项目之前,确保你已经安装好Ollama和Docker这两款软件——跑大模型需要Ollama,运行这个项目需要Docker。

安装好之后,通过Ollama去下载这两个模型:

一个是knoopx / hermes-2-pro-mistral,它会负责Function Calling。你可以简单理解为就是调用各种工具、帮你干活的。

一个是nomic-embed-text,嵌入模型,拥有比较大的上下文窗口。

当软件和模型都下载、安装好了,就可以去把项目克隆到本地。然后通过cd命令进入项目的文件夹,运行docker-compose up这行命令,就会自动安装了。

最后,如果一切顺利的话,打开localhost:3000这个本地链接,就可以正常使用了。

目前LLocalSearch还比较糙,不过大体的框架是有了。我看作者就一个人,是个德国小哥。你如果想支持这个项目的话,可以到GitHub上Sponsor他。一个月5美金、15美金都行。如果你是大佬、愿意赞助800美金的话,德国小哥就能买一块新显卡了——这不比你给那些女主播刷火箭有功德多了。

最后,如果你还没用过问答引擎,也不想搞这么麻烦去本地部署一个的话,可以试试国产的,比如360AI搜索和秘塔AI搜索。还是那句话:

先用起来,比什么都重要。

OK,以上就是本期内容。有什么问题想问我的话,来知识星球找我。那咱们下期见!