像用GPT一样使用开源大模型
Key Takeaway
- LM Studio等工具能让用户像使用GPT一样,通过Python脚本和框架(如LangChain、Llama Index)增强和限制开源大模型。
- 本地运行开源大模型可以实现知识库、搜索引擎等增强功能,并能根据工作流程限制模型发挥。
- LM Studio提供本地服务器功能,模拟OpenAI API接口,使得基于GPT开发的应用可以无缝迁移到开源大模型。
- 这种本地化解决方案不依赖云端算力,无需支付token费用,为用户提供了开发定制化AI应用的自由。
- 文章强调了本地部署开源大模型在成本和灵活性方面的优势。
Full Content
在本地跑开源大模型,如果只是用来简单对话,那就没什么意思了。我们肯定是希望像用GPT一样,通过Python脚本,借助LangChain、Llama Index等框架、工具,对大模型进行增强和限制,比如:
- 增强:通过搭载知识库、搜索引擎,提升大模型信息的及时性,补充某个领域的知识。
- 限制:根据给定的工作流程、思考路径来处理任务,而非随意发挥。
OpenAI提供API接口,让这一切变得简单许多。其实通过LM Studio这类软件,也可以在开源大模型的使用上,达到同样的效果。
在上期视频中,我介绍了LM Studio的基本用法。
你可以把它简单理解为:就像国内的游戏模拟器平台,把模拟器、游戏库全都打包好了。不需要做复杂的调试,下载好了直接可以玩。
在此基础上,LM Studio还提供了进阶用法:
作为本地服务器,提供类似于OpenAI的API接口服务。
方法很简单:
- 加载量化版的大模型。
- 启动本地服务器。
- 获取本地服务器的端点,设置成config_list中的base_url
如果之前有基于GPT开发应用的话,看到这个代码应该会很亲切。
它基本上就是把调用OpenAI API的部分做个替换:
- api_key不需要填真实的,可以用“not-needed”来替代。
- model部分,原本选择gpt-3.5或者gpt-4,现在填“local-model”
脚本其它部分都不需要变动。这意味着,之前的Python脚本都可以平移过来,给到开源大模型使用。
比如,使用微软的AutoGen配置Agent,对config_list做一些改动就行,照样导入llm_config。
不依赖云端算力,不用支付token费用,基于LM Studio和开源大模型,完全可以开发一套适合自己需求的本地解决方案,这是最吸引我的地方。