手把手教程!使用AnythingLLM+DeepSeek 部署本地知识库

deepseek本地部署最简教程——搭建个人AI知识库

尽管本地化部署的DeepSeek模型在算力规模和功能完备性上无法媲美云端全量版本,但只要喂给它「独家秘方」——也就是我们需要使用到的文档、代码、笔记这些干货,它立马就能变身成你的专属知识小助手!当然,AnythingLLM还具备其它功能,各位可自行探索。需要注意的是,本地部署的AI回答精准度仍然受到硬件性能的制约。建议开发者根据硬件配置选择适合的模型。

1.准备

AnythingLLM。它能帮你把电脑里的文档(PDF/Word/代码文件都行)变成会聊天的知识库,操作就像把文件拖进文件夹一样简单!

用这个工具你可以:

随时提问:
保护隐私:所有资料都存在自己电脑里,不怕泄露
跨格式支持:无论是技术文档、会议记录还是代码片段都能处理

整个过程只需要三步:

把文件拖进软件

等它自动分析(喝杯咖啡的时间)

开始用自然语言提问

相当于给你的电脑配了个资料管家,当我们需要的时候随时找它!

2.下载AnythingLLM

https://anythingllm.com/desktop

手把手教程!使用AnythingLLM+DeepSeek 部署本地知识库

使用管理员模式运行安装程序

手把手教程!使用AnythingLLM+DeepSeek 部署本地知识库

3.配置

我之前已安装好ollama.先确保ollama是开启状态,然后搜索ollama

手把手教程!使用AnythingLLM+DeepSeek 部署本地知识库

选择deepseek模型,可以根据您安装的模型版本选择
手把手教程!使用AnythingLLM+DeepSeek 部署本地知识库

在 AnythingLLM 的本地部署配置中,MAX Token(最大令牌数) 是一个关键参数,主要用于控制语言模型(LLM)处理文本时的输入和输出长度限制。

语言模型(如 GPT)单次处理的文本长度受硬件和算法限制。MAX Token 决定了模型单次请求能处理的 输入+输出 的 Token 总数上限。超过此值会导致截断或报错。

Token 并非严格等于单词或汉字。例如,英文中 1 Token ≈ 4 字符,中文中 1 汉字 ≈ 2-3 Token

在问答或生成场景中,该参数直接影响 AI 生成回答的最大长度。例如设置为 512,则回答内容会被限制在约 512 个 Token(约 380 个汉字或 700 英文单词)。

点击下一步

手把手教程!使用AnythingLLM+DeepSeek 部署本地知识库

填写自己的邮箱
手把手教程!使用AnythingLLM+DeepSeek 部署本地知识库

填写工作区名称
手把手教程!使用AnythingLLM+DeepSeek 部署本地知识库

如果需要调整语言,请参考
手把手教程!使用AnythingLLM+DeepSeek 部署本地知识库

手把手教程!使用AnythingLLM+DeepSeek 部署本地知识库

上传需要用于学习的文档

手把手教程!使用AnythingLLM+DeepSeek 部署本地知识库

将文档放到工作区,然后移动到自己需要的工作台并保存。

手把手教程!使用AnythingLLM+DeepSeek 部署本地知识库

手把手教程!使用AnythingLLM+DeepSeek 部署本地知识库

软件会自动更新您的工作台

手把手教程!使用AnythingLLM+DeepSeek 部署本地知识库

4.测试结果

可以根据您上传的文档,提出问题,测试Deepseek的学习和理解能力,可以看到学习到了我上传的文档并列出了具体的内容。

手把手教程!使用AnythingLLM+DeepSeek 部署本地知识库

 

阅读剩余
THE END