技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode

京东云开发者
• 阅读 50

作者:京东科技 杨菲

前言

在科技浪潮汹涌澎湃的今天,人工智能与软件开发工具不断迭代升级,深度融合前沿技术来满足个性化知识管理与开发需求,已然成为技术爱好者和开发者们竞相探索的方向。本文将利用 Ollama、Deepseek-R1、AnythingLLM 搭建强大的本地个人知识库,并详细介绍 Continue 在 VScode 中的本地集成,带你解锁全新的技术应用体验,开启高效知识管理与开发的新征程。

一、Ollama+Deepseek-R1+AnythingLLM本地个人知识库搭建

在搭建强大的本地个人知识库以及提升开发效率的技术体系中,Ollama、DeepSeek-R1 和 AnythingLLM 扮演着举足轻重的角色。Ollama 作为模型运行与管理工具,是整个技术架构中的关键枢纽,负责模型的高效调度;DeepSeek-R1 凭借其卓越的语言理解和生成能力,为后续的知识处理和应用提供核心支持;AnythingLLM 则凭借丰富功能,助力构建多样化知识体系,丰富知识储备。

1、Ollama安装

1) 安装前了解

Ollama 是什么?

Ollama 是一个开源项目,用于运行和管理大型语言模型(LLM)的工具或平台。它提供了一个简化的框架,让用户能够在个人计算机或服务器上部署和运行这些模型,而无需依赖云端服务。Ollama 支持多种模型,并允许用户通过命令行或 API 与模型进行交互。

为什么 DeepSeek 本地化部署先安装 Ollama?

DeepSeek 是一个基于大型语言模型的应用,可以独立配置部署。

不过使用Ollama 提供的本地化部署能力,有以下几个原因:

1.模型管理:Ollama 简化了大型语言模型的下载、安装和管理,DeepSeek 需要这些模型来运行。

2.本地运行:Ollama 支持在本地运行模型,确保数据隐私和安全,这对 DeepSeek 的本地化部署至关重要。

3.性能优化:Ollama 针对本地环境进行了优化,确保模型在本地硬件上高效运行,提升 DeepSeek 的性能。

4.依赖集成:在其它工具中集成能简化部署、高效管理模型、优化性能,还能借助社区生态拓展应用。

2)官网下载

打开官网:ollama官网https://ollama.com/ ),点击DownLoad,选择与自己电脑匹配的版本进行下载,我的电脑是Mackbook Pro,芯片是 Apple M3 Pro,所以下载macOS。

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode

3)安装Ollama

下载到本地后,只需双击对应的下载包,按照安装向导的提示逐步完成安装操作。安装完成后,点击启动按钮,此时你便能在电脑右上角的任务栏中看到已启动的 Ollama 应用图标,

然后使用浏览器检查是否安装启动成功,地址: http://localhost:11434/ ,如果页面显示“Ollama is running”,则代表启动成功

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode

📢 后面的安装,注意不要退出Ollama哦~

2、DeepSeek-R1安装

1)安装前了解

deepseek-r1下载方式

方式有"Download via Ollama"和"Download via Hugging Face"途径下载,本文是通过ollama来下载,直接打开地址选好模型: deepseek-r1下载https://ollama.com/library/deepseek-r1

为什么 Apple M3 Pro 18GB 的设备最后还是要选择DeepSeek-R1 的 1.5b 版本?

按照理想状态的选择逻辑是:

•最佳选择:7b 版本(尤其是量化版本),在性能和资源占用之间取得最佳平衡。

•轻量级选择:1.5b 版本,适合对性能要求不高的场景。

•高性能选择:如果 DeepSeek-R1 提供 8b 量化版本,可以尝试运行,但需要监控内存使用情况。

但实际运行发现,如果涉及代码较多的改动或生成个小项目,电脑会卡顿,所以:

对于 Apple M3 Pro 18GB 的设备,推荐运行 DeepSeek-R1 的 1.5b 版本。如果任务稍复杂,可以选择 DeepSeek-R1 的 7b 版本。但是运行较大模型时,务必监控内存使用情况,避免系统资源不足。

📢 我本机使用的DeepSeek-R1 的 7b版本,后续介绍依于此哈!!!

硬件配置可以参考
模型参数规模 典型用途 CPU 建议 GPU 建议 内存建议 (RAM) 磁盘空间建议 适用场景
1.5b (15亿) 小型推理、轻量级任务 4核以上 (Intel i5 / AMD Ryzen 5) 可选,入门级 GPU (如 NVIDIA GTX 1650, 4GB 显存) 8GB 10GB 以上 SSD 小型 NLP 任务、文本生成、简单分类
7b (70亿) 中等推理、通用任务 6核以上 (Intel i7 / AMD Ryzen 7) 中端 GPU (如 NVIDIA RTX 3060, 12GB 显存) 16GB 20GB 以上 SSD 中等规模 NLP、对话系统、文本分析
14b (140亿) 中大型推理、复杂任务 8核以上 (Intel i9 / AMD Ryzen 9) 高端 GPU (如 NVIDIA RTX 3090, 24GB 显存) 32GB 50GB 以上 SSD 复杂 NLP、多轮对话、知识问答
32b (320亿) 大型推理、高性能任务 12核以上 (Intel Xeon / AMD Threadripper) 高性能 GPU (如 NVIDIA A100, 40GB 显存) 64GB 100GB 以上 SSD 大规模 NLP、多模态任务、研究用途
70b (700亿) 超大规模推理、研究任务 16核以上 (服务器级 CPU) 多 GPU 并行 (如 2x NVIDIA A100, 80GB 显存) 128GB 200GB 以上 SSD 超大规模模型、研究、企业级应用
671b (6710亿) 超大规模训练、企业级任务 服务器级 CPU (如 AMD EPYC / Intel Xeon) 多 GPU 集群 (如 8x NVIDIA A100, 320GB 显存) 256GB 或更高 1TB 以上 NVMe SSD 超大规模训练、企业级 AI 平台

2)安装deepseek-R1

直接在你的终端执行命令行,顺畅开启后续的任务流程吧

ollama run deepseek-r1:7b

耐心等待下,这里需要几分钟,等命令执行完成,如下即为成功

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode

2)经过一番精心的操作与耐心的等待,终于完成了命令行版本的本地化部署,让我们简单试试它。在命令行输入”你是谁?”

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode

如果你怀揣着对更优质界面和更安全个人知识库的期待,那么请不要错过接下来的内容。它将为你指引一条通往更高效、更安全使用体验的道路,让你的本地化部署发挥出更大的价值。

3、AnythingLLM安装

1)安装前了解

AnythingLLM是什么?

AnythingLLM 是一个易于使用的、集成的一体化AI应用,它能够进行检索增强生成(RAG)和AI代理等功能,无需代码或基础设施的担忧。

为什么选择AnythingLLM?

它是一个零设置、私有化且集成了本地LLM、检索增强生成(RAG)和AI代理的一体化应用,所有功能在一个地方实现,无需繁琐的开发者配置。同时它是基于 Javascript 开发,前端工程师对其技术栈可能更熟悉,易于上手和进行二次开发。

MacBook Pro M3 下载哪个?

MacBook Pro M3 采用的是苹果自研的基于 ARM 架构的 Apple Silicon 芯片。“Download for Apple Silicon” 版本的软件是针对这种架构进行原生开发和优化的,所以下载Silicon版本。

2)安装AnythingLLM

安装步骤

a. 访问AnythingLLM官网下载: anythingllm官网https://anythingllm.com/desktop

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode

****

b.打开客户端,点击Get Started, 进入LLM Preference页面选择选择使用Ollama模型工具,

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode

后面的直接点击"Skip",然后后续可以在主界面的设置里进行详细设置

设置步骤

a. 这时进入主界面,点击【左下角】的设置进行详细设置

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode



b. 设置外观如下,选择Theme主题,语言和默认聊天消息内容,我选中的是“黑色主题”、“中文”和每次启动消息“您好,我是菲同学,请问需要什么帮助吗?”。

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode

c. 配置模型

选择人工智能提供商 > LLM首选项, LLM提供商选择“ollama”, ollama Model选择安装好的deepseek-r1:7b版本,你们要依据自己安装好的模型进行选择

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode

投喂教程

📢 官网有详细说明:参见 anythingllm官网文档

a. 本地文档投喂

点击工作区的上传按钮,将本地的文档上传

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode

我上传一个“中登2.2”的word文档,上传后选中文档,点击“Move to Workspace”,然后保存

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode



这个时候你的本地投喂就完成了,让我们简单测试下成果,新建一个知识库问答,提问“中登2.2主要说了哪些内容,概括为100字以内”,效果如下

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode



b.浏览器内容投喂

浏览器投喂功能需要同时设置浏览器和Anything LLM客户端,下面我们进行详细的讲解

1)浏览器投喂需要先安装一个扩展程序来支持,打开浏览器设置扩展程序: anythingllm扩展程序 ,点击右上角“添加至Chrome” 技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode



打开chrome://extensions/,这时就可以看到自己安装的扩展程序了,为了使用方便,在浏览器的右上角扩展程序显示区域也加上“AnythingLLM Browser Companion”的显示

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode

2)Anything LLM客户端设置

打开Anything LLM客户端,点击Anything LLM的 设置 > 工具 > 浏览器扩展,然后

选择右侧面板的“Generate New API Key”按钮,生成API Key

复制下面的“connecting string”

点击chrome浏览器右侧的Anything LLM扩展程序图标,点击展开,粘贴刚才复制的“Anything LLM Connecting String”

点击“Connect”连接

 技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode



连接成功后状态如下

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode

然后我们将内网的一篇文章投喂它,因牵涉公司信息安全,所以我以一个外网网站为例:选择“AnythingLLM Browser Companion” 》 “Embedentirepagetoworkspace” 》 “你自己的工作区名称,这里我起名【公司内部文档】”

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode



检验下成果吧,新建对话“第一财经网站”,提问“根据内部文档查阅,新闻排行周榜的前三个是什么标题?”,效果如下,看结果不错哦~

 技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode



好了,到这里个人知识库本地化集成终于结束了,赶快用起来吧。



二、 Ollama+Deepseek-R1+Continue本地集成VScode

1)安装前知识点

Continue 介绍

详情可参照官网: continue官网

Continue 是 Visual Studio Code 和 JetBrains 中领先的开源 AI 代码助手。

•在侧边栏中进行聊天以理解和迭代代码。

•自动补全,以便在输入时接收内联代码建议。

•编辑功能可让你无需离开当前文件即可修改代码。

•操作功能用于为常见用例建立快捷方式。

2)安装 VSCode

首先,确保你已经安装了 VS Code 编辑器。如果尚未安装,可以从 VSCode 官网(https://code.visualstudio.com/download )下载并安装。

3)安装conitinue插件

a.打开 VSCode 编辑器。

b.在 VSCode 的插件中心,搜索 “Continue”。

c.找到 “Continue” 插件后,点击 “安装” 按钮进行安装。安装完成后,在 VSCode 左侧侧栏中会增加一个对应的图标,这就是 Continue 的主界面。

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode



安装完成之后,重启下continue,vscode上就会出现continue图标,点击“continue”出现主界面

4)本地集成VScode配置

点击continue输入框的左下角,点击“+ Add Chat model”,然后进行配置

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode



配置Provider为“Ollama”,Modal选择“Autodetect”,点击“Connect”

 技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode



到这里就配置完成了,让我们测试下成果吧,输入问题“你是什么模型?”

技术融合实战!Ollama携手Deepseek搭建知识库,Continue入驻VScode



通过以上步骤,你就完成了 Continue 在 VSCode 中的本地集成,能够借助其强大的功能提升编程效率,享受更加智能、便捷的开发体验。

三、总结

成功把 Ollama、Deepseek - R1 和 Continue 集成到 VScode 之后,确实避免了很多问题!先说说数据安全,以前总在网络搜索,心里总有点不踏实,现在都在本地搞定,再也不用担心信息泄露了,做涉及敏感信息的项目,安全感满满,对咱开发者来说,这可太香了。

不过,这集成也不是十全十美的。对电脑硬件要求有点高,如果电脑配置不太给力,模型响应速度就会变慢,有时候等得还挺着急,多少还是会影响点效率。但总体来说,这次集成真的让我学到了不少,绝对是一次超值得尝试的技术实践!强烈推荐大家也试试!

点赞
收藏
评论区
推荐文章
数字先锋 | 部委门户网站上云!这样做!
2020年9月,中共中央办公厅、国务院办公厅印发了《关于加快推进媒体深度融合发展的意见》,提出要以先进技术引领驱动融合发展。如何用好5G、大数据、云计算、物联网、区块链、人工智能等信息技术革命成果,推动关键核心技术自主创新,完善媒体深度融合的“最后一公里”布局成为新的发力点。某部委与时俱进,充分利用大数据、云计算等技术,携手天翼云,以“统一部署、统一管理、统
2023京东全球科技探索者大会暨京东云峰会来了!
大模型开启AI新范式,AIGC掀起行业新浪潮。“2023京东全球科技探索者大会暨京东云峰会”,将于7月13日在北京举办。本次大会,以“跨越·产业智能”为主题,聚焦大模型与产业深度融合,将重磅发布京东大模型,推出新一代数字基础设施,升级产品及解决方案,致力于
爱学it学无止境 爱学it学无止境
7个月前
重学C++ ,重构你的C++知识体系[19章完结]
C:专业视角下的技术深度探索C作为一种历史悠久且功能强大的编程语言,自其诞生以来,在软件开发领域一直扮演着举足轻重的角色。它融合了高级语言的易用性和低级语言的控制力,成为系统级编程、游戏开发、高性能计算等多个领域的首选语言。本文将从C的语言特性
爱学it学无止境 爱学it学无止境
7个月前
微体系-多端全栈项目实战:商业级代驾全流程落地完结无密
全栈项目:技术深度与广度的融合实践在快速迭代的软件开发领域,全栈项目作为一种集设计、开发、测试、部署及维护于一体的综合性项目,正逐渐成为衡量开发者综合能力的重要标尺。全栈开发者不仅需要精通前端技术,如HTML、CSS、JavaScript及其框架(如Rea
京东云开发者 京东云开发者
4个月前
【转载】把大模型做实 把供应链做透: 京东推出言犀大模型
作者:张东7月13日,2023京东全球科技探索者大会暨京东云峰会在北京举行,全面推出京东言犀大模型、言犀AI开发计算平台、升级支撑大模型落地行业的产品及解决方案,服务千行百业拥抱产业智能。源于产业、服务产业。言犀大模型融合了70%的通用数据与30%京东数智
京东云开发者 京东云开发者
3星期前
“轻松上手!5分钟学会用京东云打造你自己的专属DeepSeek”
\从第⼀步骤到第四步骤是完成DeepSeek本地部署和使⽤,可以满⾜中⼩企业环境的稳定使⽤,第五步骤为基于AnythingLLM和本地数据进⾏训练(基于本地数据搭建本地知识库):⼀:京东云GPU云主机环境准备⼆:部署Ollama三:运⾏DeepSeek模型
京东云开发者 京东云开发者
3星期前
云电脑:快速部署无限制、可联网、带专属知识库的私人 DeepSeek 大数据模型
作者:京东云李凯在当下的科技领域,DeepSeek无疑是一颗耀眼的明星,近期关于它的话题热度持续飙升,引发了无数技术爱好者和行业从业者的热烈讨论。大家纷纷被其强大的大数据处理能力和广泛的应用前景所吸引,急切地想要深入探索和使用这一先进的模型。然而,当人们满
四大核心优势,多场景覆盖,息壤智算一体机-DeepSeek版强势来袭!
DeepSeek持续爆火,引发国产AI技术蓬勃发展的浪潮,天翼云作为云服务国家队迅速响应,将产品与DeepSeek模型深度融合,促进国产AI生态闭环,加速AI应用普惠。
京东云开发者 京东云开发者
2星期前
Spring AI接入DeepSeek:快速打造微应用
作者:京东科技张新磊背景随着DeepSeekR1的官宣开源,DeepSeek迅速成为AI领域的热门话题,吸引了大量开发者和研究者的关注。这一开源举措不仅推动了技术的普及,也促使更多企业和机构加入到开源生态中。例如,国内大厂X度于2月14日宣布将在未来几个月