填写文字,插入到文章(开头、中间、末尾)!
这两天大家都被DeepSeek炸晕了吧,嘿嘿,其实DeepSeek也被大家炸晕了。
这是今天上午的情况↓
没办法,这泼天的流量一般人扛不住~
想高频使用怎么办呢?本地装一个!
本地部署有两个好处:?不联网,全私密,不担心隐私泄露,还可以挂载本地知识库?完全免费,彻底告别“服务器繁忙”。
如果你是苹果Mac本——
我们需要用到两个神器:
一个叫做Ollama,这是一个可以在本地运行和管理大模型的软件。
另一个叫做Page Assist,这是个浏览器插件,提供本地大模型的图形化管理和对话界面。
一、下载Ollama,并拉取安装DeepSeek
填写文字,插入到文章(开头、中间、末尾)!
Ollama是一个可以在本地运行和管理大模型的神器,完全本地运行,而且支持多种模型,包括但不限于Llama、DeepSeek、Qwen、Gemma等等。
登录网站,直接去下载页:
直接下载macOS版本的程序,其实从上图你可以发现,Linux和Windows也是OK(这个咱后面再讲)。下载后是一个压缩包,二话不说,直接解压,你会得到一个“草泥马”头像的程序这个程序可以直接点击运行,但是建议你拖到「应用程序」目录下,便于用的时候以后好找。好了,接下来直接运行Ollama,然后进入到终端窗口↓接下来运行命令,拉取对应版本的模型即可。目前DeepSeek-R1可选的模型有满血版671B,和蒸馏版1.5B、7B、8B、14B、32B、70B:满血版个人电脑就别想了,其他蒸馏版大家根据电脑配置来选。如果只是玩玩的话,建议不要选择太大的,14B以下的尝尝鲜。Mac配置高的话,比如64G以上的内存,可以尝试32B或者70B,毕竟参数越大,模型智商越高。我的电脑是96G内存,所以今天挑战一下70B版本,运行命令↓ollamarundeepseek-r1:70B前面命令都一样,后面输入对应的模型参数即可激动人心的时刻开始了,70B的模型有42G那么大,我这里的网络需要下载大概40分钟。不急,泡杯咖啡慢慢等~经过一番漫长的等待,42GB的大模型终于拉取完毕,并安装成功(不知道为啥,最后3%的网速会非常慢,只有几百K,据说很多人和我一样。)安装成功的界面是这样的↓在这个命令行下,就可以直接使用DeepSeek了↓提问就可以,在两个之间是推理过程,也就是收到问题以后,DeepSeek的内心戏↓完成推理后,DeepSeek就开始输出正题:一段诙谐幽默的自我介绍↓怎么样,这个回答还不错吧。如果你觉得这个命令行界面跟玩文字mud似的,太土鳖了,没关系,接下来我们安装第二个神器,也就是Page Assist。二、安装Page Assist,开始享用DeepSeekPage Assist是一款Chrome浏览器插件,所以,你只需要打开Chrome,点击右上角“三个点”,然后“扩展程序”、“访问Chrome应用商店”。然后在应用商店中搜索“Page Assist”,第一个就是,点击安装即可。安装完成后,在浏览器右上角这个位置,点开就可以找到,可以用钉住,方便以后随时打开使用点击图标就可以打开UI界面,怎么样,是不是界面舒服多了,可以选择对应的模型,然后开始提问了。用法跟在线版的没啥区别。点击模型下拉框,可以查看已经安装的模型,我之前已经安装了14B,刚刚又装好了70B。点击右上角的齿轮,可以进行基础设置,比如更改语言、语音(默认都是英文,可以修改为简体中文)。还可以更改默认搜索引擎,让大模型在推理的同时,开启联网搜索功能。还可以添加本地知识库,让DeepSeek更具备个性化和专属性。至此,万事具备,让我们来体验一下70B的本地DeepSeek,到底聪明不聪明?先小试牛刀↓接下来,我让它给IT技术从业者提出10点建议。你来评评,它说的怎么样?
单单运行了这么点东西,我的本子散热风扇已经开始呜呜作响了。
看来想要运行70B的模型,我这台mac还是有点小马拉大车了。
如果你是Windows PC——
对应下载Windows版本的Ollama即可,其实安装过程大差不差。
只是Windows版本的安装程序比Mac版大多了。
那么,如果是企业想要在本地部署一个DeepSeek,甚至是满血版的,应该怎么办呢?我们下回分解