本地部署运行一下deepseek r1尝鲜

news/2025/2/4 15:59:28 标签: deepseek, r1, ollama

2025-01-20正式发布 DeepSeek-R1,并同步开源模型权重。

DeepSeek-R1 遵循 MIT License,允许用户通过蒸馏技术借助 R1 训练其他模型。 DeepSeek-R1
上线API,对用户开放思维链输出,通过设置 model='deepseek-reasoner' 即可调用。 DeepSeek 官网与
App 即日起同步更新上线。
论文地址:https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf
原文链接:https://blog.csdn.net/sexy19910923/article/details/145271916

开源网站 GitHub - deepseek-ai/DeepSeek-R1Contribute to deepseek-ai/DeepSeek-R1 development by creating an account on GitHub.https://github.com/deepseek-ai/DeepSeek-R1https://github.com/deepseek-ai/DeepSeek-R1https://github.com/deepseek-ai/DeepSeek-R1https://github.com/deepseek-ai/DeepSeek-R1https://github.com/deepseek-ai/DeepSeek-R1

使用ollama进行部署

Download Ollama on Linuxhttps://ollama.com/download/linuxhttps://ollama.com/download/linuxhttps://ollama.com/download/linuxhttps://ollama.com/download/linuxhttps://ollama.com/download/linux

不同版本下载不同的版本安装

linux使用命令行

curl -fsSL https://ollama.com/install.sh | sh 

之后会根据不同的版本进行安装

之后Ollamahttps://ollama.com/searchhttps://ollama.com/searchhttps://ollama.com/searchhttps://ollama.com/searchhttps://ollama.com/search

 在这里选一下deepseek r1

其中有1.5b,7b,8b等,32b以上的到671b基本就是普通用户用用不了的了。

 

 安装ollama后运行 

ollama run deepseek-r1:1.5b

ollama run deepseek-r1:7b

ollama run deepseek-r1:8b

就会自动运行了,另外如果觉得这个cmd的窗口交互太不美观,可以使用openwebui,用起来跟chatgpt的web差不多,可以使用docker 安装,下面介绍一下用pip 安装,需要安装

pip install open-webui 

另外在安装这个包后,还会联网安装其它的组件,如语音识别等,需要设定代理才行

在cmd窗口中加入

set http_proxy=http://用户名:密码@代理地址:端口
set https_proxy=http://用户名:密码@代理地址:端口
 

set http_proxy=http://127.0.0.1:7897
set https_proxy=http://127.0.0.1:7897


再运行

open-webui serve

linux 部署时也可以用相同的方法

pip install open-webui 

./clash-linux-amd64 -d ./ &

export http_proxy="http://127.0.0.1:7897"
export https_proxy="http://127.0.0.1:7897"

在下载完模型后要关闭代理,再重新运行openwebui

使用LMstudio 进行部署LM Studio - Discover, download, and run local LLMshttps://lmstudio.ai/

下载后,要更换一下源就是模型的下载地址,安装后进入安装目录

cd C:\LM Studio

C:\LM Studio>findstr /s /i /m /c:"huggingface.co" *.*
 得到如下 :

将非exe文件中的huggingface.co字符串替换hf-mirror.com

推荐vscode。然后就可以正常下载,不过我这边网不好,下载的慢


http://www.niftyadmin.cn/n/5841657.html

相关文章

第五章:元婴-React用户功能实战

文章目录 登录页面布局JWT 令牌鉴权用户功能实现用户查询页面用户更改状态用户添加页面用户添加页面表单构建用户编辑页面用户编辑表单页面登录页面布局 import React, { useEffect, useState } from react import { Button, Form, Input, message } from antd import style fr…

使用 Grafana 和 Prometheus展现消息队列性能

引言 上篇文章通过JMX提取Kafka数据,本篇文章将通过JDBC存储Kafka性能数据存储于数据库,并通过Grafana 和 Prometheus进行展示,实现开发中常用的可视化监控 1. 环境准备 Kafka:运行中的 Kafka 集群,确保可以…

【Word快速设置论文公式居中编号右对齐】

1. 查看纸张大小 布局 —> 纸张大小 —> 21厘米*29.7厘米 —> 得到宽度为21厘米 2. 查看左右的页边距 布局 —> 页边距 —> 1.57厘米和1.57厘米 3. 计算距离 公式的距离:(21-1.57-1.57)/2 8.93厘米 编号靠右的距离&…

【教程】微信扫描二维码进入小程序指定页面并携带参数

功能描述 打开微信扫一扫,扫描产品上的二维码,弹出小程序,跳到“邀请用户”页面。解析二维码中的参数,自动填充到页面中的“邀请码”输入框。 操作步骤 首先,要到微信公众平台对扫普通链接二维码打开小程序功能进行配…

MATLAB | 基于长时间序列栅格数据的Mann-Kendall与Pettitt突变检验分析

各位同学好,今天我们将分享在水文气象等领域中常用的两种突变检验方法——Mann-Kendall(MK)检验和Pettitt检验。由于时间关系,今天我们不详细介绍具体的公式和推导过程,感兴趣的同学可以参考相关文献,如《P…

自然语言生成(NLG)算法模型评估方案的硬件配置、系统架构设计、软件技术栈、实现流程和关键代码

智能化对话中的自然语言生成(NLG)算法模型评估是一个复杂而多维的过程,它涉及多个评估指标和策略,以确保生成的文本质量、准确性和流畅性。 智能化对话中的NLG算法模型评估是一个涉及多个评估指标和策略的过程。通过选择合适的评估…

【1】快手面试题整理

[1]. 说说int和Integer的区别 int是Java中的基本数据类型,用于存储整数值。它直接在栈内存中存储数值,默认值是0,并且不能为null,本身不带方法。 Integer是int的包装类,属于引用类型。它在堆内存中存储一个对象&…

SRS代码目录

代码目录: src/目录下核心代码: core:核心功能模块,包括日志、配置、错误处理等;protocol:实现RTMP、HTTP-FLV、HLS等协议的模块;app:应用层的实现,包括流的发布、播放…