快速在搭载骁龙移动平台的手机&平板上本地部署大模型DeepSeek
发表于 2025-05-13 09:30:00

一、硬件准备

设备:搭载骁龙移动平台的手机或者平板(建议选用骁龙8以上芯片)

内存:大于16G(方便运行更大参数的大模型)

存储:没有要求

二、部署教程

说明:本教程使用的设备是搭载了第二代骁龙8移动平台的手机,部署的模型为deepseek-r1:7b

步骤:

1、下载并安装AidLux

在端侧AI开发者社区的AidLux 2.0beta下载 - AidLux - 端侧AI开发者社区点击下载AidLux软件,安装后注册使用避免闪退,如果想常驻后台可以在社区搜索相关文章。

2、远程登录AidLux进行配置

打开AidLux点击桌面的Cloud_ip应用(云朵形状icon),查看ip地址,并且在浏览器中输入该ip地址。
Tips:手机或平板要与你的电脑连接同一个wifi。
连接成功后出现登陆页面,默认账号:aidlux ;默认密码:aidlux

登录后打开终端:

进入命令行界面:

现在准备工作已经做好了,接下来下载大模型。

3、下载ollama进行配置

下载ollama,默认sudo密码aidlux;
命令行依次输入下面命令:

curl -fsSL https://ollama.com/install.sh | sh
ollama  serve & 
#让ollama服务在后台运行
ollama -v
#安装完毕可以查看ollama版本进行验证,出现版本号之后就可以使用ollama

下载过程:

4、下载并运行deepseek模型
输入命令:
ollama pull deepseek-r1:7b
ollama list

下载完成后可以查看已下载模型

Tips:可根据手机/平板配置,自行选择下载3b/7b等参数模型。

运行模型

输入命令:

ollama run deepseek-r1:7b


出现>>>即可开始提问啦 

赶紧去试试吧~

CSDN官方微信
扫描二维码,向CSDN吐槽
微信号:CSDNnews
微博关注
【免责声明:CSDN本栏目发布信息,目的在于传播更多信息,丰富网络文化,稿件仅代表作者个人观点,与CSDN无关。其原创性以及文中陈述文字和文字内容未经本网证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本网不做任何保证或者承诺,请读者仅作参考,并请自行核实相关内容。您若对该稿件有任何怀疑或质疑,请立即与CSDN联系,我们将迅速给您回应并做处理。】