怎么在Windows操作系统部署阿里开源版通义千问(Qwen2)
| 原创作者/编辑:凯哥Java | 分类:人工智能学习系列教程
GitHub上qwen2截图
随着人工智能技术的不断进步,阿里巴巴通义千问团队近期发布了Qwen2系列开源模型,这一系列模型在多个领域展现出卓越的性能,特别是在自然语言理解、知识、代码、数学及多语言等能力上均显著超越当前领先的模型。本文将详细介绍如何在Windows操作系统上部署阿里开源版通义千问(Qwen2)模型,快速上手并体验这一强大的AI工具。
一、准备工作
在开始部署之前,请确保您的Windows系统满足以下要求:
1. 系统兼容性:确保您的Windows系统版本支持所需的软件安装。
2. 显卡驱动:如果您的计算机配备了独立显卡,请确保显卡驱动是最新的,以便更好地支持模型运行。
3. 硬盘空间:Qwen2模型文件较大,需要足够的硬盘空间来存储。
凯哥使用的电脑配置:
CPU:I7-12700F
内存:32GB
显卡:RTX3060 12G
cpu和内存
显卡
二、下载并安装Ollama
Ollama是一个用于运行大型AI模型的工具,支持多种模型格式,包括Qwen2。首先,您需要从Ollama的官方网站下载并安装Ollama。
-
访问Ollama官网:进入Ollama官网(https://ollama.com/download/windows)。
2. 下载并安装:点击“Download”按钮,选择Windows版本进行下载。下载完成后,按照提示进行安装。
这里凯哥就选择Windows版本的。
ollama官网下载页面
三、下载Qwen2模型
接下来,您需要从阿里通义千问的官方仓库下载Qwen2模型。
1. 访问官方教程:访问Qwen2官方教程(实际链接以官方提供为准)。
https://qwen.readthedocs.io/zh-cn/latest/
2. 选择适合的模型:根据您的硬件条件(如显卡显存大小),选择适合的Qwen2模型版本。在官方教程中,拉到最下面,可以看到效率评估。如下图:
找到效率评估
因为凯哥的显卡是12GB,所以凯哥选择Qwen2-7B-Instruct。如果你的显卡也是12GB,可以选择Qwen2-7B-Instruct版本。
Qwen2-7B-Instruct不同版本内存占用
凯哥使用的下载地址:https://modelscope.cn/models/qwen/Qwen2-7B-Instruct-GGUF/files
3. 下载模型文件:在官方教程中,找到模型下载链接,下载对应的.gguf文件。注意,模型文件可能包含多个精度版本(如q8、q16等),选择适合您需求的版本。
说明:
会看到不同的后缀,q”+ 用于存储权重的位数(精度)+ 特定变体,数字越大性能越强。
数字越大,精度越高,k是在所有的attention和feed_forward张量上将精度提升2位,m是在一半的attention和feed_forward张量上将精度提升2位。
根据自己的需求选择模型,凯哥这里直接选了q8。
凯哥选择的q8
四、部署Qwen2模型
下载完模型文件后,您可以使用Ollama来部署Qwen2模型。
1. 创建模型文件:在Windows上创建一个新文件夹(例如命名为“qwen”),将下载的.gguf文件放入该文件夹中。然后,在该文件夹内创建一个名为“Modelfile”的文本文件,内容填写为:
FROM ./qwen2-7b-instruct-q8_0.gguf
注意替换文件名以匹配您下载的模型文件。
2. 使用Ollama创建模型:打开命令行工具(如CMD或PowerShell),切换到包含Modelfile的文件夹。运行以下命令来创建Qwen2模型:
模型创建成功
如果显示“success”,则表示模型创建成功。
3. 运行模型:创建成功后,您可以通过以下命令来运行模型:
ollama run Qwen2-7B
此时,您应该能看到一个对话框或命令行界面,您可以在这里输入文本与模型进行交互。
命令行输入文案地方
在这里输入:你是谁?看看模型怎么交互的。
可以看到模型交互如下:
模型交互效果
补充说明:
如果要看本地有哪些大模型:ollama list
如果要删除这个模型的话:ollama rm xxx
如果要看运行了哪些大模型:ollama ps
运行结果:
运行效果
五、在Web界面中运行Qwen2
虽然直接在命令行中运行模型很方便,但为了获得更好的用户体验,您可以将Qwen2模型集成到Web界面中。
1. 安装Node.js:
首先,需要在Windows上安装Node.js。访问Node.js官网,下载并安装最新版本的Node.js。
凯哥使用的是版本号是18.6
凯哥本地node版本
2. 下载ollama-webui:
从GitHub或其他源下载ollama-webui的代码。
https://github.com/ollama-webui/ollama-webui-lite
3. 设置并启动Web界面:
按照ollama-webui的文档说明,设置Node.js环境,安装依赖,并启动Web服务器。然后,在浏览器中打开Web页面,选择您的Qwen2模型即可开始对话。
3.1镜像提速:
入ollama-webui文件夹,设置国内镜像源提速:
npm config set registry http://mirrors.cloud.tencent.com/npm/
3.2 安装依赖
npm install
错误解决办法:
如果报错说要audit,则依次进行即可:
npm audit
npm audit fix
启动
3.3 启动Web界面:
命令执行完成就可以用看到如下图的访问地址:
启动成功输出访问地址
打开Web页面,选择你的模型即可开始对话:
访问页面
通过web和模型进行交互:
我们依然输入:你是谁?
在web也没和模型交互效果
好了,至此,你就可以在自己电脑上和模型进行对话了。
大家好:我是凯哥Java(kaigejava),如果大家感兴趣,可以一起学学AI。
六、总结
通过以上步骤,您可以在Windows操作系统上成功部署阿里开源版通义千问(Qwen2)模型,并通过命令行或Web界面与模型进行交互。Qwen2系列模型凭借其卓越的性能和广泛的应用场景,将为您的AI项目提供强大的支持。
希望本文能帮助您顺利部署阿里开源版通义千问模型,享受AI技术带来的便利与乐趣。如有任何疑问,请随时查阅官方文档或寻求技术支持。
相关推荐
大模型部署_基于vLLM部署通义千问Qwen大语言模型_附项目源码+流程教程_优质项目实战
通义千问-14B(Qwen-14B) 是阿里云研发的通义千问大模型系列的140亿参数规模的模型。Qwen-14B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络...
大语言模型部署_使用OpenVINO部署通义千问QWen2_附项目源码+流程教程_优质项目实战
python实现通义千问VLLM推理部署项目源码(优质项目).zip本项目代码经过严格调试,确保可以运行!放心下载使用。可作为期末课程设计、课程大作业、毕业设计等。具有较高的学习借鉴价值! python实现通义千问VLLM...
算法部署_使用TensorRT-LLM部署通义千问Qwen-7B大模型_附详细优化+分析流程教程_优质大模型部署项目实战
阿里巴巴通义千问AI PaaS大模型(Qwen-7B-Chat)、炼丹炉大模型、MPT-7B模型接入、模型训练、VUE页面部署、后端部署、公司对接ai、对接阿里云通义千问、语音转文本、简易搭建通义千问大模型聊天功能(支持PC端、...
《大模型+通意千问+开源+技术资料:QWEN引领的AI新纪元》 大型语言模型(LLMs)是人工智能领域的重大突破,它们使得自然语言处理任务的解决不再仅限于人类。QWEN1是这一创新领域的先驱之作,标志着一个全新的语言...
标题 "Python_The official repo of Qwen 通义千问 chat pretrained larg.zip" 提供的信息表明,这是一个与Python相关的项目,特别是一个关于Qwen(通义千问)的官方仓库,该仓库包含了用于聊天预训练的大规模模型。...
个人深耕AI大模型应用领域积累的成果,希望对您有所帮助。... 个人深耕AI大模型应用领域积累的成果,希望对您有所帮助。... 个人深耕AI大模型应用领域积累的成果,希望对您有所帮助。... 个人深耕AI大模型应用领域积累的成果...
通义千问-7B(Qwen-7B) 是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen-7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本...
个人深耕AI大模型应用领域积累的成果,希望对您有所帮助。... 个人深耕AI大模型应用领域积累的成果,希望对您有所帮助。... 个人深耕AI大模型应用领域积累的成果,希望对您有所帮助。... 个人深耕AI大模型应用领域积累的成果...
**调用通义千问大语言模型 - 小白新手教程** 在当今的AI领域,大语言模型已经成为了核心技术之一,它们能够理解自然语言、进行对话,并执行各种任务。通义千问作为一款强大的预训练语言模型,为开发者提供了一个...
通义千问是阿里云开发的一个强大的语言模型,它在自然语言处理任务上展现出优秀的性能,适用于各种对话生成、问答系统和文本理解场景。而Lora方法则是一种有效的模型优化技术,可以提高模型在特定任务上的适应性。 ...
支持微调XVERSE-13B。 开源Firefly项目多轮对话微调的firefly-chatglm2-6b。 支持微调通义千问Qwen-7B,该模型在各个中英文榜单,...支持训练LLaMA-2、ChatGLM2、Baichuan、通义千问Qwen-7B、书生·浦语InternLM、L
通义千问-VL是一个大型预训练模型,它在视觉-语言任务上进行了优化,能够进行聊天对话并处理与图像相关的问答。这个项目是基于Python编程语言构建的,因此了解Python的基本语法和库是理解该项目的关键。 在Python中...
The official repo of Qwen (通义千问) chat & pretrained large language model proposed by Alibaba Cloud.zip
【标题】"repo of Qwen-Audio (通义千问-Audio) chat & pretrained large audio" 指的是一个开源项目仓库,其中包含了通义千问-Audio的对话功能及预训练的大型音频模型。这个项目很可能是为了提供自然语言处理(NLP...
然而,中国的科技巨头们也迅速响应,推出了自己的大型语言模型,如百度的“文心一言”(ERNIE 3.0 Zeus)和阿里云的“通义千问”(Qwen)。这三个模型都是基于深度学习技术的对话式AI系统,旨在提供与人类类似的自然...
The official repo of Qwen-Audio (通义千问-Audio) chat & pretrained large audio language model proposed by Alibaba Cloud
The official repo of Qwen-VL (通义千问-VL) chat & pretrained large vision language model proposed by Alibaba Cloud