百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文
Qwen2.5-VL视觉模型本地部署:支持发票识别/视频分析/JSON输出等

Qwen2.5-VL视觉模型本地部署:支持发票识别/视频分析/JSON输出等

  • 网站名称:Qwen2.5-VL视觉模型本地部署:支持发票识别/视频分析/JSON输出等
  • 网站分类:技术文章
  • 收录时间:2025-07-08 14:39
  • 网站地址:

进入网站

“Qwen2.5-VL视觉模型本地部署:支持发票识别/视频分析/JSON输出等” 网站介绍

一、安装好Git和Python3.10,再安装CUDA12.4以上版本,最后下载ANACONDA软件,创建虚拟环境

先默认安装好Git和Python3.10软件,Git下载地址:

https://github.com/git-for-windows/git/releases/download/v2.48.1.windows.1/Git-2.48.1-64-bit.exe

Python3.10下载地址:

https://www.python.org/ftp/python/3.10.11/python-3.10.11-amd64.exe

再安装CUDA12.4以上版本,CUDA12.4下载地址:

https://developer.download.nvidia.com/compute/cuda/12.4.0/local_installers/cuda_12.4.0_551.61_windows.exe

ANACONDA下载地址:

https://repo.anaconda.com/archive/Anaconda3-2024.10-1-Windows-x86_64.exe

安装好下载的ANACONDA软件后,打开软件安装插件程序“anaconda_prompt1.1.0”

安装好后,关闭“ANACONDA软件”从开始—任务栏中运行“anaconda prompt”小程序插件

二、创建Conda虚拟环境

打开运行后,在命令行窗口中输入“ d: ”回车进入D盘下,将下载好的程序文件“torch-2.4.0+
cu124-cp310-cp310-win_amd64.whl”提前放置在D盘下,并继续在命令行窗口中输入“python -m pip install torch-2.4.0+
cu124-cp310-cp310-win_amd64.whl”安装完成后,接着再在命令行窗口中输入“git clone
https://github.com/QwenLM/Qwen2.5-VL”克隆代码库,完成之后再输入“cd Qwen2.5-VL”目录下,创建虚拟环境输入“conda create -n qwen_env python=3.10”

虚拟环境创建完成后,在命令行提示符中输入“conda activate qwen_env”进入虚拟环境

三、安装依赖项、PyTorch和加速库GPU版

接着安装依赖项,在命令行提示符中输入“pip install -r requirements_web_demo.txt”,耐心等待下载时间~~~

依赖项完成后,再安装PyTorch和加速库GPU版,在命令行提示符中输入“pip install torch torchvision torchaudio --index-url
https://download.pytorch.org/whl/cu124”,耐心等待下载时间~~~

接着在命令行提示符中输入“pip install -U gradio gradio_client”更新 Gradio 和 Gradio Client 以避免连接和 UI 相关的错误

四、下载Qwen2.5-VL视觉模型

最后下载模型,在命令行提示符中输入:python web_demo_mm.py --checkpoint-path "
Qwen/Qwen2.5-VL-3B-Instruct" 完成模型下载后,根据提示命令行中显示Runing on local URL:http://127.0.0.1:7860,表示本地部署成功,可在浏览器中打开本地链接 http://127.0.0.1:7860 即可使用。