DeepSeek V3 0324_ Qwen2.5 VL 32B 体验
OnethingAI
发布于:2025-06-12
一,创建最新vLLM 实例(8卡可跑,更好的体验需要2台H20):
通过文件管理查看DeepSeek 相关模型
二,补全DeepSeek V3 0324模型相关配置文件
cd /app/deepseek modelscope download --model deepseek-ai/DeepSeek-V3-0324 \ --exclude *.safetensors --local_dir ./DeepSeek-V3-0324
结果如图:
三,启动DeepSeek V3 0324:
vllm serve /app/deepseek/DeepSeek-V3-0324 --tensor-parallel-size 8 --max-model-len 8192 \ --enable-prefix-caching --trust-remote-code --host 0.0.0.0 --port 6006 --enforce-eager \ --max_num_seqs=16 --gpu_memory_utilization 0.95
四,补全 Qwen2.5-VL-32B-Instruct
模型路径:/root/.cache/modelscope/hub/models/Qwen
cd /root/.cache/modelscope/hub/models/Qwen modelscope download --model Qwen/Qwen2.5-VL-32B-Instruct \ --exclude *.safetensors --local_dir ./Qwen2___5-VL-32B-Instruct
五,启动Qwen2.5-VL-32B-Instruct
vllm serve /root/.cache/modelscope/hub/models/Qwen/Qwen2___5-VL-32B-Instruct --tensor-parallel-size 8\ --max-model-len 128000 --enable-prefix-caching --trust-remote-code --host 0.0.0.0 --port 6006 \ --enforce-eager --gpu_memory_utilization 0.95