开发者社区 通义大模型 正文

RTX5060Ti运行Qwen3-VL-8B-Instruct模型速度慢

RTX5060Ti16G使用的CUDA12.8+CUDNN9.8+Pytorch 2.11.dev,用的8B,运行一张640x480的简单图片,输出耗时54s

但是同样的图片,在RTX4060 12G使用的CUDA11.8+CUDNN9.6+Pytorch2.9,用的4B输出耗时只有4s。
专门测试了2B、4B、8B的5060Ti,基本都在40s以上。
图片是一张3.png

但是未找到任何文字。

未曝出任何错误。

展开
收起
游客2s2fjn5luntxa 2025年12月16日 16:55:14 191 分享 版权

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

0 条回答
写回答
取消 提交回答
相关问答

AltStyle によって変換されたページ (->オリジナル) /

通义大模型

阿里云自主研发的通义大模型,凭借万亿级超大规模数据训练和领先的算法框架,实现全模态高效精准的模型服务调用。https://www.aliyun.com/product/tongyi

我要提问

相关文章

  • 神经辐射场NeRF入门:3D视图合成的原理与PyTorch代码实现
  • 深入理解 HTTPS RSA 握手:从原理到流程的完整解析
  • 【开发者专属福利】智能眼镜Agent开发Workshop限时招募!50席位,先到先得!
  • HTTPS ECDHE 握手全解析
  • 论文被拒往往不是因为数据差,而是逻辑崩了:用这条指令重塑你的学术骨架
  • 热门讨论

    热门文章

    还有其他疑问?
    咨询AI助理