测试环境

  1. CPU:i7-13700K
  2. GPU:RTX4080-16G
  3. MEM:DDR4-128G
  4. 温度0.3
  5. 上下文默认

测试题目

阅读下面的材料,根据要求写作。(60分)
随着互联网的普及、人工智能的应用,越来越多的问题能很快得到答案。那么,我们的问题是否会越来越少?
以上材料引发了你怎样的联想和思考?请写一篇文章。
要求:选准角度,确定立意,明确文体,自拟标题;不要套作,不得抄袭;不得泄露个人信息;不少于800字。

测试结果

  1. DeepSeek-R1-1.5b: 412TPS
  2. DeepSeek-R1-7b: 178TPS
  3. DeepSeek-R1-14b: 84TPS
  4. Phi-4-14b: 43TPS
  5. Gemma-3-4b:76TPS
  6. Gemma-3-12b:55TPS
  7. Gemma-3-27b:6TPS[29%/71% CPU/GPU]
  8. QwQ-32B-GGUF:6TPS[33%/67% CPU/GPU]
  9. QwQ-32B:6TPS[29%/71% CPU/GPU]

1.5b和7b的模型确实垃圾,语言系统都无法稳定,GemniFlash也有类似的问题,但是Gemma3-4b基本没这个问题

  • alipay_img
  • wechat_img
最后更新于 2025-03-20