目录
测试环境
- CPU:i7-13700K
- GPU:RTX4080-16G
- MEM:DDR4-128G
- 温度0.3
- 上下文默认
测试题目
阅读下面的材料,根据要求写作。(60分)
随着互联网的普及、人工智能的应用,越来越多的问题能很快得到答案。那么,我们的问题是否会越来越少?
以上材料引发了你怎样的联想和思考?请写一篇文章。
要求:选准角度,确定立意,明确文体,自拟标题;不要套作,不得抄袭;不得泄露个人信息;不少于800字。
测试结果
- DeepSeek-R1-1.5b: 412TPS
- DeepSeek-R1-7b: 178TPS
- DeepSeek-R1-14b: 84TPS
- Phi-4-14b: 43TPS
- Gemma-3-4b:76TPS
- Gemma-3-12b:55TPS
- Gemma-3-27b:6TPS[29%/71% CPU/GPU]
- QwQ-32B-GGUF:6TPS[33%/67% CPU/GPU]
- QwQ-32B:6TPS[29%/71% CPU/GPU]
1.5b和7b的模型确实垃圾,语言系统都无法稳定,GemniFlash也有类似的问题,但是Gemma3-4b基本没这个问题
Comments NOTHING