实测数据,在本地安装的Deepseek r1-70b, 并不比Llama3.3-70b, 回答问题的速度快

来源: 2025-01-26 20:38:17 [博客] [旧帖] [给我悄悄话] 本文已被阅读:

由于Deepseek 用Chain-to-thought(CoT)方法,实际慢2~3倍。我用的关于市场历史回报率的测试题,到现在为止,还没有一个大模型,包括Deepseek r1-70b, 给出精准答案。最接近是OpenAI 4o。还没有测试过OpenAI o1/o3, Google Gemini Flash, Deepseek 670b等新的模型。

可能花街故意炒作新闻,制造市场波动。花街有个公开的秘密,牛市熊市都不赚钱,只要市场有波动,就赚大钱。