实测数据,在本地安装的Deepseek r1-70b, 并不比Llama3.3-70b, 回答问题的速度快

本帖于 2025-01-26 20:51:37 时间, 由普通用户 未知 编辑

由于Deepseek 用Chain-to-thought(CoT)方法,实际慢2~3倍。我用的关于市场历史回报率的测试题,到现在为止,还没有一个大模型,包括Deepseek r1-70b, 给出精准答案。最接近是OpenAI 4o。还没有测试过OpenAI o1/o3, Google Gemini Flash, Deepseek 670b等新的模型。

可能花街故意炒作新闻,制造市场波动。花街有个公开的秘密,牛市熊市都不赚钱,只要市场有波动,就赚大钱。

请您先登陆,再发跟帖!