一分钟读懂deepseek

1. 使用一种奖惩机制训练模型。所以更有效。

2. 目前逻辑,code能力强,语言能力稍差

3. Performance 强,$2 per M token, 国外大模型$60 per M token.

4. Free. 开源。

所有跟帖: 

你已经总结研究了?我还没来得及读他们的chnicalpaper,只是试了一下效果,非常棒,觉得付$20 GPT冤枉 -青裁- 给 青裁 发送悄悄话 (0 bytes) () 01/25/2025 postreply 07:49:03

ChatGPT也有免费版的。你如果在乎那$20,也可以用免费版的ChatGPT。 -大观园的贾探春- 给 大观园的贾探春 发送悄悄话 大观园的贾探春 的博客首页 (0 bytes) () 01/25/2025 postreply 07:52:40

这些模型都在不断优化中。将来就像你去看两个医生,诊断结果相似,一个收一毛钱,一个收100刀,你用哪个? -静静的顿河02- 给 静静的顿河02 发送悄悄话 (0 bytes) () 01/25/2025 postreply 07:57:47

事关健康,即使$100那位只比免费的就好那么一点点,也要用$100的。企业选择AI也是一样。 -大观园的贾探春- 给 大观园的贾探春 发送悄悄话 大观园的贾探春 的博客首页 (0 bytes) () 01/25/2025 postreply 08:01:51

这个可能由不得你,保险公司决定。现在很多保险就不cover brand name,只报销generic药,虽然前者更好 -Amita- 给 Amita 发送悄悄话 (0 bytes) () 01/25/2025 postreply 08:03:56

昨天DEI主题大研讨,你却缺了席 -oryzivore- 给 oryzivore 发送悄悄话 (0 bytes) () 01/25/2025 postreply 07:49:26

忙着挣钱养家。哈哈。 -静静的顿河02- 给 静静的顿河02 发送悄悄话 (0 bytes) () 01/25/2025 postreply 08:02:16

【使用一种奖惩机制训练模型】,所有的模型训练都用的吧?要不然会overfit -我是谁的谁- 给 我是谁的谁 发送悄悄话 (0 bytes) () 01/25/2025 postreply 07:51:42

这个就比较technical 了。网上有详细解释的。 -静静的顿河02- 给 静静的顿河02 发送悄悄话 (0 bytes) () 01/25/2025 postreply 08:01:35

我的意思是,大家都用奖惩函数(Lasso/Ridge),你列举的第一条并不是DeepSeek独特的机制啊? -我是谁的谁- 给 我是谁的谁 发送悄悄话 (0 bytes) () 01/25/2025 postreply 08:05:36

找到/发明独特的奖惩函数才是牛人 -我是谁的谁- 给 我是谁的谁 发送悄悄话 (0 bytes) () 01/25/2025 postreply 08:11:17

梁文颂的公司叫做量化同方。而且,deep seek一旦开始 -大宋- 给 大宋 发送悄悄话 大宋 的博客首页 (253 bytes) () 01/25/2025 postreply 08:19:45

有个预感 -大宋- 给 大宋 发送悄悄话 大宋 的博客首页 (264 bytes) () 01/25/2025 postreply 08:03:16

这才是正确的方向 -我是谁的谁- 给 我是谁的谁 发送悄悄话 (0 bytes) () 01/25/2025 postreply 08:04:12

应该是找对了训练模型的更有效方法。当年Google 打败Yahoo肯定不是因为更有钱。 -静静的顿河02- 给 静静的顿河02 发送悄悄话 (0 bytes) () 01/25/2025 postreply 08:11:19

不是都开源了吗?算法是啥你们牛人们不是看看就懂? -专业潜水妈- 给 专业潜水妈 发送悄悄话 (0 bytes) () 01/25/2025 postreply 08:16:47

我要能一看就懂,还有空在这聊天吗?哈哈。 -静静的顿河02- 给 静静的顿河02 发送悄悄话 (0 bytes) () 01/25/2025 postreply 08:20:48

请您先登陆,再发跟帖!