AI 是一场革命,才刚刚开始。Edge AI 将会是下一个爆炸点,值得关注相关股票

所有跟帖: 

所谓的edge AI ,就是internet if things 之类的fancy words吗? -伯克希尔哈萨维- 给 伯克希尔哈萨维 发送悄悄话 (0 bytes) () 12/13/2024 postreply 11:50:59

截然不同,IOT依赖各种网络,即所谓得万物互联。EdgeAI是把training好得模型写入embedded系统中 -diablo18- 给 diablo18 发送悄悄话 (216 bytes) () 12/13/2024 postreply 11:56:40

有相关股票推荐吗 谢谢 -westandingup- 给 westandingup 发送悄悄话 (0 bytes) () 12/13/2024 postreply 12:09:50

just googled and it shows -范尼- 给 范尼 发送悄悄话 (4378 bytes) () 12/13/2024 postreply 13:27:02

这种并不需要什么大模型,嵌入式系统识别还搞那么大内存用那么多CPU那么高功率在大模型上完全是浪费。 -bulubulu- 给 bulubulu 发送悄悄话 (0 bytes) () 12/13/2024 postreply 12:10:24

调用服务器上的大模型不行吗?非要把模型放到端侧? -伯克希尔哈萨维- 给 伯克希尔哈萨维 发送悄悄话 (0 bytes) () 12/13/2024 postreply 12:16:31

定义是“在网络,定位系统被摧毁的情况下自主完成任务” -bulubulu- 给 bulubulu 发送悄悄话 (108 bytes) () 12/13/2024 postreply 12:21:01

调用服务器的AI就不是 EdgeAI 了,这是不同的概念 -diablo18- 给 diablo18 发送悄悄话 (0 bytes) () 12/13/2024 postreply 12:25:13

离数据端近更安全 减少延迟和网络依赖 -小昭mm- 给 小昭mm 发送悄悄话 (0 bytes) () 12/13/2024 postreply 19:55:52

你理解错了,EdgeAI training用普通的计算机或服务器,需要大量GPU,模型生成后写入嵌入系统运行,嵌入系统 -diablo18- 给 diablo18 发送悄悄话 (85 bytes) () 12/13/2024 postreply 12:18:29

模型放在那了,从模型计算求解一样是个resource intensive的过程,如果是大模型的话 -bulubulu- 给 bulubulu 发送悄悄话 (384 bytes) () 12/13/2024 postreply 12:25:08

模型也是很大的,你去huggingface随便下一个MODEL, 都是几个G -testmobile- 给 testmobile 发送悄悄话 (0 bytes) () 12/13/2024 postreply 12:28:59

各种优化方法 模型会越来越小 -小昭mm- 给 小昭mm 发送悄悄话 (0 bytes) () 12/13/2024 postreply 20:01:15

对嵌入式了解不多,但AI计算是很耗电力和CPU的,嵌入式或移动设备很难达到这个要求,除非是一个终端, 但设备不需要AI -testmobile- 给 testmobile 发送悄悄话 (0 bytes) () 12/13/2024 postreply 12:15:34

如果Edge AI爆发,ARM应该是受益者之一 -study169- 给 study169 发送悄悄话 (0 bytes) () 12/13/2024 postreply 11:59:45

这个需要更多的半导体 -dividend_growth- 给 dividend_growth 发送悄悄话 dividend_growth 的博客首页 (0 bytes) () 12/13/2024 postreply 12:32:54

Edge AI vs. cloud AI -diablo18- 给 diablo18 发送悄悄话 (5598 bytes) () 12/13/2024 postreply 12:33:26

这里许多人对“Edge AI"感兴趣。我刚才问了我的在线AI,有你的观点。AI回答如下供参考。 -cromwellgm93- 给 cromwellgm93 发送悄悄话 (13414 bytes) () 12/13/2024 postreply 12:47:02

请您先登陆,再发跟帖!