AI 是一场革命,才刚刚开始。Edge AI 将会是下一个爆炸点,值得关注相关股票
所有跟帖:
•
所谓的edge AI ,就是internet if things 之类的fancy words吗?
-伯克希尔哈萨维-
♂
(0 bytes)
()
12/13/2024 postreply
11:50:59
•
截然不同,IOT依赖各种网络,即所谓得万物互联。EdgeAI是把training好得模型写入embedded系统中
-diablo18-
♀
(216 bytes)
()
12/13/2024 postreply
11:56:40
•
有相关股票推荐吗 谢谢
-westandingup-
♀
(0 bytes)
()
12/13/2024 postreply
12:09:50
•
just googled and it shows
-范尼-
♀
(4378 bytes)
()
12/13/2024 postreply
13:27:02
•
这种并不需要什么大模型,嵌入式系统识别还搞那么大内存用那么多CPU那么高功率在大模型上完全是浪费。
-bulubulu-
♂
(0 bytes)
()
12/13/2024 postreply
12:10:24
•
调用服务器上的大模型不行吗?非要把模型放到端侧?
-伯克希尔哈萨维-
♂
(0 bytes)
()
12/13/2024 postreply
12:16:31
•
定义是“在网络,定位系统被摧毁的情况下自主完成任务”
-bulubulu-
♂
(108 bytes)
()
12/13/2024 postreply
12:21:01
•
调用服务器的AI就不是 EdgeAI 了,这是不同的概念
-diablo18-
♀
(0 bytes)
()
12/13/2024 postreply
12:25:13
•
离数据端近更安全 减少延迟和网络依赖
-小昭mm-
♀
(0 bytes)
()
12/13/2024 postreply
19:55:52
•
你理解错了,EdgeAI training用普通的计算机或服务器,需要大量GPU,模型生成后写入嵌入系统运行,嵌入系统
-diablo18-
♀
(85 bytes)
()
12/13/2024 postreply
12:18:29
•
模型放在那了,从模型计算求解一样是个resource intensive的过程,如果是大模型的话
-bulubulu-
♂
(384 bytes)
()
12/13/2024 postreply
12:25:08
•
模型也是很大的,你去huggingface随便下一个MODEL, 都是几个G
-testmobile-
♀
(0 bytes)
()
12/13/2024 postreply
12:28:59
•
各种优化方法 模型会越来越小
-小昭mm-
♀
(0 bytes)
()
12/13/2024 postreply
20:01:15
•
对嵌入式了解不多,但AI计算是很耗电力和CPU的,嵌入式或移动设备很难达到这个要求,除非是一个终端, 但设备不需要AI
-testmobile-
♀
(0 bytes)
()
12/13/2024 postreply
12:15:34
•
如果Edge AI爆发,ARM应该是受益者之一
-study169-
♂
(0 bytes)
()
12/13/2024 postreply
11:59:45
•
这个需要更多的半导体
-dividend_growth-
♀
(0 bytes)
()
12/13/2024 postreply
12:32:54
•
Edge AI vs. cloud AI
-diablo18-
♀
(5598 bytes)
()
12/13/2024 postreply
12:33:26
•
这里许多人对“Edge AI"感兴趣。我刚才问了我的在线AI,有你的观点。AI回答如下供参考。
-cromwellgm93-
♂
(13414 bytes)
()
12/13/2024 postreply
12:47:02