这种并不需要什么大模型,嵌入式系统识别还搞那么大内存用那么多CPU那么高功率在大模型上完全是浪费。
所有跟帖:
•
调用服务器上的大模型不行吗?非要把模型放到端侧?
-伯克希尔哈萨维-
♂
(0 bytes)
()
12/13/2024 postreply
12:16:31
•
定义是“在网络,定位系统被摧毁的情况下自主完成任务”
-bulubulu-
♂
(108 bytes)
()
12/13/2024 postreply
12:21:01
•
调用服务器的AI就不是 EdgeAI 了,这是不同的概念
-diablo18-
♀
(0 bytes)
()
12/13/2024 postreply
12:25:13
•
离数据端近更安全 减少延迟和网络依赖
-小昭mm-
♀
(0 bytes)
()
12/13/2024 postreply
19:55:52
•
你理解错了,EdgeAI training用普通的计算机或服务器,需要大量GPU,模型生成后写入嵌入系统运行,嵌入系统
-diablo18-
♀
(85 bytes)
()
12/13/2024 postreply
12:18:29
•
模型放在那了,从模型计算求解一样是个resource intensive的过程,如果是大模型的话
-bulubulu-
♂
(384 bytes)
()
12/13/2024 postreply
12:25:08
•
模型也是很大的,你去huggingface随便下一个MODEL, 都是几个G
-testmobile-
♀
(0 bytes)
()
12/13/2024 postreply
12:28:59
•
各种优化方法 模型会越来越小
-小昭mm-
♀
(0 bytes)
()
12/13/2024 postreply
20:01:15