这是一个非常健康的转变,大有成长前途。
现在AI开发从match转向think了。
所有跟帖:
•
说说容易做做难,底层上还没看到,几个大厂好像都没看出门道,
-SweetTomato-
♂
(0 bytes)
()
11/13/2024 postreply
09:31:53
•
各大都开始做了,而且重要的是,理论上已经被证明,AI思考是可行的。
-uptrend-
♂
(0 bytes)
()
11/13/2024 postreply
09:35:56
•
没有, 只是match的数据量大了, 加之用人工TAG去干预match结果,用自然语言生成结果, 给人个假象好像在思考,
-testmobile-
♀
(0 bytes)
()
11/13/2024 postreply
09:41:06
•
那种做法是旧闻。
-uptrend-
♂
(0 bytes)
()
11/13/2024 postreply
09:44:29
•
GPT的算法模型就是这样,计算每个词和文章里所有词的关系,十多年没变过,以前因为没用GPU无法统计大量的关系, 现在可以
-testmobile-
♀
(0 bytes)
()
11/13/2024 postreply
09:46:59
•
正因为现在可以了,所以在开发的就是现在还不可以的。
-uptrend-
♂
(0 bytes)
()
11/13/2024 postreply
09:50:33
•
比如有时看见CHATGPT在胡说,就是他的数据源里这个结果的匹配率最高,得靠人工加TAG来修正,他没有自我思考和纠错能力
-testmobile-
♀
(0 bytes)
()
11/13/2024 postreply
09:43:21
•
人类早期住山洞里。那又怎样呢?
-uptrend-
♂
(0 bytes)
()
11/13/2024 postreply
09:48:34
•
不用杠头,这个方法是比以前先进了,但做不到高准确性, 而且纠错成本高,所以很难做到大规模应用,在一些特定场合还不错,
-testmobile-
♀
(0 bytes)
()
11/13/2024 postreply
09:51:32
•
你不看好很正常。可以理解。
-uptrend-
♂
(0 bytes)
()
11/13/2024 postreply
09:52:58
•
现在的技术靠砸钱多训练解决不了这个问题,未来肯定会有好办法出现,但这不是一般的技术创新,不是一两年的事,花街等不了
-testmobile-
♀
(0 bytes)
()
11/13/2024 postreply
10:02:20
•
人类之所以有智慧,除了明白各个agent之间的关系,还有什么吗? 没有的话,说明目前AGI的方向是可行的
-cnrhm2017-
♂
(0 bytes)
()
11/13/2024 postreply
10:41:36
•
人类社会有一整套体系,如教育,法律,保险来确保人类执行过程中的稳定性,而AI没有,比如AI失误放了火,谁负责, 厂家吗?
-testmobile-
♀
(0 bytes)
()
11/13/2024 postreply
10:55:15
•
这个就比如问卖车的话,出事了谁负责?保险公司. 科学运用都是先发展,regulation再跟上
-cnrhm2017-
♂
(0 bytes)
()
11/13/2024 postreply
11:12:06
•
特斯拉每次出事故都是一地鸡毛,现在TSLA用辅助驾驶的做法把责任推到司机上,但全自动不可以,保险公司也不会做这个冤大头
-testmobile-
♀
(0 bytes)
()
11/13/2024 postreply
11:45:24
•
tesla FSD保险问题讲6年了,最后估计是tesla自己搞保险
-cnrhm2017-
♂
(0 bytes)
()
11/13/2024 postreply
12:46:14
•
当然你要是觉得这些事简单,那也没啥好说的,
-testmobile-
♀
(0 bytes)
()
11/13/2024 postreply
11:46:46