在作出诊断之前,医生和AI(或者干脆说是电脑程序也行)获取的信息是一样的,不是差不多,
而是一模一样,如果达不到这一点,那就是程序没做好。
而事实上,chat GTP在理解人类语言上,那是可以信赖的,绝对不会出现答非所问的情况。
而人类则不然,就像我楼下发贴问一下有没有这类程序,那老B就拿自己的数出来胡言乱语。
在同等数据的情况下,医生凭自己的经验,AI凭算力,你们觉得哪个可靠。
在作出诊断之前,医生和AI(或者干脆说是电脑程序也行)获取的信息是一样的,不是差不多,
而是一模一样,如果达不到这一点,那就是程序没做好。
而事实上,chat GTP在理解人类语言上,那是可以信赖的,绝对不会出现答非所问的情况。
而人类则不然,就像我楼下发贴问一下有没有这类程序,那老B就拿自己的数出来胡言乱语。
在同等数据的情况下,医生凭自己的经验,AI凭算力,你们觉得哪个可靠。