如果程序中明确指定去“撒谎”,它自然会无脸不变色无心不用跳地“撒谎”。
如果训练数据包含错误,它的“诚实”就和“谎言”等价。
如果对它问题理解不准确,或者表达能力有限,它的诚实你不敢照单全收。
和基于知识图谱的AI系统不同,现在的LLM基本机制是“随机”,而不是“逻辑”。所以“撒谎”不是它的选项,而是它的“性质”之一。
现在这些基于LLM的AI,叫它们诚实的小骗子不算过分:)
如果程序中明确指定去“撒谎”,它自然会无脸不变色无心不用跳地“撒谎”。
如果训练数据包含错误,它的“诚实”就和“谎言”等价。
如果对它问题理解不准确,或者表达能力有限,它的诚实你不敢照单全收。
和基于知识图谱的AI系统不同,现在的LLM基本机制是“随机”,而不是“逻辑”。所以“撒谎”不是它的选项,而是它的“性质”之一。
现在这些基于LLM的AI,叫它们诚实的小骗子不算过分:)