RL好点,LLM的底层逻辑就是token和所谓的自相干/偏相干(取了个fancy名字叫做Attention)

来源: 2025-12-02 19:12:00 [旧帖] [给我悄悄话] 本文已被阅读: