【未来虫教育】活在过去,不识意外(未来之虫族txt书包网) 99xcs.com

这一点,精准地击中了当前AI的核心痛点。人类乃至所有动物的学习,本质上都是通过“预期”与“现实”之间的偏差(也就是“意外”或“惊喜”)来调整和深化认知的。

你以为今天会下雨,带了伞,结果晴空万里。这个“意外”,就会让你下次在判断天气时,更加审慎地看待天气预报。但LLM没有这种适应性。

一个有趣的例子:你问LLM,“把冰块放进微波炉加热会怎么样?”基于它读过的所有文本,它会自信地回答:“冰块会融化。”这是基于训练数据的预测。

但是,如果你真的动手做这个实验,发现因为微波炉功率太低,冰块在里面转了半个小时都几乎没变化。这个“意外”发生了。你会怎么做?你会立刻更新你的认知:“哦,原来微波炉加热冰块的效率这么低。”

那LLM呢?它不会。它不会因为这个真实发生的意外,而改变自己的认知。下次你再问它同样的问题,它还是会机械地回答:“冰块会融化。”

为什么?因为它没有“身体”去亲自做这个实验,它没有“感官”去观察实验结果,它更没有一个机制,能让这个“意外”的现实,去修正它那基于历史文本的“旧知识”。它根本没有体验“经验”的能力,只是在被动地处理文本输入。

这就是LLM的第三个致命缺陷:它是一个活在“过去”的、静态的知识库。它无法被“现实”所修正,也无法被“意外”所启发,因此,它无法获得真正的、持续的成长。

久久小常识(www.99xcs.com)™