我们经常遇到的一个情况是,某些问题可能你起了N个盘,依旧追踪不到正确的结果,这时候我们会说要么问题无效,要么有隐藏。那么在光线追踪的情况下,为何还会出现大批量无效的情况?

在提问的时候,我习惯把问题区分为两个分组,即:主视角与辅视角。而什么情况下会出现无效?一种情况是此时你的参数本身是有问题的,所以不论是正向还是反向都无法得出有效结果,这时候就需要对参数额外增加一个【反向性】参考要素。

虽然并非原视角完全无法出现结果,但是之前说过,更多的情况下是此时的结果在你的认知范围之外,所以卦选择用这样的方式去tag你放弃,同时这并不代表着你解的结果一定会反向。只是暂时不在你的逻辑框架之中。所以就跟GPT一样,如果你限制了不允许他说谎或者编故事,那么他就只能选择用无法解读的方式去回答你。

对于GPT来说,每一本书,每一个知识点,每一个逻辑结构的构建,都会对起最终的输出产生一定比例的作用。但是未必每个逻辑结构的构建都能是正解,而找到正解的路径,去无限拟合他们,就是我们的工作(以后会是显卡的)。而之所以很多时候我们的感受不明显,更多的时候是由于调教不当,或者你的改变对于整体数据来说无法产生质变而导致的。

确实,如果你去roll足够多的次数,GPT在随机种子的改变下,总是能得到你需要的结果,但是这并不符合你构建的大规律。所以即使出现了你也不会把他视为正确的结果,或者说你也无法以正确的路径去使其成为正确的结果,最终只能成为一个概率游戏。

所以框架设计从一开始就对于你的视野起到了极其重要的作用。它可以直接锚定你的提问是否属于无效路径。通过这样的方式,来回套娃来找到指向于正解的结果。

比如最常见的几个情况:

  1. 参数出错
  2. 框架不包括此逻辑且无法稳定结果
  3. 未加密导致受到影响
  4. 个人用户ID权限不足(这个会衍生出一个ID玩法,具体看课,玩刮刮乐有奇效)
  5. 你瞎了别看了

所以你会发现不论是哪一种,其实都不指向与结果的错误,而仅仅是目前的拟合方式无法贴合卦想要给你的表达形式。所以适当的反向检测与激化其实反而能更有效地对繁杂地信息进行提纯工作。当然也有卡bug地方式,不过这就属于课程向地内容了这里暂且不谈。只是作为结果来看,反向性激化对数据结构框架地作用性不会弱于光线追踪,也是个适合进行深入推演地方向模块。

Categories:

No responses yet

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注