——前言——
传统逻辑下,我们会认为一个卦是一个单独的叙事方式,是一个单独的调用。第二个卦使用可能重复,也可能全新的角度去重新讲述一次这个事情。但是这里的问题点在于,卦与卦之间是否可以存在关联性?以及他们是如何存在关联性的?
我们知道魔法作用有时候会先于仪式本身而出现,那是因为高一个维度是不会收到时间轴的干涉的。【所以理论上存在对于过去做仪式,在不改变个人主观观测结果的前提下,去修改客观结果的逻辑,虽然仅限于理论】。那么如果要让卦与卦之间产生连贯性,就需要搞明白我们到底查询了什么。
——关联性——
我们可以把宇宙理解为一个个的API接口,我们每次的查询都是调用。但是除此之外,存在另一个类型的代码逻辑,就是动态产生接口,类似于热更新的方案,只要你的覆盖频率高于宇宙对于这个脚本文件的更新频率,理论上就会一直存在一个供你调用的接口。而与此之上,卦与卦之间的关系就可以利用这个接口的设计去产生粘性。
简单来讲,就是把单次调用改造成通过多次调用实现多表联查的过程。所以在此之上,我们需要让系统兼容多表链差过程中的意外情况,也就是增加不可读卦的类型。当然在这个过程中不可避免的,比起纯粹的75%来说,这样的方式增加了许多不可读卦,但是对于可读的卦, 不再受限于75%的束缚。
——区域内的精准度——
这个点很重要,如果能在某个限定区间内突破75%,那么这也是一种解决思路。包括时间,包括可能性分支都包括在内。那么什么算是不改变既定结果的预测与参与方式?拿球赛举例,你投入的钱并不值得庄家为其改变比赛结果。那么这个就是一个你能参与,且结果不会参与改变的结果。换句话说,为什么世界杯那么不定?因为资本流量过大,所以需要多增加一个16宫的观测来确定最后的结果是否会因为我的购买而改变。
而连贯性的作用就在这里,通过多机位的观测方式,然后把它们之间关联性用N张过滤表赛选出来,这样得到的结果,或者说留存下来的结果,就可以实现极高的稳定性。而这个方案唯一的问题就是这个大表在构建的过程是及其痛苦的,因为随着时间,科技和你的认知的发展,表中的选项会不断扩展,所以如果仅限于某个结构|时期|范围之下的统计才能更为稳定,但是因为你仅限于某个区间,所以这个区间的上下限从一开始就限定死了。
同时因为多表查询的出现,你具有可以反向赛选掉一些错的逻辑结构的能力了,这是在多表结构下所特定会出现的情况,就像是AI的“涌现”现象一样。因为卦与卦的关联性增加了,在训练量达到足够的一个数值以后,这种关联性反而帮助规则能够反向赛选并且找到某些差一步就能实现目的的盘来达成观测最终结果的预期。
不过对于宇宙来说似乎这样是个很好的方案,因为他不需要做过度的关联,也可以实现结果的输出。因为你覆盖,重构了他的输出部分代码,那么他只需要进行小幅度的调整就可以适应你的规则,这样的方式不会牵扯到,动到过多的规则改变,也不会给计算带来过多的负载,只需要以某个prompt之下去继续执行下去,便可以有效解决问题。
——偏差还是真实???——
说到这里就很想拿吸引力法则出来鞭尸下。吸引力法则大家又喜欢叫做幸存者偏差。但是在这个思维之下,你会发现其实他是有效的,但是前提是你不能被那张大网赛选掉,但是究竟如何不被赛选掉,这就不是本文讨论的范围了,只是作为结果来看,他确实是可以在小范围内实现100%吸引的,但是对于这张大网的探索就需要交给其他人去尝试了,仅仅是作为思维结构的层面,他是具有可行度的,那么讨论到这里也就足够了。

No responses yet