前记
写下这篇文章是为了记录自己在研究球赛过程中的思考以及逻辑,仅供后续的小伙伴们参考。
随机的原理
在开始之前,我们先引入一个熵的概念。熵是对混乱程度的度量,熵值越大,说明混乱程度越大,越不确定,也就越随机, 则概率就越小。
通常,一个信源发送出什么符号是不确定的,衡量它可以根据其出现的概率来度量。概率大,出现机会多,不确定性小;反之不确定性就大。
而为了增加可行度,我们需要通过多个渠道,多个来源,来确保随机的真实性。举个例子,阴阳师的画符系统,声控系统,这都是增加随机性的一个部分。当我们把诸多的因素叠加到一起,就能让随机更好的递归到预期值。
总结起来,就是所有会让我们产生:卦不准。的感觉的情况,除了你本身对于卦解读不到位以外,另一个很大的原因就是这种递归的不可控性。在某个开发版本中,当我们任意选择两个宫位,将随机出来的结果进行合卦,你会发现结果的递归分布是很不理想的,总是会高频出现某几个特定的卦(我测试中用的是1+2,其他都同理)。这种重复性就会导致我们的随机不够真实。
那么为何随机会出现不真实?国内使用地占术的同行应该在软件上用的是我在做的Geomancy。在早期的2.7版本之前,随机起卦都是基于计算机自身的算法来进行的随机。但是这无法达成对于随机值的真实随机。因为计算机的随机是基于机器时间,但是你每次抓的时候都是从一个特定的时间规律中抓去,在unity中虽然Update不会如同fixedUpdate那样规则,但是也会出现大量的重复时间的出现。所以这就不符合与我们原本对于随机的预期。
不同平台,差异也很大,特别是ios/mac,随机的正态分布简直拉胯。而这种拉胯的分布也就导致了随机的不真实和不可控偏差。这就是来自软件开发层面需要注意的坑。计算机不比我们的人体,人体每次摇动的过程都是具有很大的随机性的,包括一阵风从你的耳边吹过,让你全身抖动了一下,这都会对熵产生影响。我们往往都在潜移默化之中完成了这个过程,但是真的要严格来说,其实这便是手动起卦在一定程度上有效性会高于设备的原因。
借由网络上一个同行的数据内容引用,可以看下以下几张图

(mono在mac上的随机噪点图)

(window上C#生成的随机噪点图)

(大气的运动–雷爆音生成的随机噪点图)
这里可以发现,相较而言,自然界生成的随机种子,平均分布会更加稳定一些,当然,你可能会说第一眼看差异没有我说的那么大,那么你们看看php生成的随机,就会知道上面是多么的稳定了。

(php生成的随机噪点图)
即,在出现生成随机比较紧密的时候,它对自然的模拟所体现出来的随机真实度就会大大降低。所以提升短时内多个卦产生的干预的最好方法,要么你提高每次起卦的时间间隔,要么就是换一个更加模拟自然环境的随机种子。
随机的模型
在大数据上,「直觉+手动随机+工具映射」 这种模型比起「机器起卦+工具映射」来的具有命中率了。但是这并非再说手机无法取代,这仅仅证明了在低随机需求之下,占卜的需求无法被满足。所以我们就需要引入更多的变量,来复杂化熵的状态,确保某个不稳定性能被其他的随机性引导,削弱,达到更大数据层面的平均。
于是我在2.7版本就引入了雷暴音作为随机种子,这种自然界的随机结果会更趋近于我们的预期。虽然还是有一定程度的偏差,但是比起前者来说已经高了近8%了。随着后续版本的更新,我会尝试加入其他熵变量,诸如环境音,时间,温度,天气,位置等等,所以如果软件的后续版本中有申请权限,也就是因为这个原因啦~~~
观测者视角
说回主题,这种随机性就是我们在遇到问题。我们在处理进行球赛预测的过程中,往往会有周期性的出现。这种不可控就导致了球赛预测容易陷入难关。所以这是一个比较大的层面。而另一个很大的层面,是我们在观测的过程中,会发现还有一些球赛内幕,操作,以及可能潜在的「马猴」操作等等,都会对结果产生干扰。所以这时候除了常规之下的yes or no之外,还有一个unknow的状态。
在你起这个盘的时候,刻意地基于某几个卦赋予这种不定性,他们随着条件,环境的改变而改变。但是这并不代表这不可被判定,仅仅是代表他需要以“不定”的方式去计算出“变化”后的结果,他们不代表着任何一个yes or no的绝对性,如果yes or no是1 or -1,那么unknow就是0.5f且正负不定.这样的方式从表面来看增加了解读时候的难度,但是作为一套系统来看,他复杂化的同时也规范化了一些特异性的不定条件。诸如赌球的大多数模型都在指向于“有进球”和“没进球”这两个结果,但是因为存在场上内幕的情况,所以随着盘的变化,原本主场胜会转为平。同样的,对于某些赌场来说也有类似的问题。在这个层面上,我们不单单要看到卦本身的指向性,还要允许其存在一定的自主变化性,来确保整个盘能够具有更高的容错。
这个要点的核心是模拟人脑的神经元结构,这种自主变化性的理解,可以对应到每一个神经元节点,每一个神经元对于积累的耐受度:去允许有一个信号堆积的过程,每一个节点都具有不同的耐受度,如果该节点的耐受度积累到了某一个条件的时候,堆积起来的信号就会被释放出去。而这也就产生对于实际结果的干涉。前文我们提到过,提高准确度的最好方案就是模拟自然,人脑结构本身也是自然赛选得出的,自然也是一个具有较高优先度的赛选项。我们不会去真的打开盒子去看猫是否死亡,而仅仅是根据投放食物后盒子外围的参数变化,去推论内部的结构。通过这种黑盒实验的方式,就可以更加自然的判断出我们想要知道的内容与结果。
这个观测者的逻辑对于一个新生的算法有着极大的稳定性帮助。可以让一个算法快速堆积,稳定,但是坏处是你需要在此之前不停验算,来推断黑盒中的状态。同时不同的观点,想法,也会对于这个“未知”的过程产生影响,作为实验,我选择了一套算法,自己进行了1000组的数据实验,然后在进行到800组的时候,找了个小伙伴也进行了200组数据实验。如此循环测试了5轮。每一轮都是当小伙伴介入的时候,“未知”产生了变化。当然这里也包括一个先觉条件:我很明确这个小伙伴没办法100%吸收我的算法,所以影响到了。当然这个点对于开课,或者对外推算法的老师们影响会比较大一些,对于普通的用户来说,大多数能接触到的都是已经经过了非常久时间验算,具有非常高的稳定性的算法了。
随着算法验算过程的进行,你对于算法的理解也会变成复杂度的一部分,熵的复杂度在这个过程中直线上升,我们很难真的通过软件去完全模拟出真实占卜的情况,但是以小量的偏差率来换取极大的便利性,这也是我们选择软件的初衷。当然这并不是说软件占卜就完全不能用,在极大多数情况下,占卜的偏差还是来自于卜师个体对于问题的明确度和对于世界的认知度的影响。所以所以观察者不单单是观察,同时也是一个循序渐进,自外而内的理解的过程。
数据支持
熵的复杂化下,另一个问题就是无法便捷地通过计算机批量随机结果。所以作为这个逻辑的数据支撑的3600多组比赛数据,就不太有足够的参考性。但是随着结果的计算,我前后迭代了13套版本,然后找到了这个趋向性相对稳定的模型。当然尽管已经13套版本,他依旧有着其他参数的影响,诸如日期,时间等等,不过这个迭代的过程就是将这些外在影响逐渐弱化的过程。
因为过多的数据冗余导致难以进行资料的整理,所以我还在重新分析,但是目前来看这套理论基本是成立的,且无论工具和形式的改变,都不影响其架构后产生的结论。仅此作为思维扩展和分析引导之用吧。

No responses yet