之前的文章里,我们一直在谈随机性对于结果产生的影响。那么究竟什么是自然分布?我们会联想到高数里面谈到的正态分布的概念。即,我们随机出的那么多结果,总是会以某种趋势趋近于正态分布的最终结果表达于呈现。

但是这和我们的主题有啥关系呢?如果同样是Random.next 1000组1和0数据做加和,虽然确实也是很随机的,而且随机结果也会大致在480~520之间徘徊,但是当拆开这些结果来看,会发现很多相似性的结构在数据中被识别出来。但是这本身不符合真实情况.

我们现实中的随机结果会遵循正态,但是也有可能因为桌子不平整,手酸等等问题,导致结果会和纯粹的正态分布有一点点微妙的偏差。但是他不会出现过度的相似性。因为在这个过程中万事万物都是熵,甚至包括消息提示音,都会微妙地改变你对于结果地偏向性。但是Random和这个是不同地,因为他是基于计算机地时间来生成地

所以当你尝试去做个实验,我举个例子,你随机4个数字为一组,随机2组。然后像是地占一样,采用相同位则为0,不同位则为1地情况,进行合卦。特别是当你把这个行为用手机来进行表达地时候,就会有几个卦开始高强度地随机出现。那么这个情况就是计算机对于随机结果地干涉与影响性地体现。

那么正态分布就是模拟真实随机的一个过程,我们如果利用一个标准正态地模型,就可以查表找到每一个百分比所对应地x和对应地z值表。我把这个过程称之为反正态修正。虽然这个过程无法做到绝对精准,但是小数点后8个0以后地结果我们还是忽略不计吧。总之我把结果精准到了小数点后8个0,来利用正态分布模型,生成了一个全新地随机结构:反正态随机分布。

在很多qq群的交流中,我都提到了这个问题,有支持地,也有否定地声音,但是不得不说,感谢这些否定地声音让我更加想要了解这个问题背后地真相。部分群友们给予了我很多想法上面的引导和扩展。大致整理了一下,并经过300场球赛的实验数据,得到了一个有意思的结果。

如果我们不限定方法,那么变量就难以估算。但是如果限定了,又会很死。于是为了解决这个问题,我选择用特征图的方案来解决问题。这本来是一个深度学习里面的概念,简单来说,我们把卦拆解为若干模块,通过对其利用不同的算法,不同的套用,以及不同的赛选模板,让其结果特征被一轮一轮地赛选出来。最终我们得到的就是这些特征参数影响下地最终结果,而作为对比组,也就是原随机方案地对照。最终结果上,按照我们之前讨论地逻辑之下所构建地全新地随即体系,在相同方式地赛选中,在限定方法的过程中,以及反正态分布的随机结果中,包括我的眼瞎在内,产生的命中率以7%地优势获得了胜利,而且一个很有意思地现象是,不同于常规逻辑,我们对于某些问题随着问题次数地增多,总是会有出现好牌地情况,这个问题少了不少。也许你会觉得这是偶然,好吧,让我们再升级一步,上【深度学习】大杀器。

利用深度学习,我训练了一个900个权重节点地模型,并把最近2年内地比赛结果投喂了进去。虽然效果没有我预期地理想,因为我的电脑不堪重负宕机了。但是在硬盘修复地过程中我找到了这次训练地圣遗物,也就是崩溃前地最后一次循环完成时候保存地数据。虽然我知道这个数据他一定不会是最理想地值,但是我还是跑了起来。结果出乎我的预料,通过对于结果进行一定处理,球赛命中率从原本我前20个版本的76%,直接提升了10%左右,也就是86%。可能你会觉得这没什么,但是一般你就算是mace以后的结果,加上你的个人误判因素,也会维持在大约75%左右的这个值,但是机器学习直接干上了86%!

这是什么概念,如果这次学习完成,或者如果我增加足够多的案例和节点,那么我会得到的是一个多么恐怖如斯的算法结构?虽然无法确定目前的数据是否是由于样本过少导致的误差,还是一个临时性假象,还是暂时静待服务器跑完新数据吧~

No responses yet

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注