——前言——

同一个问题是否具有复现地可能性?

除了概率,是否有别的因素影响到占卜过程中地结果?

如何框定一个范围让提问在DeepLearning视为同一个分析模型?

这个东西真的是个大坑,从大小球开始研究进去以后,想玩比分,玩了比分就得纠结具体地提问模型对框架地影响,骂骂咧咧展开新一轮测试。

——目标个体差异性——

我们在起卦提问的时候一般都会有一个主题,不同地客户,不同地情况,不同的问题,他们会有不同地展开和呈现。那么基于这样的逻辑,不可避免的会出现一个问题,对于神经网络来说,什么样的问题可以归于同一类?什么样的问题需要分类讨论?以及是否在他们之间有关联性可以通过卦来互相关联起来?ChatGPT的时间序列厉害的点在于他能把前后语序,逻辑,权重,关联成一个整体,这就如同我们在跟一个真正有意识的个体在交流一样。

那么这种个体差异性的点在哪里?其实在于模型本身,我们学习占卜的过程本身是构建模型,架设模型,训练模型,而为他人占卜的过程则是使用模型的过程。在这中间,承载着能够有多大的关联性的核心,就是系统结构。你在设计的时候,一开始是否包括了这部分逻辑?对于深度学习也是如此,但是有些不同的是,除此之外还需要考虑的是这个关联性是否能被这个神经网络的体量所承载。

——控制力与体量差异——

一个果蝇的脑壳子是3016个神经元,548000个神经元连接。老鼠是他的一百万倍。

这数据计算量,如果能全用来算卦,估计会很流弊。

【但是实际上我觉得显卡和电费灾难的可能性更高】

所以这是个多方权衡的平衡值,就如同上个文章中提到的实与虚的平衡点一样。在一篇知乎的文章中提到过这么一句话

作者发现,当我们训练用网络计算同余加法 a+b = ? (mod c) 时,网络在某个时间突然获得了 100% 准确率。 分析发现,神经网络实际上“顿悟”了使用傅立叶变换来计算同余加法!这个算法可以证明是正确的, 反人类直觉的。

其实这就是我之前说的,系统本身的自我迭代性,在不断的学习,训练中,产生的动态平衡。训练过了,这个模块就会出现不稳定性,重新进入虚的部分,训练少了,进入不到这个状态,那么就一直在山顶徘徊。

【但是实测下来,这个过程真的很随缘,只能说会趋近,但是不能保证一定能进入】

不过这样的前提是,我们需要给与足够地数据量。然后他能以动态地方式产生一种平衡性。至于这个进化地代数,讲实话看脸,我是起卦roll出来地数字。【赞美地占以及自己研发地星距数值算法,是真的好用】基于这个代数,我们可以获得在这个当前模型中较为趋近预期地结果。这里有个概念叫做学习率,可能结合着理解会很方便。每次重开,都会产生不同地学习率,这是个隐形地概念,所以我们需要随之匹配适合地频率。只有当这个网络足够大,能够承载足够多地信息量,并且你也按照要求让他输出足够多的信息量地时候,这个模型才算勉强成型。

——思考——

而在此之上,我们需要结合很多其他地因素,包括概率学,包括生物学,包括社会学,包括以你的个人认知为主导的主观影响力在内的很多方向。共同构建出的才是一个足够大的结构。不过退一步来说,如果是为了全面向,那么免不了就会有很多主观因素和影响力的干涉,这就超脱了此前的机器随机的纯粹的观测范畴,甚至还包括用户是否撒谎,是否翻转之类的判断,所以还是需要非常多的细节去慢慢补充的。不止是技术,也包括占卜,逻辑,思维。静待下一轮测试的进一步结果论证。

PS,最近在研究SNN脉冲神经网络,咋一看似乎挺贴近我的理念的,还在初步接触的过程中,希望能折腾点啥出来吧~

如果喜欢我的文章欢迎投喂,你的支持能让我更快的做出更多的实验与技术思路分享。

Categories:

No responses yet

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注