目前阶段,现在的LLM缺少一个形式逻辑校验模型。
网络系统上不断增长的信息相当部分不再纯粹是人类生成,而是也由各种模型生成输出,模型后续从网络系统上取得信息,AI生态系统陷入了信息熵增循环,AI模型生态系统的计算输出的真义误差陷入发散循环,不是收敛而是发散了。应该增加一个形式逻辑校验模型,识别并过滤掉网络上增长信息中的逻辑垃圾信息,提取由人类创造而添加到网络中的知识,只让这些由人类创造而新增的知识被吸收进模型。
增加一个逻辑或形式逻辑校验模型,并做到可以识别某些非正常的垃圾信息增量,识别出人类中不良机构的信息投毒模式,过滤掉垃圾带毒信息增量。比如,有些不良机构大量发布广告虚假信息,通过虚假信息的投毒行为,制造流量爆发,从而让AI生态系统被误导吸收虚假的垃圾或有害信息。
难点是如何让人工智能类似人类一样有“批判性智能”,人类中也是,比如有的人认知低,是人云也云类型的,他的头脑里吸收的也是道听途说的垃圾信息,有的人习惯性地对多信息通道进行相互校验,通过验证后才会进入自己头脑。