像过大年。
而“今年”的“春晚”只有一个主角,那就是类思维模型。
“一百多项专利我全都整理了,纪大在河州大学智算中心项目的启动仪式上讲的那番话,我也反复琢磨过。
“据此,我设计了一套实施方案从0开始训练一套类思维大模型,源程序上传到gitee码云上了,地址是::gitee.comclass-thinking。有兴趣的可以下载下来一起试试,共同探讨。”
“我试了,根本不行啊,这效率,还不如直接从0搭建gpt呢!”
“你废话,专利文件肯定不可能给你披露细节的,这需要你一点点一点点的慢慢去试去调整,才能达到最佳。”
“能达到吗?我怎么觉得这就是个坑呢?我用数学模型做了一下评估,所有条件都考虑进去,看多少参数的小模型替代神经网络节点,结果是多少你们知道吗?答案是1。”
专业的it社区都是业内人士,尤其是今天,csdnblog人工智能分区更是一群ai领域大佬的聚集地。
答案是1代表什么意思,他们再明白不过了——那就是现有神经网络模型的效率就是最高的,任何改变都只会影响效率,而不会提高效率。
“把你的计算过程贴出来,我们一起看看”
“好!”这个人名为孙博,毕业于信息科技大学本科,国科大硕士、博士,现为科学院自动化所人工智能基础前沿理论研究室研究员。
纪弘也在窥屏,他是csdn的老用户了,也经常会在里面发一些东西,今天从河州大学回来以后,也是照例进来看了看。
正好就看到这群人在讨论类思维模型的事儿,也就一直在盯着。
当孙博把所有的计算过程贴出来的时候,他也是第一时间就下载了下来。
计算过程极为复杂,涉及到微分、积分、线性代数、离散数学、最优化理论、信息论等一大堆学科的交叉。
如果不是最近能力一直在+0.1+0.1的不断在提升着,这么复杂的东西他都有可能看不懂。
“这人不简单呐!”好久之后,纪弘才感叹着,不知道是哪位大佬,有没有机会挖过来?
这么想着,纪弘挑了一些纯理论且不涉及机密的东西给他私信了过去:“我看博主水平非常高,对这个方向有兴趣吗?有机会可以聊聊。”
发过去之后,纪弘就没再管他,又在窥屏