“今天这个光刻机制造的芯片,良品率有点儿低,通过良品境况标定反馈训练,过一段时间它就能有所提高。这是本质区别。”
因为在场的并非专业技术人员,程旭尽可能的简单的介绍着情况:
“光刻机的这个方案啊,其实是自动化与AI训练相结合的一个方案,是在光刻机原有的数据和控制程序基础上,进行的一个纠偏和强化,并不是从初始模型纯训练得来的。
“所以,我说,算是工业AI模型,但也不全是,算是自动化与AI结合的一个产物。”
一众人纷纷点头,这样是最符合逻辑的。
“可是,人工智能的训练不是都需要大量数据吗?”有人这样问道。
“现有的语言模型是这样的,你们看,他们在发布模型的时候,都在强调大,言心【大】模型,260也跟风搞一个什么260【大】模型,为什么强调【大】?
“你们可以理解为,人越是没有什么,就越会去强调什么。而且【大】等于【强】吗?
“现在来说,是的。因为大家所使用的初始算法,包括ChatGPT、
and也包括言心,基础理论和算法都几乎一样,那么谁的训练量大,谁的硬件更强,谁的投入更多,谁就更强。
“但是,【大】等于【好】等于【优秀】吗?这又显然不是。
“举个最简单的例子,ChatGPT动不动几个T几个T的数据投喂,挺大吧?
“再想想我们人类自己,从小到大,......
第62章智能的本质是向上
学习语言,听说读写,全加一块,能学多少语句量?”
不用程旭解释,所有人都明白,人,练习的再怎么多又能有多少?不会太多。
“再说工业模型,就以光刻机为力,全世界的高端晶圆工厂有几个?屈指可数!
“同一型号的光刻机又有多少?几百太上千台算多的了!真要用【大】模型,海量数据哪里来?
“所以,工业AI模型注定必须是小模型,用一条产线或几条产线上获取的有限数据就能训练出它的功能和价值。
“这其实是对价值判定模型的一个定向化改造,价值判定是通用体系,本身更像是全能模型。”
“这么说,小模型是比大模型更先进的?”文老开口问道。