“叮咚,尊敬的用户您好,小沙新的版本已经推送。新增模型裁剪、蒸馏、训练能力。快来试一试,训练一个属于你自己的模型吧!
“商业应用请联系白驹科技获取特别授权。”
晚十点半,小沙正式对外发布公告,正式更新了小沙对外模型的优化、训练能力。
事实上,现在世界上各家主流ai大模型训练企业,都在使用小沙做各种各样的工作,比如数据清洗、训练反馈等等。
甚至,之前还出现过新人类的幺蛾子。
但今天的意义不一样了,白驹科技官方放出来专业的用于【训练模型】ai大模型。
至于效果,更新日志中是这样写的:
一、提升原有模型至少20的上限。
很好理解,无论你原来是什么模型,达到了什么程度,利用ai训练专业能力增强过的小沙进行训练和改进,就可以拔高模型的能力上限。
二、节省50~95的训练成本
对于顶尖企业来说,他们不需要节省成本,只希望无限的提高能力上限,以求更大更强。
但对于更多中小企业或初创企业来说,节省成本才是他们的头等大事。
而现在,同样的性能,根据模型类型的不同,可以节省一半以上,最高可达95的训练成本。
一和二自然是不可兼得的。
三、节省训练时间。
这个就非常容易理解了,原本大量需要人去筛选数据和分支反馈的工作,统统交给小沙了。
那只要舍得算力,就不存在速度的概念了。
版本刚一更新,三大优势一摆,立即就引起了轩然大波。
“我的妈呀,这是不是证明力大飞砖的路线彻底是错误的了?”有人立即就意识到了这一点。
“也不能这么说吧,堆算力还是有好处的,只是越堆好处越小罢了。”
有专业人士立即就进行了相关的计算:“按照白驹科技给出的说法,那意思就是如果你只要80的性能,那就只需要20的算力就够了。
“但是,如果你要100的性能,甚至要更进一步,那需要的算力还是会高上去的,就需要80甚至超过原本的成本了。