根据界面新闻的报道,最近有消息传出,多个微信群中流传着一则消息:某一家知名公司的大规模模型训练遭到了实施破坏的入侵,注入了破坏性代码,导致该模型的训练结果无法可信,可能需要重新进行训练。据传入侵的代码注入了8000多次,这可能造成的损失超过千万美元。知情人士透露,这家知名公司指的是字节跳动。该事件发生在今年6月,起因是一位博士借职于字节跳动商业技术团队,在那个团队中实施了袭击代码,破坏了既定的模型训练任务,原因是对团队资源分配不满。截至目前,官方还没有对此事做出回应。
传闻称,这位姓田的实施者利用了HF(Hugging Face)的漏洞,在公司的共享模型中注入了破坏性代码,导致模型的训练效果时好时坏,无法达到预期的训练效果,并且AML团队无法确定原因。然而,在传闻曝光后,这位实施者还在某个微信群中否认指控,声称自己在发表论文后就离开了字节跳动,而此时另外一个人利用了漏洞修改了模型代码,将责任推到了自己身上。
消息人士称,字节跳动内部的调查明确指向了这位姓田的实施者。目前,这位实施者已经被解雇,字节跳动同时向阳光诚信联盟、企业反舞弊联盟和他就读的学校报告了此事。但是,这位实施者失去工作后一直在各处辟谣,声称是他人所为。
报道称,这位实施者攻击的并不是豆包大模型,而是商业技术团队的模型训练任务,对该技术团队的一些业务进展产生了影响,但总体上对公司造成的损失并没有传闻中的那么大,超过千万美元。
还没有评论,来说两句吧...