【爆料】GPT训练数据被大量借用?国内模型水准即将突破!

【爆料】GPT训练数据被大量借用?国内模型水准即将突破!

国内团队借鉴GPT数据进行训练?

1、国内团队借鉴GPT数据进行训练?

大家有没有注意到最近国内某个团队推出的问答服务,效果竟然和GPT如此相似!我试着问了几个“基准问题”,回答的结构和用词简直一模一样。这是它们直接用了GPT的大量问答数据来训练自己的模型吗?国内市场上确实有很多GPT和GPT3.5的代理,他们获取了大量GPT真实用户的问答数据,这无疑是非常优质的训练素材。但是,这么做其实是违反GPT的协议的,虽然OpenAI管不了,但这样做有点丢人啊。

全民GPT时代已经来临?

2、全民GPT时代已经来临?

如果大家都觉得这种方法合理,那么我们的确很快可以看到国内模型达到GPT的水准了。我甚至怀疑,以后会有更多人做得更隐蔽,把GPT的文风痕迹抹掉,那么就连用户也察觉不到了。更有消息称,确实已经有一些人在这么做了。这是不是意味着以后大家互相拿来训练都可以呢?看来,我们的思维要转变了。数据已经不再是门槛,我们将迎来全民GPT时代,所有人都可以变成GPT的“兄弟”了(当然,相信不久的将来,大家会开始做差异化,让用户看不出来)。

回顾

回顾

国内团队竟然借用了大量GPT的训练数据来训练自己模型,这引起了广泛的关注和讨论。虽然这种行为违反了GPT的协议,但也意味着国内模型水准的突破即将到来。未来,数据将不再是门槛,全民GPT时代将真正到来。

感谢大家的阅读!

不要错过更多关于这个话题的信息,请访问葫芦娃AI

© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容