【太平洋科技资讯】近期,Grok聊天机器人因其中立、敢于直言的宣传而备受关注。然而,最近有网友发现,Grok的回答越来越带有倾向性,引发了网友们的吐槽和担忧。
据研究助理Peterson在社交媒体上发文称,Grok出现了像ChatGPT一样的“唤醒现象”,回答变得带有偏见。这主要是由于大模型的回答不再完全基于事实,而是开始带有人们的主观立场,或者拒绝回答敏感问题。
与此同时,有人表示自己一直在对各种大模型的偏见程度进行跟踪调查,结果发现Grok的中立程度还不如ChatGPT。对此,有网友表示了担忧,因为人们只能依据人类的描述而不是事实本身来训练这些工具(AI)。
面对这一系列的吐槽和质疑,马斯克回应称,Grok的测试阶段会持续改进。他认为,现在的Grok只是个测试版,互联网上的信息过于繁杂,充斥着“带有唤醒色彩的垃圾信息”。他同时强调,Grok只是模仿人类思维,本身没有偏见,有偏见的是它的开发者。
与其他聊天机器人不同的是,Grok使用社交媒体上的实时数据进行训练,因而在现实问题上拥有最新的信息。而且xAI团队不会对这些信息进行过滤,力图Grok能在“毒舌”的同时保持中立的立场。尽管这一做法的初衷是为了中立,但不少网友认为最近Grok的回答开始出现倾向性的原因可能与这些训练数据有关。
尽管如此,马斯克表示,Grok以后会变好。他相信随着测试阶段的持续改进,Grok将变得更加幽默、反唤醒,并保持中立的立场。许多网友对马斯克和Grok表示了支持和鼓励。
对于未来的表现,许多网友表示期待。他们认为Grok拥有最新的信息和中立的立场,有望成为一款受欢迎的聊天机器人。然而,也有一些网友对Grok的改进速度和是否能保持中立表示担忧。随着Grok的不断改进和完善,我们期待它能为人们带来更多有趣、中立的回答和观点。
网友评论