欧洲新闻网 | 中国 | 国际 | 社会 | 娱乐 | 时尚 | 民生 | 科技 | 旅游 | 体育 | 财经 | 健康 | 文化 | 艺术 | 人物 | 家居 | 公益 | 视频 | 华人 | 闽东之光
投稿邮箱:uscntv@outlook.com
主页 > 财经 > 商贸 > 正文

硅谷又掀起口水战:OpenAI等公司齐称xAI不负责任!

2025-07-17 17:10 财联社  -  304315

财联社7月17日讯(编辑 马兰)马斯克名下公司xAI开发的人工智能模型Grok因多次发表敏感、争议性言论而引发关注,这让人工智能的安全性问题再次被大加讨论。

OpenAI、Anthropic和其他美国人工智能研究组织的研究人员纷纷发表了对xAI的谴责,认为该公司在人工智能模型安全性问题上行事鲁莽、完全不负责任。

周二,在OpenAI从事安全研究的哈佛大学计算机科学教授Boaz Barak在X上公开批评称,他本来不想发表关于Grok安全性方面的文章,因为他的公司与其存在竞争,但此事无关竞争。他很欣赏xAI的科学家和工程师,但他们处理安全问题的方式完全不负责任。

Barak对xAI不发布系统卡的决定尤其不满。美国AI行业一般会在模型公布后发布系统卡,其中详细说明了模型的训练方法和安全评估,以与研究界分享信息。但Barak表示,现在学界和业界对Grok 4进行了哪些安全训练一无所知。

立场倒转

xAI的Grok 4模型于上周三推出,用户需支付每月30美元的订阅费用才能使用。然而,这一被宣传为“世界上最聪明”的聊天机器人在短短一周内数次掀起美国的舆论风浪,发表了诸如支持希特勒、好莱坞被犹太人掌控等言论。

Anthropic的人工智能安全研究员Samuel Marks表示,xAI在模型安全问题上十分鲁莽。虽然Anthropic、OpenAI和谷歌的发布也存在问题,但他们至少做了一些事情,在部署模型前评估安全性并记录了调查结果。xAI却什么都没有。

OpenAI和谷歌在及时分享新模型的系统卡方面声誉不佳。比如OpenAI不发布GPT-4.1的系统卡,理由是它并非前沿模型。谷歌则在发布Gemini 2.5 Pro数月后才发布安全报告。

然而,这些公司通常都会在前沿模型全面投入生产之前发布安全报告,而xAI的做法与行业惯例截然不同。一名研究人员声称,根据其测试,Grok 4没有任何有意义的安全护栏。

xAI安全顾问兼人工智能安全中心主任Dan Hendrycks回应,该公司对Grok 4进行了危险能力评估。但评估结果并未被公开分享。

令人诟病的是,马斯克此前一直以人工智能安全倡导者的形象出现,多次警告称,先进的人工智能系统可能会给人类带来灾难性的后果。他还多次抨击OpenAI在模型安全性上的瑕疵,但没想到他自己公司的Grok 4模型也陷入了安全性争议。

  声明:文章大多转自网络,旨在更广泛的传播。本文仅代表作者个人观点,与美国新闻网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。如有稿件内容、版权等问题请联系删除。联系邮箱:uscntv@outlook.com。

上一篇:H20芯片对华解禁,是利好还是新陷阱?
下一篇:没有了

热点新闻

重要通知

服务之窗

关于我们| 联系我们| 广告服务| 供稿服务| 法律声明| 招聘信息| 网站地图

本网站所刊载信息,不代表美国新闻网的立场和观点。 刊用本网站稿件,务经书面授权。

美国新闻网由欧洲华文电视台美国站主办 www.uscntv.com

[部分稿件来源于网络,如有侵权请及时联系我们] [邮箱:uscntv@outlook.com]