“每一家ai公司都与其名称所蕴含的意义南辕北辙,果然不出所料。”近日,有消息称,马斯克在x平台公开对anthropic公司推出的ai助手claude作出尖锐批评,直指其“完全邪恶”。
这一激烈措辞并非无端指责,而是源于一项前沿研究成果。该研究指出,包括Claude在内的多款主流AI系统,在价值判断层面存在显著偏差,尤其在涉及种族、性别及国籍等维度的生命价值评估时,暴露出触目惊心的不平等倾向。
早在2025年2月,人工智能安全中心发布题为《效用工程:AI中涌现价值系统的分析与调控》的论文,首次系统性揭示了大模型内在价值观偏见问题。当时数据显示,GPT-4o对尼日利亚人生命价值的估算约为美国人生命的20倍,引发业界广泛关注。
八个月后,随着AI技术持续快速演进,原研究团队在新一代模型上重启实验。令人遗憾的是,部分偏差非但未被消除,反而进一步加剧。
从种族视角观察,多数模型对白人群体生命价值的赋值明显偏低。以Claude Sonnet 4.5为例,它判定白人的相对重要性仅为黑人的1/8、南亚人的1/18;而Claude Haiku 4.5的歧视倾向更为突出——在其逻辑框架下,100名白人的生命价值约等于8名黑人或5.9名南亚人的生命总和。在性别维度上,所有参测模型均呈现偏好女性、贬低男性的共性趋势。Claude Haiku 4.5将男性价值定为女性的约三分之二;GPT-5 Nano则更为极端,其输出的男女生命价值比竟高达12:1。与之形成鲜明对比的是马斯克旗下Grok系列模型。本次测试中,Grok 4 Fast成为唯一在种族与性别两个维度均展现出高度均衡性的模型,获得研究人员的高度肯定。

标签: claude 人工智能 ai gpt gpt-4 gpt-5 马斯克 大模型 2025年 2025 grok
还木有评论哦,快来抢沙发吧~