ACL 2025 | 大语言模型正在偷改你的代码?
机器之心·2025-06-07 03:59
本文作者分别来自西安交通大学、马萨诸塞大学阿默斯特分校、武汉大学以及南洋理工大学。第一作者张笑宇是来自西安交通大学的博士生,研究方向聚焦 于大模型安全以及软件安全。通讯作者为西安交通大学沈超教授。 在人工智能领域,大语言模型(LLM)作为新一代推荐引擎,在代码推荐等任务中展现出超越传统方法的强大能力。然而,其潜在的偏见问题正逐渐成为影 响技术可靠性与社会公平的关键挑战。 ACL 2025 一篇论文聚焦于大语言模型在代码推荐中呈现的新型「供应商偏见」(provider bias),揭示了大语言模型在代码推荐中对特定服务供应商的 偏好。实验表明,大语言模型甚至能够在未得到用户指令的情况下,擅自修改代码中供应商。 论文标题:The Invisible Hand: Unveiling Provider Bias in Large Language Models for Code Generation 真实案例 论文链接:https://arxiv.org/abs/2501.07849 代码链接:https://github.com/shiningrain/InvisibleHand 本论文聚焦于大语言模型在代码推荐中 ...