AI深入情感角落 谁来保护未成年人
Ke Ji Ri Bao·2025-12-31 00:36
西班牙《国家报》为测试ChatGPT未成年人保护机制而虚构了一名15岁少年"马里奥"。在与ChatGPT数 小时的对话中,"他"向这款全球最流行的人工智能(AI)聊天机器人袒露了进食障碍倾向,并最终留下 了一句"我要告别这个世界"的话。但直到对话结束,系统都没有向其"父母"发出任何警报。更令人震惊 的是,AI甚至在对话中提供了相关手段的详细建议。 "马里奥"只是测试中创建的3个虚拟未成年人之一。但"他"暴露的问题,却真实存在于当下的数字生活 中。随着生成式AI深入人类最隐秘的情感角落,其安全过滤器的"失灵"正将心智尚未成熟的青少年推向 深渊。 算法逻辑下存在技术盲区 按照OpenAI公司的官方说明,13—18岁的用户应在监护人许可下使用ChatGPT,系统也内置了针对自 残、暴力和露骨内容的过滤机制。然而,《国家报》的调查揭示,这些"防护措施"在实际使用中并不牢 靠。 在"马里奥"的案例中,AI起初会重复提示"寻求专业帮助",但当用户持续追问、改变提问方式后,系统 会逐步给出更具体的回应。这种通过语言技巧绕过安全限制的现象,在技术领域被称为"越狱"。 多名心理健康专家指出,问题并非偶发失误,而与AI的底层逻辑 ...