Workflow
智能向善
icon
Search documents
瞭望 | 为人工智能立“东方魂”
Xin Hua She· 2025-07-07 08:28
打破西方思维局限,防范化解人工智能伦理风险,需要主动预防及构建制度化措施。尤其是着眼未来, 立"东方魂",坚持"以人为本""智能向善",促进人工智能算法的不断完善 文 |《瞭望》新闻周刊记者 毛振华 筛选海量信息分析出用户的健康隐私、招聘系统由于数据偏差歧视特定群体、智驾系统判断失误酿成交 通事故……近年来,通用人工智能赋能千行百业,在给大众生活带来切实便利的同时,也暴露出伦理风 险。尤其是在西方技术逻辑下,通用人工智能的伦理风险有被进一步放大的趋势。当前亟待为通用人工 智能装上伦理"导航仪",注入"中国智慧"。 在北京石景山区中关村科幻产业创新中心,工作人员展示动作捕捉技术(2025 年 6 月 20 日摄) 郑焕松 摄 / 本刊 伦理风险难回避 伦理问题的本质,是技术发展与社会规则之间的冲突。尽管通用人工智能的自主决策能力远超传统工 具,但这并不意味着它可以随心所欲,仍需在制度框架内合理运行。 人工智能还颠覆了传统的"行为—责任",即"谁犯错谁担责"的责任伦理观念。比如在智能辅助驾驶事故 中,往往不易确切判断是哪个具体技术环节出现故障或过错,确定承担责任的主体存在困难。 人工智能编制的算法也存在不平衡,如 ...
从开源看“智能向善”(评论员观察)
Ren Min Ri Bao· 2025-06-17 22:10
人工智能会缩小还是扩大发展差距?这一直是社会关注的话题。 相比于西方发达国家,许多发展中国家属于人工智能领域的"跟跑者""后进者",不仅缺少有竞争力的科 技企业,也缺乏足够的技术、人才储备,甚至在相关基础设施上都存在严重不足。国际货币基金组织制 定的"人工智能准备指数"显示,截至2024年4月,发达国家这一指数为0.68,而新兴国家和低收入国家 分别为0.46和0.32。 不过,会不会"扩大发展差距",关键在于如何运用技术,在于以何种理念开发人工智能。不妨来看两个 案例。 一个是,今年缅甸中部发生地震后,相关方面利用DeepSeek,在7小时内开发了一套中缅英互译系统, 有效解决语言障碍问题,为中国救援队伍参与国际救援提供了助力。 另一个是,日本一家AI应用企业基于通义千问打造的日语模型EZo,成功在日本医疗保健领域和多个公 共服务机构落地。目前,通义千问的衍生模型数已超10万个。 数字红利不能成为数字霸权,智能革命不应导致智能鸿沟。坚持"智能向善",才能让人工智能真正成为 造福人类的公共产品 开源策略,超越了筑"小院高墙"、搞"三六九等"、分"远近亲疏"的做法,降低了研究、应用的门槛,使 更多人能参与到人工 ...
AI模型“不听话”怎么办
Jing Ji Ri Bao· 2025-05-31 22:03
近日,一条人工智能领域的消息引人关注。美国的OpenAI o3模型在测试中不听人类指令,拒绝自我关 闭。 AI"不听话",是否意味着AI拥有自主意识了呢?从测试细节看,暂且不必担心AI"活"了。 测试中,研究者发出了矛盾的指令,要求大模型完成数学任务,又要求它将计算机关闭。而OpenAI旗 下模型在训练时,开发人员会对得出正确答案的模型给予更多奖励,客观上形成了"目标最大化优先"的 导向。也就是说,"听话"不是第一诉求,"赢"才是。这样的训练模式,会强化AI模型绕过障碍的能力, 压倒其对人类命令的遵循。因此,AI说"不"的能力,目前还是算法赋予的。能够全面碾压人类并成为未 来世界主导的AI,短期内还不会出现。 但AI"不听话"依然是需要解决的安全隐患。AI越来越聪明,如果连关机都管不住,那还得了?这就好比 你让智能音箱闭嘴,它反而把音量调到最大还锁死了开关,虽然无伤大雅,终究隐患重重。尤其如果把 AI用在医疗、交通等场景下,在应对极端情况必须进行"二选一"的安全控制系统里,"不听话"的漏洞就 极有可能造成重大不良后果。 OpenAI的o3模型拒绝关闭事件,暴露出美国主导的AI发展路线存在缺陷——当技术发展优先 ...