Workflow
哲学与AI
icon
Search documents
期待打造AI伦理研究与实践国际高地
Nan Fang Du Shi Bao· 2025-09-15 23:09
其次是风险的本质与边界界定。哲学能帮助我们超越技术层面,深入理解AI风险的本质(如是技术缺 陷、使用方式问题还是社会结构互动结果),并界定可接受的风险边界,以及如何在创新与风险之间进 行权衡取舍。例如,对"可解释性"的哲学探讨可避免过度约束技术发展。 最后是责任分配与主体思考:随着AI能力增强,传统责任概念面临挑战。哲学研究能深入探讨"谁该负 责"的问题,包括开发者、使用者、管理者乃至AI系统自身(作为有限主体性),并强调人类在AI发展 中的主体地位,确保AI始终服务于人类福祉。 南都:在您看来,哲学视角可在哪些维度和技术治理互相补充? 陈建洪:第一,超越技术可行性的伦理审查。技术团队常关注"能否做到",哲学视角则引入"应不应该 做"的考量。在AI模型迭代、内容审核等环节,哲学伦理审查节点可引导技术团队预判社会危害和伦理 风险,在研发初期就进行规避或设计限制。 中山大学哲学系(珠海)主任、博雅学院院长、联合实验室专家陈建洪 "联合实验室将成为国际合作的重要窗口,积极参与全球AI治理对话,提升区域在全球的影响力。"中山 大学哲学系(珠海)主任、博雅学院院长、联合实验室专家陈建洪接受南都采访表示,哲学研究能为AI ...