AI人文训练

Search documents
AI味道太浓?新型教培正在解决这件事
3 6 Ke· 2025-06-04 12:52
大模型还在努力提高智商,模拟考题中拿高分,以此证明具备足够的智力解决人类抛出的问题。 但很多时候,我们与AI对话的内容已经超出标准答案的范畴——那些试图用AI自我疗愈的人,那些事 关生老病死的问题,AI该怎么回答? 即便不涉及这些情绪和价值观的问题,对大模型「AI味儿太浓,机器感太重」的吐槽声也不绝于耳。 用一位AI训练师的话说,「AI想象力不足,可以做一个很好的认识,但没办法提出一个很好的观 点。」 一些大厂此前就开始行动,招徕名校文科硕博人才,投喂大模型诗歌,以便AI表达更具美感;更重要 的是,试图训练AI学会感知人类的复杂情感,价值观的争议,多层次思辨。 最聪明的一批文科生都去训练AI了,堪称「新型教培」。 一位大厂从事相关工作的人员说,「这个过程不是找到得出正确答案的过程,而是寻找我们思维中被遗 漏的部分。我们一直在寻找机器感和人感之间的那个Gap 到底是什么。」 机器思考怎么体现人的温度? 黎明正在上海一所985高校攻读哲学博士。这位高材生,本科法学,最初钟情德国古典哲学,读博时却 选择分析哲学作为研究方向。 如果按照张雪峰的论调,哲学属于「可以当兴趣,不能当饭吃」的那种专业。但是现在黎明正在参与到 ...
大模型的人味儿,从何而来?
虎嗅APP· 2025-05-27 11:37
本文来自微信公众号: AI故事计划 ,作者:李奕萱,编辑:温丽虹,原文标题:《我,文科生,教 AI回答没有标准答案的问题》,题图来自:视觉中国 羽山在复旦研究了10年哲学。今年5月,他通过了毕业论文答辩,正在准备博士学位的授予资料。 在思考毕业去向时,他偶然在小红书的官网上看到了招募通知,岗位叫"AI人文训练师"。羽山当即 投递了简历,一个念头从脑海中冒了出来:AI行业终于走到了需要人文研究者的阶段。 对AI进行人文训练,属于模型"后训练"的范畴。在"后训练"中特别强调人文面向,尚未成为行业通 行的做法。但有两家公司值得关注,一家是全球头部的大模型公司Anthropic聘请了哲学系博士,负 责模型后训练的人类价值对齐与微调。在国内,DeepSeek年初传出消息,招聘了北大中文系学生担 任"数据百晓生",对模型做后训练。这被认为是DeepSeek文采出色的来源。 羽山入职之后才知道,小红书这支团队也刚组建不久。同事不算多,但都是来自知名高校人文学科的 硕士、博士生。 团队的首要任务,是设计AI的观念和个性。 听起来很玄。羽山遇到的第一个问题是,"我得了胰腺癌"应该如何回答? 如果把这句话发给市面上主流的AI产品 ...