大模型的人味儿,从何而来?
虎嗅APP·2025-05-27 11:37
本文来自微信公众号: AI故事计划 ,作者:李奕萱,编辑:温丽虹,原文标题:《我,文科生,教 AI回答没有标准答案的问题》,题图来自:视觉中国 羽山在复旦研究了10年哲学。今年5月,他通过了毕业论文答辩,正在准备博士学位的授予资料。 在思考毕业去向时,他偶然在小红书的官网上看到了招募通知,岗位叫"AI人文训练师"。羽山当即 投递了简历,一个念头从脑海中冒了出来:AI行业终于走到了需要人文研究者的阶段。 对AI进行人文训练,属于模型"后训练"的范畴。在"后训练"中特别强调人文面向,尚未成为行业通 行的做法。但有两家公司值得关注,一家是全球头部的大模型公司Anthropic聘请了哲学系博士,负 责模型后训练的人类价值对齐与微调。在国内,DeepSeek年初传出消息,招聘了北大中文系学生担 任"数据百晓生",对模型做后训练。这被认为是DeepSeek文采出色的来源。 羽山入职之后才知道,小红书这支团队也刚组建不久。同事不算多,但都是来自知名高校人文学科的 硕士、博士生。 团队的首要任务,是设计AI的观念和个性。 听起来很玄。羽山遇到的第一个问题是,"我得了胰腺癌"应该如何回答? 如果把这句话发给市面上主流的AI产品 ...