智能体

Search documents
从"炫技"到"实用":人工智能加速落地应用
Zhong Guo Chan Ye Jing Ji Xin Xi Wang· 2025-08-25 03:01
从发布会舞台上的"黑科技演示"到工厂流水线的常态化作业,从实验室里的"参数竞赛"到千家万户的日 常依赖,人工智能正完成一场深刻的价值蜕变。在政策引导与市场需求的双重驱动下,曾经以"酷炫概 念"吸睛的AI技术,如今正以终端、智能体等多样形式悄然融入生产生活的方方面面,成为解决实际问 题的实用工具。 打开手机,相册的"AIGC消除"功能可智能识别并移除路人、电线等冗余元素;通话界面的"智能摘 要"能快速生成多语种重点;扫描文档即可解析复杂内容,助力高效获取知识。这些功能背后,是人工 智能褪去"炫技"外衣的生动体现——相较于早期手机AI仅能实现"语音唤醒""天气查询"等基础交互,如 今的终端智能已深度嵌入用户的高频需求场景。 戴上AI眼镜,超广角镜头配合AI算法,既能同步呈现高清视野,又能分析食物成分、热量及营养并给 出健康建议;在博物馆可精准识别展品并提供专业讲解,在景区能推荐美食、指引路线,甚至"看一 眼"就能完成支付。这种从"AR游戏演示"到"生活服务助手"的转变,让曾经的"极客玩具"成为大众可感 知的实用工具。 7月31日,国务院常务会议审议通过《关于深入实施"人工智能+"行动的意见》,要求大力推进人工智能 ...
特斯拉大模型“上车”细节曝光:语音助手接入豆包与DeepSeek;全球最轻的MR头显发布,双目8K,价格有望9999?丨AI周报
创业邦· 2025-08-23 10:09
以下文章来源于快鲤鱼 ,作者巴里 快鲤鱼 . 创业邦旗下AGI矩阵号,寻找海内外创新性的AGI高成长公司,记录AGI商业领袖的成长轨迹。 全球AI产业周报 为你精选过去一周(8.16-8.22)最值得关注的AI新闻和 国内外热门AI投融资事件 ,帮助大家及时了解全球AI市场动向。 本周AI热点资讯 国内大事 DeepSeek V3.1发布:更强的Agent能力,更贵的API 8月21日,DeepSeek 正式发布新模型V3.1,被官方称为「迈向智能体时代的第一步」。虽然未见期待已久的R2模型,但本次迭代重点在于更强的Agent 能力、混合思考模式与更高思考效率。 V3.1采用混合推理架构,用户可在「思考模式」与「非思考模式」间自由切换:复杂任务可调用深度推理,简单任务则快速响应,避免性能浪费。官方测 试显示,V3.1-Think在输出token数减少20%-50%的情况下,表现与此前R1-0528持平甚至更快。 此外,新模型在工具调用和智能体任务中的表现明显提升,编程与搜索Agent测评均优于前代。基础模型在V3的基础上新增8400亿tokens训练,并已在 Huggingface与魔搭开源。DeepSeek ...
在OpenAI炼Agent一年半,回国做出首个开源Agent训练框架!这个30岁清华天才却说:创业不是技术命
AI前线· 2025-08-23 05:32
姚班、伯克利、OpenAI、清华……年仅 30 多岁的吴翼身上已经聚集了众多亮眼的标签。 从小到大,似乎无论在哪个阶段、哪个领域,吴翼都可以交出一份不错的答卷:他是 ACM 世界奖牌得主,也是带队冲击 IOI 的教练;他亲历了 Facebook 2012 的崛起、字节跳动 2016–2018 的飞速成长,以及 OpenAI 爆火前的关键时期;他也自己参与了创业、全力做着开源项目。 吴翼创立的边塞科技在 2024 年被蚂蚁收购,团队积累 4 年的规模化强化学习成果如今都积累到了开源项目 AReaL 中,这是一个专为大型推理模型设 计的完全异步的强化学习训练框架。目前在在 Github 上已收获 2.4k stars。AReaL 完全围绕 Agent 打造。谈及定位,吴翼直言:"按照这个定位我们没 有竞品"。 在 10 月 23 日 -25 日的 QCon 上海站,吴翼将分享主题为《智能体时代的强化学习:AReaL 框架与 Agent 最佳实践》的演讲。在此之前,我们对吴翼 进行了一次采访,他详细阐述了自己求学、OpenAI 工作和创业的经历和感受。主要观点如下: 在 OpenAI,我学会了 编辑 | Tina、 ...
上市公司积极布局智能体
Zhong Guo Zheng Quan Bao· 2025-08-22 20:10
近日,DeepSeek发布DeepSeek-V3.1,并称其为"迈向Agent时代的第一步"。据介绍,新模型相较之前版 本能在更短时间内给出答案,在工具使用与智能体任务中的表现有较大提升。 中国证券报记者注意到,不少业内人士将2025年视作"智能体元年"。东莞证券表示,随着大模型能力的 提升以及调用成本的下降,智能体今年以来持续在医疗健康、金融智能化、电商数字人等垂类领域应 用。多家上市公司在智能体垂直领域积极布局,相关产品已经实现落地。 ● 本报记者 孟培嘉 上市公司布局 "2025年将是智能体元年。"360集团创始人周鸿祎近日表示。在他看来,与单纯的大模型相比,智能体 是更高级的进化形态:大模型相当于"大脑",负责推理与决策;智能体则在此基础上增加了"手脚",具 备自主规划任务、分解流程、调用工具的能力,解决了大模型"只会思考、不会干活"的核心痛点。 远光软件则表示,公司紧跟人工智能技术发展趋势,发布了知识智能问答、表单智能填报、业务智能审 核、报告智能生成、数据智能分析等企业级通用智能体,研发商旅行程规划、资金智能排程等专业型智 能应用,实现核心应用的"对话即操作、指令即办理"的全新交互体验和智能化升级 ...
实测智谱智能体:AI替我多付了7.9元
21世纪经济报道· 2025-08-22 11:29
在业内广泛提及的智能体元年,智谱交出了一份亮眼的成绩单。不少自媒体实测之后感慨,电 影中的管家"贾维斯"真的来了。AI不仅能聊天,还能完成现实任务,帮忙点外卖、买机票、对 比价格,便捷的未来似乎正在快速逼近。 记者丨 王俊 实习记者蔡欣佁 编辑丨肖潇 在点一份外卖的过程中,AI智能体在毫秒间额外加购了一张"神抢手"券,使得这笔订单多了 7.9元。手动付完款后,用户突然在订单中看到一张奶茶的抵扣券,这时才意识到,原来是 AutoGLM2.0的"顺手"操作。 这是在8月20日,智谱推出最新智能体AutoGLM2.0后,21世纪经济报道记者的首次实测体 验。 但在这些理念攻占用户心智之前,更直接的人机信任问题必须要解决。尤其是智能体可能 在未经同意的情况下做出决定时,AI代劳和越界的界线应该划在哪里? 智谱对此回应21世纪经济报道记者:模型目前能力还在持续优化迭代,已经将此问题反馈到算 法,针对额外添加商品券识别的准确性,会持续提升性能。并且,AutoGLM2.0通过工程策略 和权限边界来防止"超指令"行为,支付、发布等高风险步骤默认不自动执行。 从与手机厂商合作,到自造一台"云手机" 在全球范围内,智能体已成为2 ...
智能体致富课,割了谁的韭菜?
3 6 Ke· 2025-08-21 02:20
还记得三年前那个靠199元AI课程狂赚上亿的清华博士李一舟吗?这位曾经的AI教父最终因课程注水、虚假宣传等丑闻跌落神坛。而就在大众以为这场闹 剧即将收场时,AI卖课却像打不死的小强,换上新马甲卷土重来。 如今,短视频平台上"AI智能体月入过万""数字人躺赚美金"的暴富神话层出不穷。一批新晋AI导师正用更隐蔽的话术,将智能体包装一本万利的生意。他 们不再贩卖不学AI就被淘汰的焦虑,转而兜售低成本暴富的美梦。 然而,这场持续三年的AI教育狂欢,为何总能找到新的韭菜地?在这些诱人话术背后,又暗藏着哪些不为人知的陷阱?我们一起来看看。 AI卖课的新噱头 李一舟的变形记是AI卖课行业野蛮生长的缩影。监管介入后,旧的营销故事逐渐失效,新的变种迅速填补空缺。如今的AI卖课不再强调替代焦虑,而是 转向更诱人的躺平赚钱叙事,通过精密设计演变成一套环环相扣的商业闭环。 与ChatGPT初期授课不同,现在的智能体卖课有哪些新花样? 营销话术从失业焦虑转到暴富神话。当下的AI卖课市场已经形成了一套完整的痛点制造体系。课程销售深谙大众心理,不再用"AI将取代80%工作"预言制 造恐慌,而是用精心包装的学员案例提供虚幻的希望。短视频平台 ...
英伟达新研究:小模型才是智能体的未来?
自动驾驶之心· 2025-08-20 23:33
Core Viewpoint - The article emphasizes that small language models are the future of Agentic AI, as they are more efficient and cost-effective compared to large models, which often waste resources on simple tasks [3][4][40]. Summary by Sections Performance Comparison - Small models can outperform large models in specific tasks, as evidenced by a 6.7 billion parameter Toolformer surpassing the performance of the 175 billion parameter GPT-3 [6]. - A 7 billion parameter DeepSeek-R1-Distill model has also shown better performance than Claude3.5 and GPT-4o [7]. Resource Optimization - Small models optimize hardware resources and task design, allowing for more efficient execution of Agent tasks [9]. - They can efficiently share GPU resources, maintain performance isolation, and reduce memory usage, enhancing concurrent capabilities [11][12]. - Flexible GPU resource allocation allows for better overall throughput and cost control by prioritizing low-latency requests from small models [14]. Task-Specific Deployment - Traditional Agent tasks often do not require a single large model; instead, specialized small models can be used for specific sub-tasks, reducing resource waste and inference costs [20][23]. - Running a 7 billion parameter small model is 10-30 times cheaper than using a 700-1750 billion parameter large model [24]. Challenges and Counterarguments - Some researchers argue that large models have superior general understanding capabilities, even in specialized tasks [26]. - However, NVIDIA counters that small models can achieve the required reliability through easy fine-tuning and that advanced systems can break down complex problems into simpler sub-tasks, diminishing the importance of large models' generalization [27][28]. Economic Considerations - While small models have lower per-inference costs, large models may benefit from economies of scale in large deployments [30]. - NVIDIA acknowledges this but points out that advancements in inference scheduling and modular systems are improving the flexibility and reducing infrastructure costs for small models [31]. Transitioning from Large to Small Models - NVIDIA outlines a method for transitioning from large to small models, including adapting infrastructure, increasing market awareness, and establishing evaluation standards [33]. - The process involves data collection, workload clustering, model selection, fine-tuning, and creating a feedback loop for continuous improvement [36][39]. Community Discussion - The article highlights community discussions around the practicality of small models versus large models, with some users finding small models more cost-effective for simple tasks [41]. - However, concerns about the robustness of small models in unpredictable scenarios are also raised, suggesting a need for careful consideration of the trade-offs between functionality and complexity [43][46].
单任务成本约0.2美元 智谱要用云端Agent抢市场
Di Yi Cai Jing· 2025-08-20 14:45
智谱在Agent方面的迭代从去年10月持续至今,初级版本可微信点赞、淘宝购物、携程订票。11月升级后新增会议总结、文档处理、网页搜索与总结等功 能。彼时智谱CEO张鹏对记者表示,智谱对智能体的理解更偏底层技术。 今年3月升级的AutoGLM沉思可以完成在小红书14天养号接商单任务,但沉思主要是本地化运行,暂无虚拟机设备,通过可视化交互图形界面 (GUI)而非 API调用的运作。此次2.0版本除了云端属性,也将可操作应用增至美团、京东、小红书、抖音等几十个高频应用。 关于底层技术路线的变化,采访中智谱AutoGLM 技术负责人刘潇对记者表示,与其他Agent不同的是,智谱相信"模型即Agent",即Agent相当大一部分能力 正直接被模型通过端到端强化学习的方式吸纳。去年智谱Agent方案更多依赖于对人类专家轨迹的学习,虽然当时产品可以点外卖,但只要是没有见过的任 务类型,就无法完成。这推动团队在沉思产品上实现Deep Research(深度研究)与Browser-use Agent(网页智能体)的融合,因为如果不使用Browser-use的 方式,便无法阅读大量数据,也没有办法充分发挥个人所拥有的生产资料和数 ...
智谱继续重押智能体
Zheng Quan Ri Bao Wang· 2025-08-20 08:45
继3月份发布AutoGLM沉思之后,8月20日,智谱发布AutoGLM2.0,这是全球首个手机通用智能体,由 纯国产基座模型驱动。 智谱方面表示,具备通用完整的多模态和思维能力的模型是通向AGI(通用人工智能)的一个里程碑, AutoGLM2.0是其对AGI的又一阶段性探索成果。 《证券日报》记者亲身体验了AutoGLM2.0的执行能力:在发出"用美团在附近奶茶店下单20杯并用优惠 券"的指令后,系统自动在云端完成操作,包括识别跳过广告、选择品类、连续点击数量键、智能使 用"8元红包"等,仅支付环节需用户确认。整个过程后台并行,不干扰当前设备使用。 除了生活服务,AutoGLM2.0同样胜任复杂办公任务。它可完成信息检索、内容生成乃至社媒发布全流 程,并支持多模态内容创作。例如,记者尝试令其制作产品介绍视频、PPT、网页并发布至社交平台。 除了最终的发布操作需经记者确认之外,其余环节均实现全自动执行。 记者注意到,AutoGLM2.0既能通过同一App内多轮对话连续执行指令,也可跨多个App完成长链路复杂 操作,自主打通应用壁垒。例如,在"差旅场景"中,它可以先在票务App先后买好机票、火车票,接着 去酒店A ...