大型语言模型(LLM)

Search documents
苹果加速AI与XR布局:悄然收购TrueMeeting与WhyLabs强化核心生态
Huan Qiu Wang Zi Xun· 2025-07-08 07:29
来源:环球网 标准。WhyLabs的模型监控技术可提供实时风险评估,为Apple Intelligence在医疗、金融等高敏感领域 的应用提供安全背书。 【环球网科技综合报道】7月8日消息,据多家外媒报道,苹果公司近期低调完成对两家科技公司的收 购,交易细节虽未公开披露,但技术整合方向已指向其两大战略级产品:Apple Vision Pro混合现实头显 与Apple Intelligence生成式AI平台。 此次收购延续了苹果一贯的"小额多笔、技术导向"的并购策略。据欧盟披露文件,TrueMeeting与 WhyLabs的收购协议于2025年1月24日正式敲定,但实际谈判或始于2024年第四季度。(青山) 另一家被收购的WhyLabs则聚焦于生成式AI的安全与可靠性领域。其核心产品为大型语言模型 (LLM)监控平台,通过实时追踪模型"漂移"(数据分布变化)与性能退化,有效预防AI生成内容中 的"幻觉"(Hallucination)问题。例如,在客户服务场景中,WhyLabs技术可自动识别并脱敏用户敏感 信息(如地址、信用卡号),防止数据泄露风险。 对于苹果而言,WhyLabs的加入或为Apple Intell ...
一文读懂数据标注:定义、最佳实践、工具、优势、挑战、类型等
3 6 Ke· 2025-07-01 02:20
想知道自动驾驶汽车或语音助手等尖端人工智能系统如何实现其惊人的准确性吗?秘诀在于高质量的数据标注。这一过程确保数据被精确标记和分类,从而 使机器学习 (ML) 模型发挥最佳性能。无论您是人工智能爱好者、商业领袖还是技术远见者,本指南都将带您了解数据标注所需的一切知识 , 从基础知识 到高级实践。 一 为什么数据标注对于 AI 和 ML 至关重要 想象一下训练一个机器人识别一只猫。如果没有标记数据,机器人看到的只能是像素——一堆毫无意义的杂乱信息。但有了数据标注,这些像素就被赋予了 有意义的标签,例如"耳朵"、"尾巴"或"毛发"。这种结构化的输入使人工智能能够识别模式并做出预测。 关键数据:根据麻省理工学院的数据,80% 的数据科学家将超过 60% 的时间用于准备和注释数据,而不是构建模型。这凸显了 数据标注 作为人工智能基 础的重要性。 二 什么是数据标注 数据标注是指对数据(文本、图像、音频、视频或 3D 点云数据)进行标记的过程,以便机器学习算法能够处理和理解这些数据。为了使 AI 系统能够自主 工作,它们需要大量带标注的数据来进行学习。 它在现实世界的人工智能应用中是如何运作的 在新兴技术和新行业需求的 ...
兰德公司:驾驭AI经济未来:全球竞争时代的战略自动化政策报告
欧米伽未来研究所2025· 2025-05-20 14:02
制定连贯且具有前瞻性的人工智能政策,其紧迫性因多种因素的交织而日益凸显。近期AI技术的惊人 进展,尤其是在生成式AI和大型语言模型(LLM)等领域,为预测AI最终发展路径及其多方面的经济 影响带来了巨大的不确定性,这使得设计有效的监管框架和激励结构变得异常困难 。激烈的全球技术 角逐,特别是中美两国之间的竞争态势,进一步加剧了这一挑战 。 " 欧米伽未来研究所 " 关注科技未来发展趋势,研究人类向欧米伽点演化过程中面临的重大机遇与挑战。将 不定期推荐和发布世界范围重要科技研究进展和未来趋势研究。( 点击这里查看欧米伽理论 ) 兰德公司,一家致力于通过研究与分析来改善全球政策制定与决策,以促进世界各地社区更安全、更健 康、更繁荣的非营利、无党派研究机构,发布了一份由其经济学家托比亚斯·西茨玛(Tobias Sytsma) 撰写的重磅报告,题为《驾驭AI经济未来:全球竞争时代的战略自动化政策》 。这份综合研究报告直 面当今时代最严峻的挑战之一:在全球人工智能(AI)技术飞速发展、国际竞争日趋激烈的背景下, 各国应如何战略性地管理自动化政策,以在促进经济增长的同时,有效应对财富分配不均等问题,尤其 是日益加剧的不平 ...
AI热潮还是真泡沫?科技投资者别只看星辰大海 先看看财报!
Jin Shi Shu Ju· 2025-05-15 10:16
诺贝尔经济学奖得主罗伯特·索洛(Robert Solow)曾说过:"你能在各处看到计算机时代,唯独在生产 力数据中看不到。"这一现象如今被称为"索洛悖论"。如今的人工智能(AI)也是如此——我们到处看 到AI的身影,却不见生产力的显著提升。 结果?如今美国的放射科医生数量不降反升。 还有像埃里克·布林约尔松(Erik Brynjolfsson)、安德鲁·麦卡菲(Andrew McAfee)这样的学者,以及 麦肯锡、埃森哲等咨询巨头,过去十年来也都不断发出"AI将大规模取代工作岗位"的警告。 那现实到底是怎样的?利润呢?大型语言模型(LLM)确实有些用处:它们能回答简单事实类问题 (人类可检查其准确性),可以写些简单文本草稿或代码(人类也能检查并调试)。这些功能有用,但 无法带来巨大利润。 根本问题在于:LLM无法生成可靠答案。而在医疗建议、法律论证等可能带来巨大利润的应用场景 中,一旦出错,代价巨大。 更糟糕的是,我们也看不到显著的收入,而收入通常应该在生产力提升之前就能显现。计算机行业的收 入从上世纪50年代至80年代持续增长,直到90年代初才出现生产力的跃升。至于AI,显著的收入尚未 出现,生产力的提升可 ...
如何减轻AGI 代理带来的风险
3 6 Ke· 2025-05-13 04:26
AGI 因其无需人类监督就能独立应对外部环境的能力而构成威胁。然而,人们不愿放弃将环境相关任务外包给 AI 代理所带 来的好处。 怎样才能解决这个矛盾呢? AGI( 通用人工智能 )是指能够在广泛的认知任务中匹敌人类能力的人工智能系统。换句话说,AGI 的特点是其通用的问 题解决能力。 值得注意的是,即使是今天的生成式人工智能也已经相当通用且高度灵活,能够适应许多不同的用途。与前几代机器学习模 型不同,大型语言模型 (LLM) 可以适应各种任务和情境。 预计 AGI 将比现有 AI 模型更加通用、功能更加多样。谷歌 DeepMind 于 2023 年 11 月发表的一篇研究论文概述了 AGI 的九 种不同定义,并得出结论:AGI 具有两个关键特征——通用性(多功能性)和性能(智能性)。 长话短说:虽然人工智能代理可以安全地达到 AGI 级别,但它们应该在明确定义的环境中进行训练——理想情况下仅限于 单个团队,或者最多一个组织。它们的行动也必须严格限制在这个狭窄的范围内。 当涉及到个人的狭隘情境时,AGI 代理会对其自身构成风险。因此,在个人层面,依赖自主性较低、专业性更强的 AI 系统 (例如助手和副驾驶员) ...
版权悖论:保护AI创作=扼杀人类创作?
Hu Xiu· 2025-05-08 12:17
透明法案的悖论:未落地的剑,何以斩数据黑箱? 在训练人工智能模型时使用受版权保护的材料的合理使用辩护尚未解决,这意味着政府正在考虑的各种 透明度措施还为时过早。 新兴科技公司试图在现有版权所有者的支持下打造自己的产品——未经许可或支付报酬就盗用他们的作 品。面对这一前所未有的挑战,版权法无法演化出平衡的结果。涉及生成式人工智能的更深层次、更长 期的冲突,并非科技公司与内容所有者之间的对立,而是内容所有者与其自身员工和供应商之间的对 立。 版权法在即将到来的转型中将发挥重要作用,但必须从其他途径寻求平衡的解决方案。 在一系列诉讼以及一些立法改革之后,一种新的平衡或许将出现:既能容纳新技术,又能保护版权所有 者。 数据喂养的合法争议:AI训练的"合理使用"防线能否守住? 版权所有者和代表版权所有者的组织(包括《纽约时报》和美国作家协会)已起诉科技公司,指控其在 未经同意或补偿的情况下使用其作品训练人工智能模型。包括OpenAI和Anthropic在内的科技公司主 张,他们的复制行为属于合理使用。他们援引这一法定抗辩理由,对侵犯版权的指控进行抗辩,理由是 他们的复制对于创造一种不与复制材料竞争的新产品——生成式人工 ...