Claude 3.5 Haiku

Search documents
2025年AI在多个方面持续取得显著进展和突破
Sou Hu Cai Jing· 2025-06-23 07:19
Group 1 - In 2025, multimodal AI is a key trend, capable of processing and integrating various forms of input such as text, images, audio, and video, exemplified by OpenAI's GPT-4 and Google's Gemini model [1] - AI agents are evolving from simple chatbots to more intelligent assistants with contextual awareness, transforming customer service and user interaction across platforms [3] - The rapid development and adoption of small language models (SLMs) in 2025 offer significant advantages over large language models (LLMs), including lower development costs and improved user experience [3] Group 2 - AI for Science (AI4S) is becoming a crucial force in transforming scientific research paradigms, with multimodal large models aiding in the analysis of complex multidimensional data [4] - The rapid advancement of AI brings new risks related to security, governance, copyright, and ethics, prompting global efforts to strengthen AI governance through policy and technical standards [4] - 2025 is anticipated to be the "year of embodied intelligence," with significant developments in the industry and technology, including the potential mass production of humanoid robots like Tesla's Optimus [4]
最新研究:AI情商测试完胜人类,准确率高出25%
3 6 Ke· 2025-05-29 08:23
伯尔尼大学与日内瓦大学的最新研究表明,这些强大的人工智能系统或许确实具备这种能力,甚至可能 超越大多数人类。 01.人类情绪测试 近期发表于《通讯心理学》的研究中,研究人员评估了六种最先进的语言模型:ChatGPT-4、ChatGPT- o1、Claude 3.5 Haiku、Copilot 365、Gemini 1.5 Flash和DeepSeek V3。这些AI系统经过了五项通常用于 心理学和工作场所评估的测试,以测试情商(EI)。 这些测试包含复杂的现实场景。例如:同事窃取Michael的创意并获得不当赞誉,此时最明智的应对方 式是? 心理学家的标准答案是"向上级反映",这是一种健康、建设性的方式来处理工作中的情绪紧张。 大语言模型能写诗、解复杂数学题,甚至辅助疾病诊断,但它们真的能理解情绪吗? AI们表现出色。在五项测试中,其平均准确率达81%,远高于人类参与者56%的平均水平。 伯尔尼大学首席心理学家Katja Schlegel解释道,"我们选取了科研与企业环境中通用的五项测试,这些 测试通过情绪化场景来评估理解、调节及管理情绪的能力。" 日内瓦大学瑞士情感科学中心高级科学家Marcello Mor ...
Claude深度“开盒”,看大模型的“大脑”到底如何运作?
AI科技大本营· 2025-04-09 02:00
近 日 , Claude 大 模 型 团 队 发 布 了 一 篇 文 章 《 Tracing the thoughts of a large language model》(追踪大型语言模型的思维),深入剖析大模型在回答问题时的内部机制,揭示它 如何"思考"、如何推理,以及为何有时会偏离事实。 如果能更深入地理解 Claude 的"思维"模式,我们不仅能更准确地掌握它的能力边界,还能 确保它按照我们的意愿行事。例如: 为了破解这些谜题,我们借鉴了神经科学的研究方法——就像神经科学家研究人类大脑的运 作机制一样,我们试图打造一种"AI 显微镜",用来分析模型内部的信息流动和激活模式。 毕竟,仅仅通过对话很难真正理解 AI 的思维方式—— 人类自己(即使是神经科学家)都无 法完全解释大脑是如何工作的。 因此,我们选择深入 AI 内部。 Claude 能说出几十种不同的语言,那么它在"脑海中"究竟是用哪种语言思考的?是否 存在某种通用的"思维语言"? Claude 是逐个单词生成文本的,但它是在单纯预测下一个单词,还是会提前规划整句 话的逻辑? Claude 能够逐步写出自己的推理过程,但它的解释真的反映了推理的实 ...