Workflow
large language models
icon
Search documents
Uber(UBER) - 2025 Q1 - Earnings Call Transcript
2025-05-07 13:00
Uber (UBER) Q1 2025 Earnings Call May 07, 2025 12:00 PM ET Speaker0 and welcome to the Uber First Quarter twenty twenty five Earnings Conference Call. All lines have been placed on mute to prevent any background noise. After the speakers' remarks, there will be a question and answer session. I would now like to turn the conference over to Balaji Krishnamurti, Vice President, Strategic Finance and Investor Relations. You may begin. Speaker1 Thank you, operator. Thank you for joining us today, and welcome to ...
自诩无所不知的大模型,能否拯救笨手笨脚的机器人?
Hu Xiu· 2025-05-06 00:48
从上海到纽约,世界各地的餐厅里都能看到机器人在烹饪食物。它们会制作汉堡、印度薄饼、披萨和炒菜。它们的原理与过去50年机器人制造其他产品的 方式如出一辙:精准执行指令,一遍又一遍地重复相同的操作步骤。 但Ishika Singh想要的不是这种"流水线"式的机器人,而是真正能"做晚饭"的机器人。它应该能走进厨房,翻找冰箱和橱柜,拿出各种食材搭配组合,烹调 出美味的菜肴,然后摆好餐具。对孩子而言,这也许很简单,但没有任何机器人能做到这一点。这需要太多关于厨房的知识,更需要常识、灵活性和应变 能力,但这些能力都超出了传统机器人编程的范畴。 南加州大学计算机科学博士生Singh指出,问题的症结在于机器人学家使用的经典规划流程。"他们需要把每一个动作,以及它的前提条件和预期效果都定 义清楚,"她解释道,"这要求事先设定环境中所有可能发生的情况。"可即使经过无数次试错,编写数千行代码,这样的机器人仍无法应对程序之外的突 发状况。 一个晚餐服务机器人在制定"策略"(执行指令的行动计划)时,不仅要知道当地的饮食文化(当地所谓的"辛辣"究竟指什么),还要熟悉具体厨房环境 (电饭煲是否放在高层的架子上)、服务对象的特殊情况(Hec ...
Uxin(UXIN) - 2025 Q4 - Earnings Call Transcript
2025-04-30 13:02
Uxin Limited (UXIN) Q4 2025 Earnings Call April 30, 2025 08:00 AM ET Company Participants Jack Wang - Managing DirectorDai Kun - Founder, Chairman & CEOFeng Lin - Chief Financial Officer Conference Call Participants Fei Dai - Analyst Operator and welcome to the Yixin Fourth Quarter and Full Year twenty twenty four Earnings Conference Call. At this time, all participants are in listen only mode. A question and answer session will follow the formal presentation. As a reminder, this conference is being recorde ...
模型压缩到70%,还能保持100%准确率,无损压缩框架DFloat11来了
机器之心· 2025-04-28 04:32
机器之心报道 编辑:陈萍、+0 大型语言模型(LLMs)在广泛的自然语言处理(NLP)任务中展现出了卓越的能力。然而,它们迅速增长的规模给高效部署和推理带来了巨大障碍,特别是在计 算或内存资源有限的环境中。 例如,Llama-3.1-405B 在 BFloat16(16-bit Brain Float)格式下拥有 4050 亿个参数,需要大约 810GB 的内存进行完整推理,超过了典型高端 GPU 服务器(例如, DGX A100/H100,配备 8 个 80GB GPU)的能力。因此,部署该模型需要多个节点,这使得它昂贵且难以获取。 本文,来自莱斯大学等机构的研究者提出了一种解决方案, 可以 将任何 BFloat16 模型压缩到原始大小的 70%,同时还能在任务上保持 100% 的准 确性。 论文标题: 70% Size, 100% Accuracy: Lossless LLM Compression for Efficient GPU Inference via Dynamic-Length Float 为了应对 LLM 不断增长的模型尺寸,通常会采用量化技术,将高精度权重转换为低位表示。这显著减少了内存 ...