加州大学河滨分校的研究团队发现,当前AI在组合推理任务中表现欠佳,主要归因于评测指标过于严格,限制了模型潜力的展现。为此,团队提出新型评测指标GroupMatch及Test-Time Matching算法,有效提升模型在复杂推理任务中的表现。实验结果显示,在Winoground测试中,GPT-4.1首次超越人类基准;更引人注目的是,参数量仅0.2B的SigLIP-B16模型在MMVP-VLM基准测试中不仅超越GPT-4.1,还创下新纪录。研究表明,AI模型已具备一定的组合推理能力,关键在于通过合适的测试方法解锁其潜能。
银河通用联合北京大学、阿德莱德大学、浙江大学等机构,推出具身导航基座模型NavFoM,致力于实现机器人导航技术从专用向通用的跨越。该模型具备7B参数规模,支持跨任务与跨载体的统一导航能力,可在多种复杂环境中实现高效实时部署。NavFoM通过构建统一的导航框架,显著提升机器人在未知场景中的泛化能力与适应性,为具身智能的发展提供了关键技术支撑。
近期《Science》杂志发表的一项研究揭示,大型人工智能模型存在难以根除的“幻觉”问题,即模型在缺乏准确信息时仍倾向于生成看似合理但错误的内容。尽管开发者尝试通过让模型在面对不确定性时回应“我不知道”来缓解该问题,但这一策略可能降低用户互动频率与满意度,进而影响用户留存率和平台活跃度,对商业运营构成挑战。研究指出,在提升模型可靠性与维持用户体验之间寻求平衡,是当前AI开发面临的核心难题之一。
近日,UCSD与英特尔的研究人员联合提出了一种全新的多智能体强化学习框架——PettingLLMs,旨在解决现有大型语言模型(LLM)训练框架主要局限于单智能体训练的问题。该框架首次实现了支持任意组合的多个LLM协同训练,构建了一个通用化的多智能体训练环境,推动群体强化学习的发展。通过引入高效的协同机制,PettingLLMs显著提升了LLM在工具调用任务中的表现,性能最高提升达5.8倍,有效克服了多智能体系统中的协作瓶颈。这一创新为复杂场景下LLM的协同进化提供了可行路径。
2024年,加州大学圣地亚哥分校的Hao AI Lab提出了一种名为DistServe的先进推理理念,主张通过解耦推理过程中的不同组件来提升AI系统的效率与灵活性。经过18个月的快速发展,DistServe已从实验室概念演变为行业标准,被英伟达(NVIDIA)、vLLM等主流大模型推理框架广泛采纳。这一技术突破标志着人工智能正迈入模块化智能的新时代,推动AI系统在应对复杂、动态需求时具备更强的适应能力与可扩展性,为未来高效、智能的AI部署奠定了技术基础。
近年来,机器人训练在北京的高校中逐渐兴起,形成了一种大学生与机器人搭档的新趋势。部分大学生开始将机器人引入日常生活与实践场景,展现出独特的协作模式与创新能力。在网络传播的一段视频中,一名北京的大学生与其机器人伙伴在超市协同完成购物任务,机器人不仅能够识别装好的物品,还主动推车、上下楼梯,表现出高度的人机互动性。这种依赖人类指令又具备基础自主能力的机器人,正通过实际场景训练不断优化响应机制。该现象反映出人工智能与青年群体深度融合的趋势,也体现了北京在智能科技应用领域的前沿探索。
2025年11月8日,在乌镇峰会的人工智能模型论坛上,蚂蚁集团平台技术事业群总裁骆骥发表主题演讲,系统介绍了蚂蚁集团在大规模模型领域的技术创新与应用实践。他表示,蚂蚁集团已部署万卡规模的国产算力集群,并将其全面投入安全与风险控制领域,显著提升了系统的实时响应能力与防御水平。通过自研模型与国产硬件的深度协同,蚂蚁在金融安全、欺诈识别和数据隐私保护等方面实现了关键技术突破,展现了科技企业以自主创新支撑安全发展的路径。
微信与清华大学联合研发的连续自回归语言模型CALM,标志着语言模型从传统离散词元向连续向量表达的重要转变。不同于主流大型语言模型(LLM)依赖离散词元预测下一个单位以维持生成连贯性,CALM通过将词元转换为连续向量空间中的表示,重构了自回归机制。这一创新有效降低了因逐项解码带来的高计算开销与响应延迟,为提升生成效率提供了新范式。CALM模型不仅保留了自回归结构的优势,还在生成速度和资源消耗之间实现了更优平衡,展现出在实际应用中的巨大潜力。
谷歌近期推出了一种名为“嵌套学习”的创新机器学习技术,旨在突破长期学习中的记忆瓶颈问题。该方法摒弃传统的静态训练模式,通过在不同层级以不同速度更新模型参数,模拟人脑多层次、异速的学习机制。嵌套学习使AI系统在掌握新技能的同时有效保留旧知识,显著提升模型在持续学习环境下的稳定性与适应性,推动模型进化迈向更接近人类学习能力的新阶段。
去年,谢赛宁(Saining Xie)领导的团队推出Cambrian-1,开启图像多模态模型的开放性研究。然而,团队并未延续传统迭代路径开发后续版本,而是暂停项目,深入探讨真正多模态模型的本质。在此过程中,谢赛宁与杨立昆、李飞飞等专家共同提出一种新型空间超感知范式,主张以“预测未来”替代传统的暴力记忆方法。该范式旨在解决大模型在长视频处理中面临的“失明问题”,即因信息过载而导致的关键动态丢失。通过预测技术,模型可超越当前视觉输入的限制,主动推演未来帧的内容变化,增强对复杂视频场景的理解力与连续性建模能力,为多模态系统提供更高效、更具前瞻性的处理机制。
OPPO算法专家宋阳将出席2024年AICon北京站活动,分享其在Citywalk场景下VideoAgent的设计与实践。他将系统阐述CityWalk Agent的完整交互流程,深入解析各子模块的技术架构与设计逻辑,涵盖视觉感知、语义理解与动态决策等关键环节。作为OPPO在智能视频交互领域的前沿探索,该Agent致力于提升用户在城市漫步场景中的智能化体验。此次演讲将为开发者与研究人员提供宝贵的实践经验与技术洞察。
本文介绍了一种名为SimKO(Simple Pass@K Optimization)的算法,旨在解决强化学习中策略生成时出现的概率过度集中问题。该算法通过直接优化pass@K性能,显著提升了在K=1及K>1场景下的表现效果。研究指出,传统方法常依赖熵来衡量输出分布的多样性,但存在明显缺陷:相同熵值的分布可能具有截然不同的形态,例如一个均匀分布在多个候选上,另一个则极度集中于单一选项。SimKO通过规避对熵的依赖,转而聚焦于提升多候选解的覆盖能力,有效缓解了集中效应,增强了生成结果的多样性与实用性。
近日,OpenHands开发团队在机器之心的报道中宣布,已发布一篇新论文,正式对广受欢迎的开源智能体框架OpenHands进行全面重构。该框架在GitHub上已获得超过6.4万星标,此次升级将重点优化其智能体组件,显著提升性能与扩展性。此举标志着OpenHands将更加积极地参与全球人工智能框架的竞争,直接对标OpenAI和谷歌等科技巨头,推动开源智能体技术的发展与普及。
大型语言模型(LLM)在语言处理能力上实现了重要突破,OpenAI的o1模型首次展现出与人类语言专家相媲美的元语言能力。该模型在句法解析、语言歧义识别及音律推理等任务中表现卓越,表明其不仅能够生成语言,还能对语言结构进行深层次分析与思考。尽管LLM基于预测下一个词的机制运行,与人类的语言理解机制存在本质差异,部分语言学家因此质疑其是否真正“理解”语言,但o1的表现仍标志着模型能力的重大进步,为语言智能的发展提供了新的视角。
快手算法专家吴翔宇将出席AICon北京站,分享快手在直播领域中AI技术的前沿实践。他将重点探讨如何融合大模型与用户行为数据,构建精准的兴趣模型,以提升直播内容的个性化推荐效果与用户体验。通过深度学习与大规模行为分析,快手实现了对用户兴趣的动态捕捉与实时响应,推动直播互动效率显著提升。此次演讲将为业界提供AI在内容推荐系统中落地应用的重要参考。
随着建筑行业迈入数字化转型的关键阶段,AI技术与虚拟孪生正成为打破数据孤岛、提升协同效率的核心驱动力。据相关研究显示,超过60%的建筑项目因信息割裂导致进度延误与成本超支。通过构建全生命周期的虚拟孪生模型,结合AI对设计、施工与运维数据的智能分析,企业可实现跨部门、跨平台的高效协同。例如,某大型基建项目应用虚拟孪生技术后,协同效率提升达40%,变更返工率下降35%。数字化不仅重塑了建筑项目的管理方式,更推动建筑制造向精细化、智能化迈进,为行业可持续发展提供技术支撑。
