亲爱的数据

亲爱的数据

关注
22.0万粉丝
5关注
12.1万被推荐

香港浸会大学公司治理硕士

13枚勋章

12次获得编辑精选

《我看见了风暴:人工智能基建革命》一书作者
IP属地:北京
更多信息

  • Kimi Agent产品很厉害,然后呢?

    3小时前
    图片
  • 电力不够,美国跨州拉网线能行吗?原外媒新闻标题是:
    《电力延误,施工中的美国数据中心容量, 2020年以来首次出现下滑。》 实质是美国要开始跨州拉网线了。 过去瓶颈是算力芯片。 现在瓶颈变成: 电力, 土地, 审批, 当物理世界成为瓶颈, 追求工业极致的工程师, 就会想办法绕过物理集中。 广域网,成为C位。 这事,我找苏远超聊了, 阿里云广域网架构与研发总监。 美国IDC建设少, 需要广域网把现有的IDC更好地整合。 技术逻辑是: “数据中心发展 → 广域网发展”, 这是一个一阶因果,太浅。 更深一层是: 当美国本土数据中心不再大行集中建设时, 城市之间(广域)网络, 成为算力扩大规模的关键。 CBRE报告给了三个结构信号: 1.在建容量下降, 2.传统核心市场(北弗吉尼亚、硅谷)下降, 3.数据中心外溢到芝加哥等新区, 当扩张遇到瓶颈,企业有两个选择: 一:在老区里面硬挤, 二:往新区扩(跨区域建设), 现实正在往第二条路上走, 一旦跨区, 问题就变成: 如何把“分散的小家伙”, 变成“逻辑上大家伙”? 既然不能再建更大的机房, 那就跨城互联。 以前,一个地方搞定, 现在,为了AI,可能要: 训练集群可能在A州, 推理集群在B州, 数据存储在C州, 备份在D 州, 看出来了吧, 广域网的重要性更强了, 它不再是“连接数据中心的管道”, 而是“把小算力拼成一个大算力”的底层结构。 美国要“跨州拼算力, 广域网是算力规模放大器。 广域网使能“AI资源高效池化”。 从技术聊回归产业, 主角不是广域网, 而是“算力组织方式改变”, 这件事让网络来实现。 第一性变量还是电力, 而网络技术成为新的约束变量。 总之, GPU 决定算力上限, 电力决定部署规模, 网络决定系统效率。 一方面, 摩根士丹利和穆迪估计, AI需求预计, 将有三万亿砸向数据中心, 包括电力供应。 另一方面, 近几个月来,美国各地群众, 对数据中心项目的抵制情绪高涨。 而川普本周在国情咨文中要求, 企业自建电厂, 以平息公众怒火。
  • 阿里除夕夜再放大招!Qwen3.5 开源?
    还记得去年除夕夜吗? 凌晨时分,Qwen2.5-Max 突然开源 第二天股价直接起飞 📈 今年,同样的配方,更猛的料—— Qwen3.5 今晚开源! 据说这次不是在参数上卷 而是在架构层面动了真格 (业内都知道,大模型架构已经沉寂多久了... 太平年,太平年 阿里这是要年年太平、年年新啊 🐴
  • 2月5日,米兰冬奥会开幕在即,国际奥委会主席柯丝蒂·考文垂在国际转播中心举行的活动中宣布,国际奥委会已基于阿里千问大模型打造了奥运史上首个官方大模型。
  • 龙虾蜕壳记:Clawdbot->Moltbot->OpenClawOpenClaw把AI助手装进自家服务器,数据不离手这点很实在。龙虾蜕了三次,开源智能体果然更随性。
  • 马斯克挑选黄道吉日,SpaceX计划6月IPO
    SpaceX计划6月中旬上市,SpaceX的IPO无疑将是科技界和资本市场的一次大震动,时间点巧妙与木星和金星的罕见合相以及马斯克的生日重合。这一“宇宙巧合”成为马斯克对IPO的特殊加持。若顺利完成,SpaceX预计筹资500亿美元,估值1.5万亿美元,成为史上最大IPO,超越沙特阿美。此次IPO不仅为火箭事业注入资金,也为马斯克进军AI领域提供支持——SpaceX计划通过星链卫星建设太空数据中心,助力与谷歌、OpenAI等巨头竞争。#SpaceX #IPO #马斯克
  • 马斯克深夜爆料:AI5 已杀青,AI6 已开工,AI9 都在路上了!9 个月一代,比 iPhone 还卷!
    1)AI5 设计完成。 2)台积电 3 nm + 三星 2 nm 双工艺,性能直接干到 AI4 的 50 倍,内存翻 9 倍。 3)2027 年量产上车,FSD 和 Optimus 机器人一起“吃”算力。 4)165 亿美元(≈1149 亿人民币)大单已签,三星美国工厂为 AI6 待命,2028 年见。 5)老马放话:目标 9 个月迭代一次,AI7/8/9 排队中,未来要造“地球上产量最高的 AI 芯片”。 6)原文: “我们的 AI5 芯片设计已接近完成,AI6 处于早期阶段,但但未来还将推出AI7、AI8、AI9.…目标是在9个月内完成设计周期。 加入我们,共同研发我预测将是迄今为止全球产量最高的 AI芯片!” 7)网友:特斯拉这是把摩尔定律按在地上摩擦!
  • 为了AI,把底层的广域网重做一遍吗?
    2026-01-09
  • 1分钟完成曾需10小时的汽车风阻验证,将数周的科研课题攻关压缩至数小时,十倍级提升科研效率……
    12月25日,在百度AI Day活动上,百度公布超级智能体百度伐谋的最新进展:发布一个月以来,已有超2000家企业申请试用,覆盖物流、制造、AI4S等领域,帮助上述行业客户高效探寻全局最优解。会上,百度伐谋还宣布围绕通用性、生产级、持续性等方向进行产品能力升级,并正式发布“同舟生态伙伴计划”,面向高校实验室及行业软件企业开放核心能力,以生态共创的方式加速推进AI进产业。 百度伐谋是百度智能云推出的全球领先的可商用自我演化超级智能体。它通过大语言模型的推理能力与大规模进化搜索技术,模拟生物界几亿年的进化过程并压缩至几天甚至几小时,从而发现过去人类从未发现过的全局最优解,还能根据条件变化自动迭代,给出最优的动态方案。 百度创始人李彦宏此前曾表示,中国拥有全球最齐全的工业门类和丰富的应用场景,如果能用先进技术大幅提升这些场景的效率,对经济增长的贡献将显而易见。正是基于这一愿景,百度伐谋旨在消除产业发展的“隐形天花板”,将过去锁在少数精英头脑里的顶尖算法,转化为每一家企业都能即刻调用的基础设施。 “人工智能正在跨越从‘智能涌现’走向创造真实价值的‘效果涌现’的新临界点。AI不再仅仅是实验室里的炫技演示,而是深入产业核心,成为解决实际难题、驱动生产力变革的原生推动力”,百度智能云AI与大模型平台总经理忻舟在致辞中表示。 伐谋三大能力升级,加速进化算法产业落地实践 百度伐谋负责人李安南介绍,自11月发布以来,伐谋和超2000家企业进行场景共创,涌现出包括农业货运规划、高校AI4S课题攻关、制造业排产优化及基础求解器策略寻优等大量创新场景。
  • Andrej Karpathy版本的2025年度AI大回顾

    2025-12-21
    图片
  • 图灵奖得主的离巢与野心,Yann LeCun携5亿欧元入场豪赌
    2025-12-21
  • 花10亿买英伟达GB200只是开始,隐藏成本有多高?
    2025-12-05
    2跟贴
  • 📢 开源狂魔 Mistral 又深夜放大招!4 个多模态新模型一次梭哈:
    🌟 Mistral-Large-3 675B 总参数|41B 激活|MoE 架构 直接硬刚 DeepSeek-V3.1 & K2,视觉+文本双杀,性能怪兽上线! 🌟 Ministral-3 小钢炮系列 3B / 8B / 14B 全密度模型,各给 3 个口味: pretrain|instruct|reasoning 对标 Qwen3-VL,本地跑也丝滑,小参数大能量! ✅ 全开源!可商用! #AI圈过年 #多模态卷王 #Mistral杀疯了
  • kimi开源了哪些模型?截至目前25 年 11 月
    月之暗面(Moonshot AI)至少已把以下 5 类模型/代码正式开源,均可商用或科研使用: 1.Kimi-Audio(通用音频基础模型) 含语音识别、音频理解、语音对话等 SOTA 级能力,一并放出模型权重、训练/推理代码与评测工具包 。 2Kimi K2 系列(代码与 Agent 任务专用) Kimi-K2-Base:纯预训练版 Kimi-K2-Instruct:指令微调版 权重以 Apache-2.0 协议托管在 Hugging Face,同步给出 FP8 权重、DeepSpeed-ZeRO3 训练脚本和 LoRA/QLoRA 一键微调示例 。 3.Kimi-K2-Thinking(长思维链推理/智能体模型) 支持 200-300 步连续工具调用,原生 INT4 量化,推理速度提升约 2 倍;模型与量化代码均已开源 。 4.Kimi-Dev(代码模型,6 月发布) SWE-bench Verified 60.4% 成绩拿下开源 SOTA,采用 MIT 协议,权重与训练代码全公开 。 5.kimi-cc(社区贡献的“Claude-Code 换核”项目) 把 Claude Code 默认模型替换为 Kimi K2,显著降低调用成本。
  • 那些智能体framework也在努力竞标:Dify
    什么是智能体Framework? 一句话讲清楚: 智能体 framework = 帮你快速把“大模型 + 工具 + 记忆 + 工作流”组装成一个可运行智能体的开发框架。 它不是模型,而是模型外的一层“运行逻辑 + 调度系统”。为什么需要它? 因为一个 LLM 本身只是“能理解/生成文本”。 但一个真正的 Agent 还要: 1.会调用工具(API、数据库、插件) 2.会执行多步推理,会处理状态(memory、上下文) 3.会被 workflow 编排,会与外部系统通信(消息队列) LLM 不擅长做这些。所以就出现了智能体框架,把这些能力“产品化”。
  • AK大神的AI工具三板斧
    安德烈·卡尔帕蒂@karpathy 我开始养成了一种习惯,用LLMs阅读各种内容(博客、文章、章节等)。通常第一步是手动阅读,然后进行“解释/总结”的第二步,最后是问答的第三步。与直接继续阅读相比,我通常能获得更深入或更全面的理解。这个习惯正在逐渐成为最有效的使用方式之一。 另一方面,如果你是一名试图解释或传达信息的作者,我们可能会越来越多地看到一种转变,即从“我正在为另一个人写作”转变为“我正在为LLM写作”。因为一旦LLM“理解”了内容,它就可以针对性地、个性化地将其传达给用户。
  • 百度超节点
    昆仑芯M100、M300低调露脸,256与512卡超节点先打前站,数字一律缺席,统统“明年见”。后面还藏着千卡、四千卡更大版图,只留一条模糊的影子。
  • 市面上流行的两种多智能体,底层完全不一样?
    它们表面都叫multi-agent, 但底层逻辑和目标完全不一样。 第一种:多智能体系统的思想来源 (真正意义的multi-agentsystem) 这类系统的核心是“协作自治”,也就是: 多个智能体各自具备推理能力、 感知能力、部分自主决策能力, 但它们需要通过沟通与协调,共同完成复杂任务。 每个Agent都有“思考+行动”循环 (Perceive→Plan→Act→Reflect)。 它们之间是通过消息、任务或上下文在协作, 而不是被人硬性调度。 系统中存在一定的自组织特征, 比如动态任务分配、竞争、协商。 比如,Manus; 底层是一个“协作架构”: 模型可以是同一个(比如都基于GPT-4), 但因为角色、记忆、目标函数、观察窗口不同, 它们形成了自治体之间的行为差异。 所以重点不在“模型不同”, 而在于交互模式的自治和 emergent behavior(涌现协作)。 第二种:多个模型+多角色包装 这是一个更“工程化”“可控”的版本: 把多个模型(不同功能、不同接口) 包装成多个角色或子Agent, 每个负责一个固定任务, 由一个中控系统(orchestrator)协调。 每个“子智能体”是一个API调用或固定模型; 没有真正的自治意识,而是执行明确分工; 谁调用谁、顺序如何,都是人工设定好的。 比如一个AI平台:图像生成,调用Qwen-Image; Prompt优化,用GPT-4; 评估子智能体,调用质量打分模型; 再加一个调度中心(Orchestrator)。 这其实是“多模型流水线”, 形式像multi-agent,但逻辑是multi-module。
  • AIGC赛道融资:靠啥聪明玩法,让VC秒点头?2025Q4科技观察
    2025-11-10
正在载入...
正在载入...