AI资讯 2026/1/3
AI 日报
AI内容摘要
台积电宣布2nm制程2025年量产,采用GAA架构提升性能降低功耗。刘子鸣指出依赖规模定律的大模型发展存在局限,主张结构主义AI路径。行业预测持续学习2026年突破,全自动编程或2030年实现。九坤投资开源代码大模型,在代码生成榜单表现优异。特斯拉FSD实现零接管横跨美国驾驶,被视为重要里程碑。Hinton认为规模定律未终结,数据瓶颈可通过AI生成数据解决。
Today’s AI News
台积电已低调宣布其2nm(N2)制程技术于2025年第四季度按计划投入量产,标志着先进芯片制程正式迈入2nm时代。 该技术采用环栅(GAA)纳米片晶体管架构,相比前代N3E工艺,在相同功耗下性能提升10%-15%,或在相同速度下功耗降低25%-30%。台积电选择在台湾高雄和新竹的两座新晶圆厂并行扩产,以同时满足高端智能手机与AI/高性能计算芯片的需求。面对竞争,三星已于2022年在其3nm制程中率先量产GAA架构,而英特尔也计划在其18A(约1.8nm)节点中引入GAA与背面供电技术,新一轮半导体技术竞赛已拉开序幕。
柯尔莫哥洛夫-阿诺德网络(KAN)作者刘子鸣发表观点,直指当前依赖Scaling Law(规模定律)的大模型发展路径存在根本局限。 他认为,仅靠无限扩大算力和数据规模来拟合任务的"表观复杂度”,本质上是低效的"蛮力”方法,终将面临能源和高质量数据耗尽的瓶颈。他主张,实现通用人工智能(AGI) 需要更注重"结构”而非"规模”,即让模型具备发现并利用数据内在规律和可压缩性的能力。刘子鸣提出了"结构主义AI”的路径,认为其能更高效地处理从高度可压缩的"类物理任务”到弱可压缩的"类生物任务”,并指出抽象能力与内在结构的涌现是未来AGI发展的核心挑战。
行业专家预测,2026年可能成为"持续学习”取得关键突破并实用化的一年,这将使AI模型能够在不遗忘旧知识的前提下持续自我改进。 前OpenAI研究员团队的模型进一步预测,全自动化编程(完全替代程序员团队)可能在2030年左右实现,并可能触发AI研发进入自动化加速阶段,存在约25%的概率在一年内实现向超级人工智能(ASI) 的飞跃。与此同时,《自然》文章展望,到2050年,AI系统或将成为进行"诺奖级”科学研究的主力军,通过"黑灯实验室”等全自动科研模式,推动科学发现进入新的范式。
由九坤投资旗下团队推出的IQuest-Coder-V1系列代码大模型已开源。 其40B参数版本在SWE-Bench Verified榜单上取得81.4%的成绩,据称超过了Claude Opus-4.5和GPT-5.2。该模型系列专注于代码生成与理解,提供7B、14B、40B等不同参数规模,并强调"工程友好”与长上下文支持。其独特的"代码流多阶段训练”策略,通过让模型学习代码的演化过程来提升软件工程能力。模型支持在单张消费级3090/4090 GPU上部署。
车主David Moss驾驶搭载FSD V14.2的特斯拉Model 3,耗时约2天20小时,全程约4397公里,从美国西海岸洛杉矶行驶至东海岸南卡罗来纳州,实现了人类驾驶员零次接管的完全自动驾驶。 此次行程穿越24个州,经历了包括城市街道、高速公路、夜间驾驶及复杂天气在内的多种路况,自动驾驶系统完成了全部驾驶及自动充电任务。这被视为特斯拉端到端神经网络方案的重要里程碑,实现了马斯克十年前许下的承诺。
针对Scaling Law(规模定律)是否有效的争论,AI先驱Geoffrey Hinton表示,他并不认为Scaling Law已经终结,当前面临的主要挑战是数据瓶颈,但这一问题可以通过让AI模型自行生成训练数据来解决,类似AlphaGo的自我对弈。 这一观点与其学生、OpenAI前首席科学家Ilya Sutskever近期的言论形成对比。Ilya认为,仅靠扩大模型规模已不足以带来根本性突破,未来需要回归研究范式本身,探索如推理、智能体等新方向。Meta首席AI科学家Yann LeCun也对单纯扩大规模持怀疑态度。有分析指出,顶尖研究者的共识在于当前范式已能产生巨大影响,但实现AGI可能需要更多研究突破。