微软 英伟达接入DeepSeek!OpenAI急筹2800亿融资(图)
大鱼新闻 财经 8 hours, 34 minutes
英伟达微软带头接入Deepseek,OpenAI急筹2800亿新融资
DeepSeek冲击下,硅谷可太精彩了。
昨天OpenAI、Anthropic还在带头冲锋,想方设法使绊子。一夜间,基础设施厂商们却纷纷“真香”了起来。
在微软之后,英伟达、AWS也加急上线DeepSeek模型托管服务。
正如英伟达官推评论区网友评价的,“打不过,就加入”。
咱们且一桩桩一件件把这瓜捋上一捋。
先说个新消息,OpenAI这边的最新应对举措今日出炉:筹钱,筹钱,筹钱。
《华尔街日报》爆料,OpenAI正在以3000亿美元估值,寻求新一轮的400亿美元(约合2875亿人民币)融资——
这将打破由OpenAI自己保持的硅谷单轮最高融资纪录。
本轮融资由软银领投。此前的消息显示,软银此番计划最多向OpenAI投资250亿美元(约合1797亿人民币)。
而这距离OpenAI以1570亿美元估值筹获66亿美元,其实也就刚过去4个月时间。
短短几个月,估值再次翻番,也从侧面印证了市场传闻:OpenAI对上一轮融资并不满意。
并且现在,OpenAI或许真有点被逼急了:
另一个消息是,o3在当地时间周五就会发布。
但AI应用这边,画风就又有些不同了。
比如程序员最爱的Cursor,已经大大方方接入了新模型,号召大家伙而一起实测见真章。
只留下中间的模型厂商在风中凌乱,对于云服务和应用来说,先全部支持上是正经嘛(doge)。
具体详情,咱们往下接着唠。
o3周五见根据爆料,OpenAI筹集资金的目的之一是兑现对Stargate(星际之门)计划的承诺。
这项计划由OpenAI和软银牵头发起,Arm、微软、英伟达、甲骨文都将作为关键技术伙伴参与其中,目标是在未来4年内投资5000亿美元(约合3.64万亿人民币)在美国建立多个AI数据中心。
OpenAI的承诺是:1000亿美元。
官方公告透露了一些细节:
The Stargate Project是一家新公司,计划在未来四年内投资5000亿美元,在美国为OpenAI建设新的AI基础设施。我们将立即投入1000亿美元。
该项目的初始股权投资者(The initial equity funders)包括软银、OpenAI、甲骨文和中东AI基金MGX。软银和OpenAI是项目的牵头合作伙伴,其中软银负责财务,OpenAI负责运营。孙正义将担任董事长。
Arm、微软、英伟达、甲骨文和OpenAI是关键初始技术合作伙伴。建设工作目前正在进行中,从德克萨斯州开始,我们在最终确定协议的同时,正在评估全国各地的潜在地点以建立更多园区。
作为《星际之门》项目的一部分,甲骨文、英伟达和OpenAI将紧密合作构建和运营这个计算系统。这建立在OpenAI和英伟达自2016年以来的深度合作,以及OpenAI和甲骨文的新合作基础上。
这也建立在OpenAI与微软现有的合作关系之上。随着OpenAI继续与微软合作,利用额外的计算能力来训练领先模型并提供出色的产品和服务,OpenAI将继续增加对Azure的使用。
另外,这笔钱也将被OpenAI用来填补亏损。尽管在2024年8月,OpenAI的月收入已达3亿美元,相较于2023年初增长了1700%,但在10月份时,OpenAI预计其全年亏损仍达50亿美元。
随着融资消息而来的,还有o3的最新时间表。
OpenAI首席全球事务官Chris Lehane在接受NPR采访时透露:
o3将在周五发布。
(也就是北京时间周六。)
消息一出,网友们小马扎已经准备好了。
不过也有网友指出,他所说的“o3”还是指o3-mini,对于这一模型的上线,奥特曼本人已经预告已久。
毕竟,酸归酸闹归闹,DeepSeek正在大洋彼岸引发更多的“真香”效应。
DeepSeek“真香”继微软前脚指指点点,后脚就在自家AI平台上接入了DeepSeek模型之后,程序员们最爱的Cursor今天也最新宣布:
现在,DeepSeek模型在Cursor上可用啦。
值得注意的是,Cursor提到,在实际编程任务中,还是Sonnet 3.5更胜于DeepSeek的新模型。
但Cursor官方并没有给出具体的示例,这就引发了围观群众们的好奇:
看来是时候用实测来说话了,如果你已经上手体验,不妨在评论区第一时间分享给我们大伙儿~
同样,说话很大声的Anthropic,背后金主爸爸AWS也已第一时间接入DeepSeek模型,丝毫没有因为争议而犹豫(doge)。
更受关注的还有股价真被DeepSeek冲了一波的英伟达——
DeepSeek-R1已上线英伟达NIM平台。英伟达官方还大夸特夸了一波:
DeepSeek-R1是具有最先进推理能力的开源模型。DeepSeek-R1这样的推理模型不直接给出回答,而是在查询上执行推理,通过思维链、共识和搜索方法,生成最佳答案。
DeepSeek-R1是测试时Scaling Law的一个完美例子,证明了为什么加速计算对于代理AI的推理需求至关重要。
英伟达表示,DeepSeek-R1 NIM微服务可以在单个NVIDIA HGX H200系统上每秒传递3872个token。
而针对Anthropic等面对DeepSeek竞争的不敞亮反应,也有越来越多反对的声音正在出现。
比如HuggingFace联合创始人Thomas Wolf,就直接批评说:
老实说,Dario的文章读起来非常痛苦。
他在小作文中写道:
将开源研究与模糊的封闭研究,以及未公开的评估进行比较的做法,让我对Anthropic的领先地位信心不如从前。
更重要的是,随着Open-R1的发展和DeepSeek的论文,未来几个月来自世界各地的团队都将发布开源推理模型。比如今天,艾伦研究所和Mistral就分别发布了Tülu and Small3,来追赶DeepSeek-V3。
开源将对我们的安全越来越重要。
一夜之间微软、英伟达全部接入DeepSeek!吴恩达:中国AI正在崛起
【新智元导读】微软、英伟达、亚马逊等美国云计算平台拥抱DeepSeek R1。吴恩达、英特尔前CEO夸赞DeepSeek创新能力。
1月最后一天,来自DeepSeek的热度丝毫不减。
远在大洋彼岸的美国,不仅从业者感受到了前所未有的压力,那些平时对AI毫不关心的人,也感受到了来自中国AI的震撼——
Anthropic CEO呼吁美国加强芯片管制力度;OpenAI寻求硅谷史上最大400亿美元单笔融资。
网友们则借助宽松的开源许可,制作出了用DeepSeek-R1替代OpenAI Operator的教程——不用200美元订阅,完全免费!
「俗话」说得好:「打不过就加入」。
一开始便对DeepSeek赞赏有加的英伟达,刚刚宣布:「DeepSeek-R1正式登陆NVIDIA NIM」。据介绍,在单个NVIDIA HGX H200系统上,完整版DeepSeek-R1 671B的处理速度可达3,872 Token/秒。
同在今天,亚马逊也在Amazon Bedrock和SageMaker AI中,上线了DeepSeek-R1模型。
曾经冲出来和OpenAI一起高调质疑DeepSeek「偷窃」数据的微软,甚至在前一天就把DeepSeek-R1抢先部署在了自家的云服务Azure上。
除了科技大厂,AI初创们也没有放过如此上好的机会。
Windsurf编辑器同时集成了DeepSeek-R1和V3模型,并且第一次在编程智能体中,实现了R1的工具调用。
Cerebras不仅实现了比GPU快57倍的推理速度,而且还报告称,自己部署的70B模型在准确率上要比GPT-4o和o1-mini更高。
中国AI正在崛起
在吴恩达看来,本周围绕DeepSeek的热议,让许多人清晰地看到了几个一直存在的重要趋势:
美国在GenAI领域的领先地位正在被中国迎头赶上,AI供应链格局将被重塑开放权重模型正在推动基础模型层商品化,为应用开发者带来新机遇扩大规模并非通往AI进步的唯一途径。尽管算力备受追捧,但算法创新正在快速降低训练成本
中国在GenAI领域正在赶上美国
当ChatGPT于2022年11月推出时,美国在GenAI领域明显领先于中国。
由于观念的转变十分缓慢,所以吴恩达直到最近,都还能听到不少关于中国仍然落后的论调。
但实际上,双方的差距已经在过去两年中迅速缩小。
随着Qwen(吴恩达团队已经用了几个月)、Kimi、InternVL和DeepSeek等模型的推出,中国在文本模型上的差距正在缩小,而在视频生成等领域,中国甚至已经展现出了一些领先优势。
如今,DeepSeek-R1不仅开源了模型权重,而且还分享了一份包含诸多细节的技术报告。
相比之下,一些美国公司却通过渲染人类灭绝等假想的AI危险,推动制定法规来阻止开源的发展。
不可否认的是,开源/开放权重模型都是AI供应链的关键部分——很多公司都在用。
对此,吴恩达表示:如果美国继续妨碍开源,AI供应链的这一环节就将由中国主导。
开放权重模型正在使基础模型层普及化
一直以来,LLM的Token价格都在迅速下降,开放权重模型不仅加速了这一趋势,并且还为开发者提供了更多选择。
OpenAI的输出价格为60美元/百万Token;而DeepSeek R1只要2.19美元。这种近30倍的差异让许多人注意到了价格下降的趋势。
训练基础模型并提供API服务充满困难,很多AI公司至今仍在寻找收回模型训练成本的途径。
红杉资本的文章「AI’s $600B Question」很好地阐述了这一挑战。
相比之下,在基础模型之上进行应用开发,则有着绝佳的商机。
现在,已经有公司投入了数十亿美元训练出了一些模型,而你只需支付少量费用就能访问。然后,拿去开发客服聊天机器人、邮件摘要工具、AI医生、法律文档助手等诸多应用。
扩大规模并非AI进步的唯一途径
围绕通过扩大模型规模来推动进步的热议有很多,就连吴恩达也是早期的支持者之一。
许多公司为了数十亿美元的融资, 制造「噱头」:
只要有更多资金,他们就能(1)扩大规模并(2)可预测地推动改进。
因此,人们开始过分关注规模的scaling,而忽视了其他方式取得的进步。
受到美国AI芯片禁令的影响,DeepSeek团队不得不在性能相对较低的H800 GPU上跑模型,而这也推动了他们在优化方面的大量创新。最终,模型训练成本(不包括研究成本)不到600万美元。
这是否真能减少计算需求仍有待观察。有时,商品的单价变得更低,反而会导致该商品的总支出增加。
吴恩达认为:「从长远来看,对智能和算力的需求是几乎没有上限的,所以即使智能变得更便宜,人类依然会使用更多智能。」
在X上,我们可以看到很多对DeepSeek进展的不同解读。就像「罗夏墨迹测试」一样,可以让许多人将自己的理解投射其中。
虽然DeepSeek-R1的地缘政治影响仍有待明确,但它对AI应用的开发者来说确实是个好消息。
吴恩达的团队已经在头脑风暴一些新的想法,而这些想法之所以成为可能,仅仅是因为我们可以轻松访问一个开放的高级推理模型。
现在仍然是一个创造的好时机!
DeepSeek带来的三个启示
DeepSeek的成功,甚至「炸出」了芯片、计算行业的老兵——英特尔前CEO Pat Gelsinger。
作为业内非常资深的工程师,Gelsinger认为,现在这些针对DeepSeek的反应,忽视了我们在过去五十年计算机发展历程中学到的三个重要教训。
第一:计算遵循「气体定律」
计算会像气体一样, 填满由可用资源(资本、电力、散热限制等)定义的可用空间。
正如在CMOS、个人电脑、多核处理器、虚拟化、移动设备等众多领域看到的那样,以极低的价格广泛提供计算资源,将推动市场的爆炸性扩张,而不是收缩。
未来AI将无处不在,而今天,要实现这一潜力的成本仍然高得离谱。
第二:工程的本质就是应对约束
很明显,DeepSeek团队面临诸多约束,但他们找到了极具创造性的方法,并以低10-50倍的成本,交付了世界一流的解决方案。
美国的禁令限制了可用资源,因此中国的工程师不得不发挥创造力,而他们也确实做到了——价值数百亿美元的硬件、最新的芯片和数十亿美元的训练预算,都不再是必需品。
多年前,Gelsinger曾采访过最为著名的计算机科学家之一Donald Knuth。他详细描述了当资源极度受限、进度要求最紧迫时,该如何做出最好的工作。
Gelsinger表示,这个见解是他工程管理生涯中最重要的启示之一。
第三:开放终将胜利
过去几年,看到正变得越来越封闭的基础模型研究,实在令人失望。
在这一点上,Gelsinger更认同马斯克而不是奥特曼的观点——我们真的希望,不,是需要AI研究的开放性得到提升。
我们需要知道训练数据集是什么,研究算法并对其正确性、伦理和影响进行深入思考。Linux、GCC、USB、WiFi等众多例子,已经让这一点无比清晰。
在法律、频谱、工程和采用方面的战斗中,开放并不容易,并且始终在受到市场力量的挑战。但只要给一个适当的机会,「开放」每次都会胜出。
AI对人类未来的重要性不言而喻,因此,绝对不能让一个封闭的生态系统在这个领域成为唯一的主宰。
DeepSeek是一个令人难以置信的工程壮举——它将推动AI实现更广泛发采用,并将帮助重塑行业对开放创新的看法。
正是这样一个来自中国的高度受限的团队,让我们所有人重新想起了这些计算机历史的基本教训。
DeepSeek冲击下,硅谷可太精彩了。
昨天OpenAI、Anthropic还在带头冲锋,想方设法使绊子。一夜间,基础设施厂商们却纷纷“真香”了起来。
在微软之后,英伟达、AWS也加急上线DeepSeek模型托管服务。
正如英伟达官推评论区网友评价的,“打不过,就加入”。
咱们且一桩桩一件件把这瓜捋上一捋。
先说个新消息,OpenAI这边的最新应对举措今日出炉:筹钱,筹钱,筹钱。
《华尔街日报》爆料,OpenAI正在以3000亿美元估值,寻求新一轮的400亿美元(约合2875亿人民币)融资——
这将打破由OpenAI自己保持的硅谷单轮最高融资纪录。
本轮融资由软银领投。此前的消息显示,软银此番计划最多向OpenAI投资250亿美元(约合1797亿人民币)。
而这距离OpenAI以1570亿美元估值筹获66亿美元,其实也就刚过去4个月时间。
短短几个月,估值再次翻番,也从侧面印证了市场传闻:OpenAI对上一轮融资并不满意。
并且现在,OpenAI或许真有点被逼急了:
另一个消息是,o3在当地时间周五就会发布。
但AI应用这边,画风就又有些不同了。
比如程序员最爱的Cursor,已经大大方方接入了新模型,号召大家伙而一起实测见真章。
只留下中间的模型厂商在风中凌乱,对于云服务和应用来说,先全部支持上是正经嘛(doge)。
具体详情,咱们往下接着唠。
o3周五见根据爆料,OpenAI筹集资金的目的之一是兑现对Stargate(星际之门)计划的承诺。
这项计划由OpenAI和软银牵头发起,Arm、微软、英伟达、甲骨文都将作为关键技术伙伴参与其中,目标是在未来4年内投资5000亿美元(约合3.64万亿人民币)在美国建立多个AI数据中心。
OpenAI的承诺是:1000亿美元。
官方公告透露了一些细节:
The Stargate Project是一家新公司,计划在未来四年内投资5000亿美元,在美国为OpenAI建设新的AI基础设施。我们将立即投入1000亿美元。
该项目的初始股权投资者(The initial equity funders)包括软银、OpenAI、甲骨文和中东AI基金MGX。软银和OpenAI是项目的牵头合作伙伴,其中软银负责财务,OpenAI负责运营。孙正义将担任董事长。
Arm、微软、英伟达、甲骨文和OpenAI是关键初始技术合作伙伴。建设工作目前正在进行中,从德克萨斯州开始,我们在最终确定协议的同时,正在评估全国各地的潜在地点以建立更多园区。
作为《星际之门》项目的一部分,甲骨文、英伟达和OpenAI将紧密合作构建和运营这个计算系统。这建立在OpenAI和英伟达自2016年以来的深度合作,以及OpenAI和甲骨文的新合作基础上。
这也建立在OpenAI与微软现有的合作关系之上。随着OpenAI继续与微软合作,利用额外的计算能力来训练领先模型并提供出色的产品和服务,OpenAI将继续增加对Azure的使用。
另外,这笔钱也将被OpenAI用来填补亏损。尽管在2024年8月,OpenAI的月收入已达3亿美元,相较于2023年初增长了1700%,但在10月份时,OpenAI预计其全年亏损仍达50亿美元。
随着融资消息而来的,还有o3的最新时间表。
OpenAI首席全球事务官Chris Lehane在接受NPR采访时透露:
o3将在周五发布。
(也就是北京时间周六。)
消息一出,网友们小马扎已经准备好了。
不过也有网友指出,他所说的“o3”还是指o3-mini,对于这一模型的上线,奥特曼本人已经预告已久。
毕竟,酸归酸闹归闹,DeepSeek正在大洋彼岸引发更多的“真香”效应。
DeepSeek“真香”继微软前脚指指点点,后脚就在自家AI平台上接入了DeepSeek模型之后,程序员们最爱的Cursor今天也最新宣布:
现在,DeepSeek模型在Cursor上可用啦。
值得注意的是,Cursor提到,在实际编程任务中,还是Sonnet 3.5更胜于DeepSeek的新模型。
但Cursor官方并没有给出具体的示例,这就引发了围观群众们的好奇:
看来是时候用实测来说话了,如果你已经上手体验,不妨在评论区第一时间分享给我们大伙儿~
同样,说话很大声的Anthropic,背后金主爸爸AWS也已第一时间接入DeepSeek模型,丝毫没有因为争议而犹豫(doge)。
更受关注的还有股价真被DeepSeek冲了一波的英伟达——
DeepSeek-R1已上线英伟达NIM平台。英伟达官方还大夸特夸了一波:
DeepSeek-R1是具有最先进推理能力的开源模型。DeepSeek-R1这样的推理模型不直接给出回答,而是在查询上执行推理,通过思维链、共识和搜索方法,生成最佳答案。
DeepSeek-R1是测试时Scaling Law的一个完美例子,证明了为什么加速计算对于代理AI的推理需求至关重要。
英伟达表示,DeepSeek-R1 NIM微服务可以在单个NVIDIA HGX H200系统上每秒传递3872个token。
而针对Anthropic等面对DeepSeek竞争的不敞亮反应,也有越来越多反对的声音正在出现。
比如HuggingFace联合创始人Thomas Wolf,就直接批评说:
老实说,Dario的文章读起来非常痛苦。
他在小作文中写道:
将开源研究与模糊的封闭研究,以及未公开的评估进行比较的做法,让我对Anthropic的领先地位信心不如从前。
更重要的是,随着Open-R1的发展和DeepSeek的论文,未来几个月来自世界各地的团队都将发布开源推理模型。比如今天,艾伦研究所和Mistral就分别发布了Tülu and Small3,来追赶DeepSeek-V3。
开源将对我们的安全越来越重要。
一夜之间微软、英伟达全部接入DeepSeek!吴恩达:中国AI正在崛起
【新智元导读】微软、英伟达、亚马逊等美国云计算平台拥抱DeepSeek R1。吴恩达、英特尔前CEO夸赞DeepSeek创新能力。
1月最后一天,来自DeepSeek的热度丝毫不减。
远在大洋彼岸的美国,不仅从业者感受到了前所未有的压力,那些平时对AI毫不关心的人,也感受到了来自中国AI的震撼——
Anthropic CEO呼吁美国加强芯片管制力度;OpenAI寻求硅谷史上最大400亿美元单笔融资。
网友们则借助宽松的开源许可,制作出了用DeepSeek-R1替代OpenAI Operator的教程——不用200美元订阅,完全免费!
「俗话」说得好:「打不过就加入」。
一开始便对DeepSeek赞赏有加的英伟达,刚刚宣布:「DeepSeek-R1正式登陆NVIDIA NIM」。据介绍,在单个NVIDIA HGX H200系统上,完整版DeepSeek-R1 671B的处理速度可达3,872 Token/秒。
同在今天,亚马逊也在Amazon Bedrock和SageMaker AI中,上线了DeepSeek-R1模型。
曾经冲出来和OpenAI一起高调质疑DeepSeek「偷窃」数据的微软,甚至在前一天就把DeepSeek-R1抢先部署在了自家的云服务Azure上。
除了科技大厂,AI初创们也没有放过如此上好的机会。
Windsurf编辑器同时集成了DeepSeek-R1和V3模型,并且第一次在编程智能体中,实现了R1的工具调用。
Cerebras不仅实现了比GPU快57倍的推理速度,而且还报告称,自己部署的70B模型在准确率上要比GPT-4o和o1-mini更高。
中国AI正在崛起
在吴恩达看来,本周围绕DeepSeek的热议,让许多人清晰地看到了几个一直存在的重要趋势:
美国在GenAI领域的领先地位正在被中国迎头赶上,AI供应链格局将被重塑开放权重模型正在推动基础模型层商品化,为应用开发者带来新机遇扩大规模并非通往AI进步的唯一途径。尽管算力备受追捧,但算法创新正在快速降低训练成本
中国在GenAI领域正在赶上美国
当ChatGPT于2022年11月推出时,美国在GenAI领域明显领先于中国。
由于观念的转变十分缓慢,所以吴恩达直到最近,都还能听到不少关于中国仍然落后的论调。
但实际上,双方的差距已经在过去两年中迅速缩小。
随着Qwen(吴恩达团队已经用了几个月)、Kimi、InternVL和DeepSeek等模型的推出,中国在文本模型上的差距正在缩小,而在视频生成等领域,中国甚至已经展现出了一些领先优势。
如今,DeepSeek-R1不仅开源了模型权重,而且还分享了一份包含诸多细节的技术报告。
相比之下,一些美国公司却通过渲染人类灭绝等假想的AI危险,推动制定法规来阻止开源的发展。
不可否认的是,开源/开放权重模型都是AI供应链的关键部分——很多公司都在用。
对此,吴恩达表示:如果美国继续妨碍开源,AI供应链的这一环节就将由中国主导。
开放权重模型正在使基础模型层普及化
一直以来,LLM的Token价格都在迅速下降,开放权重模型不仅加速了这一趋势,并且还为开发者提供了更多选择。
OpenAI的输出价格为60美元/百万Token;而DeepSeek R1只要2.19美元。这种近30倍的差异让许多人注意到了价格下降的趋势。
训练基础模型并提供API服务充满困难,很多AI公司至今仍在寻找收回模型训练成本的途径。
红杉资本的文章「AI’s $600B Question」很好地阐述了这一挑战。
相比之下,在基础模型之上进行应用开发,则有着绝佳的商机。
现在,已经有公司投入了数十亿美元训练出了一些模型,而你只需支付少量费用就能访问。然后,拿去开发客服聊天机器人、邮件摘要工具、AI医生、法律文档助手等诸多应用。
扩大规模并非AI进步的唯一途径
围绕通过扩大模型规模来推动进步的热议有很多,就连吴恩达也是早期的支持者之一。
许多公司为了数十亿美元的融资, 制造「噱头」:
只要有更多资金,他们就能(1)扩大规模并(2)可预测地推动改进。
因此,人们开始过分关注规模的scaling,而忽视了其他方式取得的进步。
受到美国AI芯片禁令的影响,DeepSeek团队不得不在性能相对较低的H800 GPU上跑模型,而这也推动了他们在优化方面的大量创新。最终,模型训练成本(不包括研究成本)不到600万美元。
这是否真能减少计算需求仍有待观察。有时,商品的单价变得更低,反而会导致该商品的总支出增加。
吴恩达认为:「从长远来看,对智能和算力的需求是几乎没有上限的,所以即使智能变得更便宜,人类依然会使用更多智能。」
在X上,我们可以看到很多对DeepSeek进展的不同解读。就像「罗夏墨迹测试」一样,可以让许多人将自己的理解投射其中。
虽然DeepSeek-R1的地缘政治影响仍有待明确,但它对AI应用的开发者来说确实是个好消息。
吴恩达的团队已经在头脑风暴一些新的想法,而这些想法之所以成为可能,仅仅是因为我们可以轻松访问一个开放的高级推理模型。
现在仍然是一个创造的好时机!
DeepSeek带来的三个启示
DeepSeek的成功,甚至「炸出」了芯片、计算行业的老兵——英特尔前CEO Pat Gelsinger。
作为业内非常资深的工程师,Gelsinger认为,现在这些针对DeepSeek的反应,忽视了我们在过去五十年计算机发展历程中学到的三个重要教训。
第一:计算遵循「气体定律」
计算会像气体一样, 填满由可用资源(资本、电力、散热限制等)定义的可用空间。
正如在CMOS、个人电脑、多核处理器、虚拟化、移动设备等众多领域看到的那样,以极低的价格广泛提供计算资源,将推动市场的爆炸性扩张,而不是收缩。
未来AI将无处不在,而今天,要实现这一潜力的成本仍然高得离谱。
第二:工程的本质就是应对约束
很明显,DeepSeek团队面临诸多约束,但他们找到了极具创造性的方法,并以低10-50倍的成本,交付了世界一流的解决方案。
美国的禁令限制了可用资源,因此中国的工程师不得不发挥创造力,而他们也确实做到了——价值数百亿美元的硬件、最新的芯片和数十亿美元的训练预算,都不再是必需品。
多年前,Gelsinger曾采访过最为著名的计算机科学家之一Donald Knuth。他详细描述了当资源极度受限、进度要求最紧迫时,该如何做出最好的工作。
Gelsinger表示,这个见解是他工程管理生涯中最重要的启示之一。
第三:开放终将胜利
过去几年,看到正变得越来越封闭的基础模型研究,实在令人失望。
在这一点上,Gelsinger更认同马斯克而不是奥特曼的观点——我们真的希望,不,是需要AI研究的开放性得到提升。
我们需要知道训练数据集是什么,研究算法并对其正确性、伦理和影响进行深入思考。Linux、GCC、USB、WiFi等众多例子,已经让这一点无比清晰。
在法律、频谱、工程和采用方面的战斗中,开放并不容易,并且始终在受到市场力量的挑战。但只要给一个适当的机会,「开放」每次都会胜出。
AI对人类未来的重要性不言而喻,因此,绝对不能让一个封闭的生态系统在这个领域成为唯一的主宰。
DeepSeek是一个令人难以置信的工程壮举——它将推动AI实现更广泛发采用,并将帮助重塑行业对开放创新的看法。
正是这样一个来自中国的高度受限的团队,让我们所有人重新想起了这些计算机历史的基本教训。
Advertisements
相关新闻
- 五角大楼禁用DeepSeek,台当局果然又跳出来(图)
- 目前看到对DeepSeek真实水平最全面客观的分析(图)
- 涉DeepSeek 台当局又跳出来称“资讯安全风险”(图)
- Deepseek是“国运”级的突破吗?格局可以更大些(组图)
- 19岁华人辍学创业 拿下百万美金融资!All in智能体(图)
- 英伟达平台上线DeepSeek!多国设限后 日本表态(图)
- DeepSeek震动硅谷 美国智库高管:咱去偷中国工程师(图)
- “硬核掀桌”之后,DeepSeek留给人工智能4个新问题(图)
- DeepSeek动摇信心?OpenAI紧急上线最强模型O3 Mini(图)
- DeepSeek动摇信心?OpenAI紧急上线最强模型O3 Mini (图)