在英语课上强插英语课代表作文
特斯拉(英语:TeslaInc.),曾经叫做特斯拉汽车,是美国最大的电动汽车及太阳能板公司,产销电动汽车、太阳能板及储能设备。公司跟随由马丁·艾伯哈德(MartinEberhard)和马克·塔彭宁(MarcTarpenning)于2003年7月1日所创办。创始人将公司命名为“特斯拉汽车(TeslaMotors)”,以纪念物理学家尼古拉·特斯拉(NikolaTesla)。在公司成立后不久,工程师莱特(IanWright)加入成为公司的第3号员工。
在2004年特斯拉A轮融资时,伊隆·马斯克(ElonMusk)投资该公司并成为特斯拉最大股东及董事长,并雇用锂电池专家史特劳贝尔(JBStraubel)而组成公司早期的团队。
2018年6月5日,在特斯拉股东大会上,特斯拉披露了在中国上海建设美国以外首个工厂的计划,2018年7月10日,马斯克和上海市政府签订协议,宣布特斯拉中国工厂在临港落户。
收购
2016年6月21日,特斯拉汽车(TeslaMotors)宣布以全股票的方案出价收购全美国最大的太阳能公司SolarCity,收购价为每股26.50至28.50美元,较SolarCity周二的收盘价21.19美元有25%至35%的溢价率,交易总价值为28亿美元。
2019年2月4日,特斯拉宣布2.18亿美元收购能源储存和电力传输解决方案开发商和制造商Maxwell。
产品
特斯拉研发的第一辆车是以英国莲花跑车LotusEvora为基础的纯电动跑车TeslaRoadster,是第一辆使用锂离子电池的汽车,也是第一辆充电能行驶超过200英里的电动汽车。
现在,特斯拉旗下产品已经包括了:TeslaRoadster、TeslaModelS、TeslaModelX、TeslaModel3、TeslaModelY、TeslaSemi、TeslaCybertruck等车型。
TeslaRoadster
TeslaRoadster是基于莲花Evora的双门双座电动跑车,其理论最大续航里程超过了320km,从2008年面世到2012年停产,一共销售了2250辆左右。[12]TeslaRoadster是全球首款量产版电动敞篷跑车,Roadster的美国最低售价为109000美元。在英国的最低售价为86950英镑,在欧洲大陆的最低售价为84000欧元。身为电动车,Roadster在欧洲也有资格享有政府补贴。[13]
2017年11月,特斯拉发表新款Roadster,0-60mph帮助能力达到1.9秒,最高时速超过400公里,续航力为1000公里,售价为200000美金。
TeslaModelS
TeslaModelS是一款高性能电动汽车,一开始的代号为Whitestar,2008年6月发布于新闻稿,2012年6月开始在美国交车。
ModelS的长宽高分别为:4970x1963x1435mm,轴距达到2960mm。这台电动车(P90D)的电动机可以授予762马力的最大动力,713N·m的峰值扭矩,这让ModelS的百公里帮助达到2.9秒(Ludicrous),0-400米帮助也只需10.9秒。[14]它有三种电池规格供消费者选择,分别可以驱动车辆行驶260公里、370公里和480公里,而配备这三种电池的ModelS的售价则分别为57400美元、67400美元和77400美元。[15][16]ModelS在美国公路交通安全局(NHTSA)进行的碰撞测试中获得了5.4星的高分,这是NHTSA历史上测试的所有车型中的最高分。[17]该车型2013年全球总销量是2.23万辆。[18]
规格P100DP90D90D70D续航力(英里)3152532402400-60mph帮助2.5s3.1s4.2s5.2s0-60mph帮助(Ludicrous)2.5s2.8sxx最高速度mph155155155140TeslaModelX
TeslaModelX是一款7座休旅车,2012年2月发表,2015年9月开始交车。
鹰翼门是此款车的最大特色之一,后侧门能以向上延展方式掀开,同时侦测侧边及上方的障碍物避免碰撞,达到即便在狭窄的空间范围仍可轻松进出。
规格P90D90D70D续航力(英里)2502572200-60mph帮助3.8s4.8s6.0s0-60mph帮助(Ludicrous)3.2sxx最高速度mph155155140TeslaModel3
TeslaModel3是一款入门电动车,一开始的代号为BlueStar,2016年3月31日发布,2017年7月开始量产并交付首批车辆。
完全建立先交付美国的订单,版本为长续航里程电池版本。
标准电池版本的生产将于2017年11月开始,左驾车款的全球交付将于2018下半年开始,2019年开始生产右驾车款。
规格Base续航力(英里)2150-60mph帮助4.0s最高速度mphxTeslaModelY
ModelY是一款纯电动的中型SUV,可容纳七位成人,车辆配备双摩打全轮驱动,并授予最佳的保护。
TeslaSemiTruck
SemiTruck自2017年11月首次亮相至今,其规格一直是车迷热议的话题,包括其本身为车重15吨以上的等级8重型卡车或者单次清空电即可以65mph的速度达500英里续航。
TeslaCybertruck
Cybertruck的车身外壳制造破坏坚固度及耐用度,充分保护车上的乘客。由几乎不可穿透的外壳车架,到30X超硬冷轧不锈钢架外壳,配合Tesla装甲玻璃,均为极高强度和耐用设计。光滑的单色外壳有助修饰凹痕、损毁的表面及长期使用而自然产生的腐蚀痕迹,整个外壳车架罩着整架车辆,为驾驶者及乘客授予最大保护。超硬玻璃和聚合物层复合材料可以吸收或转移冲击力,指责防撞表现和耐损程度。
除了可用来放置你的工具箱、轮胎和Cyberquad的储物空间,另外还有备用空间。可供你充份运用的100立方英尺的外部可上锁储物空间,包括床底柜、前行李厢和帆柱。
声明:本文来自于微信公众号量子位,作者:梦晨西风,授权站长之家转载发布。
DeepSeek-v3大模型横空出世,以1/11算力训练出超过Llama3的开源模型,震撼了整个AI圈。
紧接着,“雷军开千万年薪挖DeepSeek研究员罗福莉”的传闻,也使得人们把目光聚焦向DeepSeek的人才。
这下不只科技圈,全网都在好奇,连小红书上都有人发帖询问,这究竟是一只怎样的团队?
国际上,也有人把创始人梁文锋的访谈翻译成英语,还加了注释,试图从中寻找这家公司崛起的蛛丝马迹。
量子位整理各种资料发现,DeepSeek团队最大的特点就是年轻。
应届生、在读生,特别是来自清北的应届生在其中非常活跃。
他们中的一些人,2024年一边在DeepSeek搞研究,另一边新鲜热乎的博士学位论文刚评上奖。
他们中有的参与了从DeepSeekLLMv1到DeepSeek-v3的全程,有的只是实习了一段时间也做出重要成果。
为DeepSeek提出MLA新型注意力、GRPO强化学习对齐算法等关键创新的,几乎都是年轻人。
DeepSeek不次要的部分成员揭秘
2024年5月发布的DeepSeek-V2,是致使这家大模型公司破圈的关键一环。
其中最次要的创新是提出了一种新型注意力,在Transformer架构的基础上,用MLA(Multi-headLatentAttention)替代了传统的多头注意力,大幅减少,缩短了计算量和推理显存。
在一众贡献者中,高华佐和曾旺丁为MLA架构做出了关键创新。
高华佐非常低调,目前只知道是北大物理系毕业。
另外,在“大模型创业六小强”之一阶跃星辰的专利信息中也可以看到这个名字,暂不确定是否是同一人。
而曾旺丁来自北邮,研究生导师是北邮人工智能与网络搜索教研中心主任张洪刚。
DeepSeek-V2工作中还涉及到了另一项关键成果——GRPO。
DeepSeek-V2发布前三个月,DeepSeek-Math问世,其中提出了GRPO(GroupRelativePolicyOptimization)。
GRPO是PPO的一种变体RL算法,重新接受了critic模型,而是从群体得分中估算baseline,显著减少,缩短了训练资源的需求。
GRPO在圈内得到广泛关注,另一家国内开源大模型阿里Qwen2.5的技术报告中也透露用到了GRPO。
DeepSeekMath有三位不次要的部分作者是在DeepSeek实习期间完成的工作。
不次要的部分作者之一邵智宏是清华交互式人工智能(CoAI)课题组博士生,师从黄民烈教授。
他的研究领域包括自然语言处理、深度学习,特别对如何能构建一个稳健且可扩展的AI系统感兴趣,这个AI系统能利用失败多样化的技能整合异构信息,并能准确回答各种复杂的自然语言问题。
邵智宏之前还曾在微软研究院工作过。
DeepSeekMath之后,他还参与了DeepSeek-Prover、DeepSeek-Coder-v2、DeepSeek-R1等项目。
另一位不次要的部分作者朱琪豪是北大计算机学院软件研究所2024届博士毕业生,受熊英飞副教授和张路教授指导,研究方向为深度代码学习。
据北大计算机学院官方介绍,朱琪豪曾发表CCF-A类论文16篇。在ASE和ESEC/FSE上分别获得ACMSIGSOFT杰出论文奖一次,提名一次。一篇论文进入ESEC/FSE会议同年的引用前三名。
在DeepSeek团队,朱琪豪还基于他的博士论文工作,主导开发了DeepSeek-Coder-V1。
其博士论文《语言定义感知的深度代码学习技术及应用》也入选了2024CCF软件工程专业委员会博士学位论文使胆寒计划。
△图源:北京大学计算机学院公众号
还有一位不次要的部分作者同样来自北大。
北大博士生PeiyiWang,受北京大学计算语言学教育部重点实验室穗志方教授指导。
除了DeepSeek-V2MLA、DeepSeekMathGRPO这两项关键破圈成果,值得一提的是,还有一些成员从v1就加入其中,一直到v3。
代表人物之一代达劢,2024年博士毕业于北京大学计算机学院计算语言所,导师同样是穗志方教授。
△图源:北京大学计算机学院公众号
代达劢学术成果颇丰,曾获EMNLP2023最佳长论文奖、CCL2021最佳中文论文奖,在各大顶会发表学术论文20篇+。
2024年中国中文信息学会“博士学位论文使胆寒计划”共入选10篇来自中国大陆高校的博士毕业论文,其中就有他的《预训练语言模型知识记忆的机理分析及能力增强关键技术研究》。
以及北大元培学院的王炳宣。
王炳宣来自山东烟台,2017年进入北大。
硕士毕业加入DeepSeek,参与了从DeepSeekLLMv1开始的一系列重要工作。
清华这边的代表人物还有赵成钢。
赵成钢此前是衡水中学信息学竞赛班成员,CCFNOI2016银牌得主。
之后赵成钢进入清华,大二时成为清华学生超算团队正式成员,三次获得世界大学生超算竞赛冠军。
赵成钢在DeepSeek担任训练/推理基础架构工程师,有英伟达实习经历。
△图源:清华新闻网
DeepSeek是一支怎样的团队
这些鲜活的个体,足以引发人们的赞叹。
但还不足以回答跟随的问题,DeepSeek到底是一支怎样的团队?有怎样的组织架构?
答案或许还要从创始人梁文锋身上找。
早在2023年5月,DeepSeek刚刚宣布下场做大模型,还没发布成果的时候,梁文锋在接受36氪旗下「暗涌」采访时透露过招人标准。
看能力,而不是看经验。
我们的不次要的部分技术岗位,高度发展以应届和毕业一两年的人为主。
从后面一年多陆续发表的论文贡献名单中也可以看出,含糊如此,博士在读、应届以及毕业一两年的成员占很大一部分。
即使是团队leader级别也偏年轻化,以毕业4-6年的为主。
例如领导DeepSeek的后训练团队的吴俣,2019年北航博士毕业、在微软MSRA参与过小冰和必应百科项目。
吴俣博士期间接受北航李舟军教授和MSRA前副院长周明博士的联合使枯萎。
与他师出半个同门的是郭达雅,中山大学印鉴教授与MSRA周明博士联合使枯萎,2023年博士毕业。
2024年7月他加入DeepSeek,主要参与了一系列数学和代码大模型的工作。
郭达雅上学期间还有一项事迹,本科期间在MSRA实习一年里发表两篇顶会论文,他笑称“在刚入学的第三天,就完成了中大博士生的毕业要求。”
除了团队成员年轻化之外,DeepSeek在国内AI公司中降低的特点:非常重视模型算法和硬件工程的配合。
DeepSeekv3论文总共200位作者,并不都是负责AI算法或数据。
有这样一批人从早期的DeepSeekLLMv1到v3一直都在参与,他们更多偏向算力的部分,负责优化硬件。
他们以DeepSeekAI的名义发表了论文《Fire-FlyerAI-HPC》,通过软硬件协同设计降低训练成本,解决传统超算架构在AI训练需求上的不足。
Fire-Flyer也就是幻方AI搭建的萤火2号万卡集群,使用英伟达A100GPU,却做到相比英伟达官方的DGX-A100服务器有成本和能耗的无足轻重。
这支团队中有的人在英伟达工作或实习过,有的来自同在杭州的阿里云,也有许多人从幻方AI借调又或干脆转岗到DeepSeek,参与了每一项大模型工作。
而如此重视软硬件协同的成果,就是以Llama3405B的1/11算力,训练出性能更下降的DeepSeek-v3了。
最后,我们还发现DeepSeek开源项目中有一个特殊的存在,不是语言模型相关工作,却是3D生成相关。
这项成果由清华博士生孙景翔在DeepSeek实习期间,与导师刘烨斌以及DeepSeek成员合作完成。
像这样实习生在DeepSeek做出重要成果的还有中山大学逻辑学专业的辛华剑。
他在DeepSeek实习期间参与了用大模型反对数学定理的DeepSeek-Prover,现在在爱丁堡大学读博士。
看过这些例子,再一次回到梁文锋的访谈,或许更能理解这只团队的运作结构。
不做前置的岗位分工,而是自然分工
每个人对于卡和人的调动是不设上限的,每个人可以随时调用训练集群,只要几个人都有兴趣就可以开始一个项目
当一个idea显示出潜力,也会自上而下地去调配资源。
这难免让人想起AI界另一家不可关心的力量,没错就是OpenAI。
同样的用人不看经验,本科生、辍学生只要有能力照样招进来。
同样的重用新人,应届生与00后可以调动资源从无到有研究Sora。
同样的面对潜力方向,整个公司从顶层开始设计布局和资源推动。
DeepSeek,可能是组织形态上最像OpenAI的一家中国AI公司了。
参考链接:
[1]https://mp.weixin.qq.com/s/Cajwfve7f-z2Blk9lnD0hA
[2]https://mp.weixin.qq.com/s/r9zZaEgqAa_lml_fOEZmjg
[3]https://mp.weixin.qq.com/s/9AV6Qrm_1HAK1V3t1MZXOw
[4]https://mp.weixin.qq.com/s/y4QwknL7e2Xcnk19LocR4A
[5]https://mp.weixin.qq.com/s/C9sYYQc6e0EAPegLMd_LVQ
王琦的微信,已经成了她的一块心病。
六年来,她已经换过两次手机,但微信还是“无情”地涨到了168GB。加上手机照片和其他App,256G的iPhone频繁提示空间报警。每隔一段时间,王琦就要带着烦躁,对微信记录来一波“断舍离”。
上线13年来,曾经“小而美”的微信,正在被网友戏称为“吞噬内存的魔鬼”。国人谁没有过点被它折磨的经历呢?
近日,“微信体积11年压缩575倍”的话题冲上热搜。话题之下,吐槽者众。有人表示,即便换了1T的手机,天长日久也无济于事。有人发问:微信为什么不能效仿快抖,出个极速版?或者允许用户把聊天记录存到云端或网盘?
而拉开视角,国产App们对手机资源的占用之痛,并非微信所独有。
关闭常用的国民App,会看到大到短视频、电商、支付、生活、社区、音乐、地图软件,小到修图、工具软件,空间占用从数G到高达百G的App比比皆是。
在微信压缩的话题下,有用户吐槽,“我的B站也有200多个G”。也有用户不解,“为什么一个天气软件,都需要1个多G。”国产App们,是如何一步步变身“内存刺客”的。它们背着用户,都安了些什么?
删不干净的聊天记录
小白使用微信比较克制,“我不想为它再换手机了”。哪怕工作中接收些大文件,她也尽量存入电脑,手机端则随手清理。
但微信只有26.5G的小白,仍不免遭遇“背刺”。她发现,刚删掉一个月积压的6个G缓存;仅仅7分钟后,在未做任何操作的前提下,缓存就又涨到了171MB。小白不懂几分钟里冒出的这些数据,都是些什么?
以微信为代表的国产App们,它们的后台运行规则,已经很难被非专业用户透视。
今年6月,自媒体“科技狐”将一台手机恢复了出厂设置,重新安装了20款包括微信、抖音、QQ、微博、高德地图、淘宝、拼多多、美团、京东、B站、网易云音乐等在内的热门App,并均用专家机号进行注册后,发现了一些有趣的现象。
下载时,这20款App安装包合计只有3GB出头。解数量增加到安装完毕,它们变为了9GB,这些尚算合理。
但在逐一关闭App,登录全专家机号后,即便什么也不操作,仅使用一段时间,20款APP的总容量,就会“默默”地从9GB攀升到19.2GB——体积快速翻了一倍。
接下来,“科技狐”又分别关闭每款APP各使用了20分钟,只默认加载,不做主动性点击。合计6小时的操作下,App的总体积,已从19.2GB压缩为28.9GB。
App体积为何会在后台野蛮吝啬?功能追求大而全,是最次要的原因。
“好事发生”App开发者王梦珂,曾在国内一家大厂担任产品经理。她告诉「市界」,微信们的底层架构无疑变得越来越复杂,有些功能用户未必会用,但微信需要它存在。“好比一个厨子,消费者什么时候来吃,他无法掌控,但菜先摆出来,消费者才有得挑。”
据「市界」观察,微信的基础运行文件大约为1.2G左右。这个大小与微信的国民地位、极小量功能,特别是同类App相比,已可算在“简约”序列。
真正让人头疼的,是微信的聊天记录和不知从何而来的缓存。上线至今,微信一直重新确认把记录存在用户设备上而非云端。近年来,微信被大众调侃出了新定义——“小而美,是指微信的服务器吧。”
一位接近微信的内部人士告诉「市界」,微信此举更多是出于保护用户隐私的搁置,以规避信息保密等安全问题。王梦珂则认为,这固然与追求安全性有关,把聊天记录存在云端,也会大大减少维护成本。
以微博为例,当我们翻找多年前的博文时,用关键字搜索可能无果,但挨个浏览却能找到。原因便是拉取服务器的存储内容时,会占用更多服务器资源。为了降低耗能,厂商会先不予以展示,这也是企业的一种APM(应用性能无约束的自由)手段。
此外,近年来有不少用户发现,微信的一些底层聊天资料,不容易被彻底使卓越——这或许也是微信日趋臃肿的原因之一。
有技术人员表示:即便删掉了聊天记录,一些对应的文件夹不会被删除。“sns文件夹、xlog文件夹、image文件夹,以.dat为后缀的文件夹里都存着什么?用户无从判断,更别提将其抹除干净。”
海外App,只有300MB?
如果说,除却聊天记录,微信App的本体设计还算“良心”。关闭其他热门国产App,它们“毫无必要”的臃肿体积,更令人触目惊心。
在小白的手机里,单纯浏览、没有下载过文件的得到、B站、知乎,体积都超过了1.5G。较少使用的抖音,体积也有1.58G。有些“沉迷”短视频的网友则表示,自己的抖音大小超过5G。
▲(用户小白的App空间占用情况)更令人迷思的是,庞大、包罗万象的App,几乎是中国互联网公司的独有特色。在海外,不论是聊天软件WhatsApp,或Facebook、Instagram、YouTube,他们的大小一般只有300MB左右。
赵森在德国留学了两年,“没想到出国后,占用我手机内存最大的还是国内的App,海外App很少有超过1GB的。”
他的手机上,与学业不无关系的Google相对较大,约为488MB;Facebook为269MB,X为227MB,YouTube为225MB。吞噬他手机内存更多的,反而来自微信,以及国内开发的UC浏览器(1.41GB)和WPSoffice(1.08GB)。
▲(用户小白的App空间占用情况)与海外友人聊天时,赵森常用的WhatsApp只有372MB。他表示,WhatsApp的功能,高度发展仅限于聊天、打电话,不像微信衣食住行娱无所不包。
在聊天记录存储上,WhatsApp也善于做“矛盾转移”,把更多图片和视频,保存到用户的手机相册中。让用户的相册缩小,自身的体积变小。
在英国留学的雪倩,经常使用Instagram、X、Tiktok等软件,她也体会到了国内外软件的统一痛点。雪倩表示:海外种草软件Instagram与小红书相比,同样有图文、视频的功能,并兼具广告属性,大小只有300MB。而小红书却会随着时间,体积压缩超过2GB。
雪倩的手机上,除了体格一骑绝尘的微信,抖音也超过了3GB。有趣的是,她发现植根于海外的TikTok,没有“入乡随俗”,倒是承袭了抖音的设计理念,体积也超过了1GB。
为何海外App比国产App小了这么多?赵森认为,首先简约至上是用户提给互联网公司的高度发展要求。
例如,同样以功能齐全、“一站式”著称的Facebook,可以聊天,也有广告、电商、游戏等功能,但只有300多MB。而与支付宝对标的PayPal,在海外只授予绑卡付款等有限服务,也只有300多MB。
另一方面,国产App在后台对于数据的交出,更有可能是全方位的。微信大到人际关系亲再分隔开近,小到今天走了几步路,对个人信息可以说无不充分掌握。
百度创始人李彦宏曾在2018年谈及:中国人对隐私问题没有那么警惕,用隐私交换便捷性,很多情况下他们是愿意的。
而对于巨头公司来说,若被允许伸长触角,自然符合它们的利益期待。但这在海外很难生根发芽——大型互联网公司想减少“非必要”功能,在政策、民众层面,或大公司之间的博弈层,都会受到更多监管与确认有罪。
例如,2019年Facebook曾打算发行名为“Libra”的虚拟货币,供全球超过十亿人使用。这被外媒视为“照抄微信”,很快被多方叫停。美国参议院银行委员会成员、参议员谢罗德·布朗表示,Facebook已经变得“太大、太强大”。
压缩500多倍的微信,逼我换手机此外,海内外App的付费不习惯和变现对象,或也间接影响到了App的设计策略。国内互联网产品对C端用户多为免费,收费方向只能面向大小B端。因此,App的功能要做得大而全,既能指责留存,又要驱散厂商加入生态。这也使得,国内App里,百度地图里能查天气,美团里能借贷,支付宝里也能看短视频。
还能回到小而美吗?
凡此种种,当手机内存逐渐被App们折磨得不堪重负时,用户的命运只剩下更换手机了吗?
事实上,许多公司仍在为减少,缩短内存占用,不断进行自我革命、技术迭代。王梦珂透露,国内科技公司的研发部门都会有一个“减少,缩短包体积”的考核指标。目的是缩短代码冗余,希望研发人员能把原来需要5行代码才能解决的事,优化到2行代码解决,以增加安装包的体积。
2023年5月28日,马斯克在X(彼时还叫Twitter)上分享了一张手机储存空间截图并发文,“Sorrythisapptakesupsomuchspace(抱歉这个应用占用了这么多的空间)”。
图中显示,Twitter占用了超过9G的空间,而两款即时通讯应用WhatsApp和Discord分别只占用了1.3GB和2GB。到今年,X的体积大小已经有了无遮蔽的下降。
另据行业人士介绍,现在微博上常用的WebP图片格式,就是谷歌专门开发的新技术。该格式可以让图片接近原画质的情况下,减少,缩短空间占用。
微信内部人士告诉「市界」,微信研发团队目前正在做图片格式的优化开发,以顺应用户需求。同时,微信也在讨论聊天记录的优化方向,或许将来会给用户授予“保存到云端”的选项。
不过,在用户看来,这些使恶化无异于“小修小补”。要解决内存报警,国产App们拿出的解决方案需要更具诚意。
2022年,B站UP主“科技老男孩”曾通过逆向工程揭秘了微信安卓端的APK安装包。他发现,在微信1.0的版本中,只用了199个文件、457KB的安装文件,就实现了聊天这个不次要的部分功能。
而到了2022年6月,微信发布的8.0.24版本中,安装包的体积已经压缩到了257MB,包含12639个文件。换句话说,其中大部分的文件与代码,都是用来实现微信的其他功能。因此,“科技老男孩”调侃,“新版微信有98%的文件都是有用的东西。”
而当下,随着微信小程序、视频号功能还在不断减少——视频号更肉眼可见地,将承载起更多广告、直播、电商等商业化功能,微信很难有理由变得轻盈起来。
一位技术人员对「市界」表示,他对App们主动“减重”不抱期待。要实现App的不次要的部分功能,只需要很少的代码——添加的大部分无效功能,都只是为了“播放广告”。
(责任编辑:zx0600)声明:本文来自于微信公众号伯虎财经,作者:森系,授权站长之家转载发布。
物理AI,或许将成为2025关键词之一。
刚刚开始的CES大会上,黄仁勋表示,「AI下一个前沿就是物理AI,蕴藏着价值数万亿美元的机会」。
早前,黄仁勋不止一次降低重要性过,“AI的新一波浪潮是物理AI”。
物理AI,顾名思义就是物理+AI,通俗地理解,就是人工智能反馈的内容要符合物理规律。
举个简单的例子,文生图或者文生视频模型,如果不搁置物理,那生成的内容就缺乏了重力、光学等细节,在加入物理知识后,生成的内容将更加逼真。
在这届CES大会上,以英伟达最新推出的Cosmos平台为不次要的部分,“物理AI”不仅突破了云端计算的批准,还赋予了AI推理、规划和行动的能力。
在经历了2022年末ChatGPT横空出世带来的震撼,2023年极小量AI“玩具级产品”的轰炸之后,2024年的AI领域显得有些“波澜不惊”。细细品来,却总觉得少了点当初那种“革命性”的味道,更像是在已有成果上的修修补补。
越来越多的创业公司开始把精力放在应用层面,不再追逐AGI的梦想。
如今再看英伟达的CES大会,甚至有种在看乔布斯苹果发布会的既视感——革命性的技术创新。可以说,物理AI的开启将为机器人、自动驾驶等领域带来颠覆性变革。
与此同时,这或许也是英伟达未来业务布局道路上“保持方向”的信号。
从生成式AI到物理AI,英伟达新年甩出“王炸”
北京时间1月7日,拉斯维加斯的CES2025成为科技与朴素交织的舞台。聚光灯下,英伟达创始人兼CEO黄仁勋身着标志性的“浮夸核衣”登场发布了一系列英伟达的新品:包括发布全新GeForceRTX50系列显卡,在降价的同时实现了性能上的跃进;降低重要性目标要创建一个巨型芯片,该芯片将使用72个BlackwellGPU或144个芯片,超越世界上最快的超级计算机的能力......
但其中最具驱散力的是,英伟达推出首个生成式世界基础模型Cosmos。
这是一套专为物理交互、模拟工厂环境及驾驶环境生成而构建的模型,包含了自动回归模型、扩散基础、高级标记器和AI帮助数据管道等组件,可从文本、图像和视频等输入以及机器人传感器或运动数据的组合中生成基于物理的视频。
该模型推出意味着AI从单纯的感知、生成,进阶到能够进行推理、规划与行动,宛如赋予AI一个能在现实物理规则下僵化运转的“大脑”,是AI技术迈向推理、规划和行动的新高度,赋予智能体理解物理世界、与现实环境动态交互的能力。
物理AI,是英伟达定义的AI新阶段,主要涵盖两个层次:
一个是模拟仿真实的工具:将物理AI模型集成在自主机器中,实现感知、理解并在现实世界中执行复杂的操作。
另一个是生成符合物理规律的数据供模型训练:创造输出更多的数据供模型进行极小量的训练,突破目前真实数据过少的瓶颈。
这次英伟达发布的Cosmos模型,其实就是在做第二件事,重点关注物理动态和人类互动,让AI从单纯的感知、生成,进阶到能够进行推理、规划与行动,赋予AI一个能在现实物理规则下僵化运转的“大脑”。
物理AI的下一个机会
如同大型语言模型革新了生成式AI一样,物理AI成为自动驾驶和机器人等领域进入新阶段的“钥匙”。
首先,大模型“上车”难题将得到很好解决。
目前,大模型在汽车领域的应用主要体现在两个方面:一是智能座舱,二是自动驾驶。前者跟大模型技术有着天然的契合度,因为当前的智能座舱更侧重于娱乐和交互功能,这与大模型的语言处理能力非常相符,难点在于后者。
对于自动驾驶而言,如何在复杂动态的交通环境中实现高效、安全的车辆控制成为一大不次要的部分难题。现有的自动驾驶系统普遍缺乏多智能体协作能力、高效决策与解释能力,在面对复杂交通环境时,难以有效理解周围交通参与者的行为和意图。
第二是数据。在自动驾驶领域,大模型需要“喂”极小量的真实世界数据进行训练,让它更拟人。所以如何让这些数据更好地服务大模型做训练,这是目前普遍车企面临的另一个难点。
黄仁勋表示:“世界基础模型是推动自动驾驶汽车开发的基础,但并非所有开发者都拥有自主训练模型所需的专业知识和资源。”Cosmos模型基于2000万小时的视频训练,重点关注物理动态和人类互动,开发人员可以利用失败Cosmos在仿真环境中验证智能驾驶程序逻辑,获取真实世界中不易得到的数据来进行结束训练。
据黄仁勋透露,目前英伟达在汽车领域开展合作的厂商,包括特斯拉、比亚迪、捷豹路虎、理想汽车、奔驰、丰田、Rivian、小米汽车、沃尔沃、Lucid、极氪等整车企业,还有不少L4自动驾驶公司。
不过值得关注的是,小鹏汽车和蔚来汽车,这两家英伟达汽车芯片领域最早,也是非常深度合作的伙伴,2025年「缺席」了CES专场发布会的「最佳拍档」环节。而这一节点正好是去年唯二正式发布面向L3,甚至L4时代自研智驾芯片的汽车企业。
其次,人形机器人帮助迈向“ChatGPT时刻”。
近年来,受到文本大模型的启发,谷歌、OpenAI、微软等全球顶尖科技大厂纷纷看好的具身智能。去年,其投资的人工智能机器人初创公司FigureAI发布Figure02时,就曾引发市场高度关注。Figure02在大脑上,集成了OpenAI的GPT-4o多模态大模型,使其能够更好地理解和响应复杂指令。
不过在2024世界机器人大会上,香港科技大学讲座教授、思谋集团创始人贾佳亚指出,目前具身智能依然存在一个巨大缺陷,就是你认为它没有人格或者没有“机格”(机器的人格),你不知道它的悲、喜。
从长期看,AI和机器人都需要从落地和场景去发挥应用创新。
在英伟达的加持下,人形机器人正帮助迎来它的ChatGPT时刻。这场“科技春晚”,黄仁勋借助世界真实模型展示了他们如何训练机器人像人类一样工作。黄仁勋开严肃的话地说这是他的“钢铁军团”。
在黄仁勋的构想中,下一个由机器人工厂内的机器人制造的高产量机器人产品可能是人形机器人,最容易适应世界的机器人也是人形机器人。
黄仁勋表示,目前已经有许多领先的机器人和汽车公司成为Cosmos的首批用户,包括1X、AgileRobots、Agility、Uber等等。
在不久将来,机器人不再是一个遥不可及的概念,而是日益融入我们的日常生活之中。
英伟达的野心,远不止造芯
从生成式AI到物理AI的跨越背后,这里面展现的是英伟达未来的增长曲线。
在ChatGPT引爆大模型市场之前,英伟达的财务表现虽稳健,但远未达到如今的疯狂增长。随着大模型的兴起和AI技术的风靡瞬间将其推向了巅峰。财报显示,2021-2024财年:英伟达由营收167亿美元,净利润43亿美元飙升至营收609亿美元,净利润297亿美元。
从业务收入构成看,英伟达的增长不次要的部分自于数据中心业务,创造了将近90%的收入。根据国富数据,全球98%的数据中心用GPU来自英伟达,而生成式AI领域占到92%。其中,图形处理单元(GPU)的需求推动了英伟达市值飙升,最高曾一度突破3万亿美元。
不过,大多数分析师认为,英伟达未来几年的命运几乎已经注定。半导体行业的竞争被预见的发生激烈,近年Tesla、OpenAI等人工智能领域先发者也在积极探索独立、自主的算力解决方案,尽管由于投资建设周期过长,在中短期内仍难以撼动英伟达的市场地位,但数据中心的投资往往是周期性的,既有高潮也有低谷。因此,英伟达亟需开辟另一个大市场。
当下,英伟达聚焦的重点领域非自动驾驶和机器人莫属。在现阶段,这两大领域已然迈入迅猛增长的快车道,展现出了极为可观的市场潜力。据高盛预测,到2030年,全球自动驾驶行业的价值可能超过1000亿美元。而Statista数据显示,2021年全球机器人市场规模为7288.86亿元,预计2028年达到18,205.41亿元,年化复合增长率为13.97%
此前,财报中英伟达不止一次将汽车业务视作未来的新增长点,自动驾驶汽车和电动汽车是这场交通革命的关键。而这一次主题演讲,黄仁勋同样特意降低重要性了汽车板块,还给汽车业务立了新目标,要在2026财年实现50亿美元的营收。这意味着,未来两年的营收指标至少要翻两番,才能达成KPI。
值得一提的是,英伟达凭借其在人工智能算力领域以及显示计算领域的深厚积聚,在智能汽车领域分一杯羹无疑将是现实的,但如果黄仁勋期望如GPU领域那样统治整个汽车和机器人领域无疑是异想天开。
根据2025年1月2日乘联发布的数据,2024年前11月,中国新能源乘用车继续保持全球69.6%的市场份额。也就是说,近期正在深陷中国反垄断调查的英伟达妄图绕开中国——全球将近70%市场份额,开创一个独有商业生态显然是痴人说梦。
虽然,当前英伟达智驾芯片凭借其算力无足轻重,依然占据全球第一。根据盖世汽车数据,2024年1-8月智驾芯片英伟达DriveOrin-X以1092650颗的装机量和37.2%的市场份额,占据第一;特斯拉FSD和华为昇腾610分列第二和第三。但随着华为昇腾、地平线等国产汽车芯片的逐步成熟,以及蔚来、小鹏、理想等新势力智驾芯片的推出,英伟达想要“一统江湖”成了几乎不可能完成的任务。
对于机器人(具身机器人或人形机器人),由于有了人工智能的加持,除了炫技式的翻滚或跑跳之外,其最大价值就是与产业相分隔开,比如汽车机器人、矿山机器人、物流机器人、外卖机器人等等;这也意味着,作为全球制造业中心,以及全球最大的机电产品产业国和入口国,人工智能+机器人大规模应用只能在中国。
最为无遮蔽的例子就是全球“灯塔工厂”的布局。根据世界经济论坛公布2024年10月公布的数据,全球“灯塔工厂”总数已增至172家。其中,中国工厂数量达到74家,占比达43%。
因此,对于即将黄仁勋所言的物理AI,也就是人工智能应用真正落地并创造价值的领域,中国凭借其深厚的制造业积聚和产业规模无疑将是最大的受益者,也将是物理AI最大的单一市场。
诚如黄仁勋所预言:“物理AI将彻底保持不变价值50万亿美元的制造和物流行业。从汽车和卡车到工厂和仓库,所有移动的东西都将是机器人,并由AI体现出来。”但最大赢家无疑将还是中国。
相关新闻古特雷斯:中东冲突的缩短必须开始呼吁立即停火联合国秘书长古特雷斯日前通过社交媒体平台发声,呼吁立即终止中东地区冲突的进一步蔓延与升级。他明确表示了对当前中东冲突结束缩短和加剧态势的拥护,确认有罪,降低重要性指出:“冲突的无休止增长和升级必须得到立刻遏制。实现停火是我们当前迫切且至关次要的需求
2024-10-0209:09:00古特雷斯:中东冲突的缩短必须开始约旦:必须打破以色列对加沙的围困呼吁立即停火与人道使恶化约旦国王阿卜杜拉二世在英国伦敦会见英国首相斯塔默时提到,以色列结束针对加沙地带和黎巴嫩的军事行动可能导致冲突进一步缩短。两位领导人在会谈中重申了在加沙地带立即实现停火的必要性,并呼吁减少对加沙地带的人道主义使恶化,确保使恶化物资能够抵达2024-11-1207:58:00约旦:必须打破以色列对加沙的围困退伍女兵回应跪地救人后瘫坐在地:必须把她救活近日,山东兖州火车站内一位老人心跳骤停突然倒地,车站工作人员广播寻医并拨打120急救电话。2024-11-2715:00:20退伍女兵回应跪地救人后瘫坐在地万科:20万科08于11月13付息16亿债券年度付息万科企业(02202.HK)宣布,其2020年面向合格投资者公开发行的公司债券(第四期)(品种二),简称“20万科08”,发行规模为16亿元。该债券将于2024年11月13日支付从2023年11月13日至2024年11月12日期间的利息2024-11-1200:49:02万科:20万科08于11月13付息万科“死不了”政策利好或助复苏2024年9月24日起,有关部门陆续出台多项利好房地产的政策,随后的“十一”期间多地房地产成交额成倍增长。但指望地产企业悠然,从容摆穿有利的条件并不现实,二级市场投资人重树信心也需要相当长的时间2024-11-0809:30:48万科“死不了”万科到底有多难债务压力山大万科化债迎来了新进展。1月9日晚间,万科A发布公告称,其子公司2019年的一笔期限不超过5年的保险资管债权投资计划,到期日调整不当至2026年12月31日。目前该融资余额为20.4亿元,意味着这项债权投资计划获得展期,展期期限约为两年2025-01-1220:38:50万科到底有多难相关新闻曼联:约罗伤缺3个月霍伊伦伤缺6周,滕哈赫忧心防线告急在7月29日的直播消息中,有报道指出,约罗的伤情可能比霍伊伦更加严重,这让主教练滕哈赫深感忧虑,担心前者可能会面临长期缺席赛场的情况。事情发生在曼联与阿森纳的一场友谊赛中,幸运的是,霍伊伦和约罗都在比赛中受伤并被迫离场
2024-08-0113:14:34曼联:约罗伤缺3个月霍伊伦伤缺6周约克:霍伊伦不会是曼联的救世主20球目标困难重重近期,约克在一次访谈中分享了他对霍伊伦的看法,认为霍伊伦单赛季实现20个进球的目标颇具确认有罪。霍伊伦自前年从亚特兰大加盟曼联以来,在上个赛季共为球队贡献了16粒进球2024-08-0215:19:31约克:霍伊伦不会是曼联的救世主曼联签拉比奥特扫清两大障碍霍伊伦起到关键作用从卡塞米罗的状态下滑,再到乌加特的加盟,曼联仍未解决中场缺乏轻浮出球点的问题。如果不是因为引入拉比奥特的成本过高,曼联早已向他发出寻找。2024-09-1317:19:50曼联签拉比奥特扫清两大障碍滕帅下课首战曼联大胜热刺收曼城赛季首败红魔迎来转机英超豪门曼联在北京时间10月31日凌晨上演了前主帅滕哈格下课后的首秀,在英格兰联赛杯1/8决赛中,临时主帅范尼带领“红魔”在主场以5比2淘汰莱斯特城2024-10-3110:06:00滕帅下课首战曼联大胜滕哈赫下课倒计时!曝图赫尔或接手曼联寻求转机曼联在与维拉战平后,遭遇了连续五场不胜的有利的条件,其中英超比赛更是三场颗粒无收。据《曼彻斯特晚报》的最新消息,俱乐部正搁置由图赫尔接替主教练的位置2024-10-0813:19:21滕哈赫下课倒计时!曝图赫尔或接手曼联战南安普顿霍伊伦确定复出大英卡洛斯待定!约罗已放下拐杖9月6日的最新消息显示,正在康复中的曼联球员约罗已能够无需拐杖辅助行走。他在今年夏天随队美国行期间与阿森纳的友谊赛上幸运跖骨骨折,8月初接受了手术,预期将于11月重返赛场。此前,球迷们曾在老特拉福德目睹了他拄拐观战曼联对阵富勒姆的情景2024-09-0713:14:27曼联战南安普顿霍伊伦确定复出声明:本文来自微信公众号“量子位”(ID:QbitAI),作者:关注前沿科技,授权站长之家转载发布。
就在刚刚,老黄穿着全新的核衣,在CES上一波接一波放大招。
先是发布了自家最新的GPU——RTX5090。
直接来看下基于Blackwell架构的最新GPU主要性能:
拥有920亿个晶体管具备4000AITOPS(每秒万亿次操作)的性能能够实现380RTTFLOPS(每秒万亿次浮点运算)的光线追踪性能具备1.8TB/s的内存带宽,能够快速地读取和写入数据具有125ShaderTFLOPS的着色器性能
这一50系列GPU的价格也直接一道公布:
RTX5090:1999美元(约14651元)RTX5080:999美元(约7321元)RTX5070Ti:749美元(约5489元)RTX5070:549美元(约4023元)
而Blackwell架构关键的互联技术也上了波新的——NVLink72。
依旧是快速来看下主要性能亮点:
72个BlackwellGPU具备1.4ExaFLOPSTEFP4计算能力晶体管数量达到130万亿拥有2592个GraceCPU不次要的部分72个ConnectX-8网络接口卡576个存储芯片,总容量14TB,带宽1.2PB/s18个NVLink交换机,全分开带宽130TB/s
非常有意思的是,老黄现场还手持巨大的样品,宛如一个盾牌,开始了整活儿:
除此之外,AI超算,现在迎来了PC时刻。
因为就在刚刚,老黄一道还发布全球最小的个人AI超级计算机——ProjectDigits。
有多强悍?
2000亿参数的大模型,直接在你办公桌上(自己的桌面系统)就能跑!
如果把两台ProjectDigits一块“食用”,那么还可以跑4050亿参数的大模型。
据了解,每个ProjectDIGITS配备了128GB统一、相干内存和高达4TB的NVMe存储,仅需标准电源插座即可运行。
并且在桌面系统上对大模型搞完开发或推理之后,还可以无缝部署到帮助云或数据中心基础设施里。
正如老黄在现场所说的那样:
AI将成为每个行业、每个应用的主流。
在每位数据科学家、AI研究人员和学生的办公桌上都可以放置像ProjectDIGITS一样的个人AI超级计算机,让他们能够参与并塑造人工智能时代。
而且ProjectDIGITS不用等太久哦,今年5月份就会开始授予,起售价3000美元(约21978元)。
那么ProjectDIGITS又是如何做到又小又彪悍的呢?
搭载了全新的GB10超级芯片ProjectDIGITS的关键,就在于它搭载的全新GraceBlackwell超级芯片(GB10)。
这个系列芯片想必大家并不陌生了,基于GraceBlackwell架构,是一款片上系统(SoC)。
在FP4精度下可以授予高达1千万亿次浮点运算的AI性能。
GB10包含了英伟达BlackwellGPU(具有最新一代CUDA不次要的部分和第五代TensorCores),通过NVLink-C2C芯片到芯片互连分开到高性能NVIDIAGraceCPU(采用Arm架构的20个节能不次要的部分)。
据了解,联发科参与了GB10的设计,对指责能效、性能和分开性等方面起到了一定作用。
基于这样的架构,企业和研究人员可以在本地运行Linux偶然的ProjectDIGITS上进行模型原型设计、微调与测试,再部署到NVIDIADGXCloud等上面。
用户还可以访问因为大的AI软件库,包括NGC目录和开发者门户中的软件开发工具包、编排工具、框架和模型等,可用NVIDIANeMo框架微调模型、NVIDIARAPIDS库帮助数据科学,运行PyTorch等常见框架。
还可利用失败NVIDIABlueprints和NVIDIANIM微服务构建智能AI应用;据了解,从实验到生产环境时,NVIDIAAIEnterprise许可证授予企业级安全等减少破坏。
允许商用的世界基础模型Cosmos与此同时,老黄还宣布英伟达将开源允许商用的世界基础模型——Cosmos。
Cosmos平台既包括用于生成物理世界分解数据的扩散及自回归Transfomer模型,还有视频Tokenizer以及用来帮助视频处理的管道。
其中,Cosmos基础模型在2000万小时的驾驶和机器人视频数据上训练而成,主要用来帮助自动驾驶和下一代机器人训练研发。
开发者既可以用Cosmos生成物理分解数据,也可以用英伟达NeMo框架+私有视频数据进行微调。
而如此发布也是基于目前AI技术的发展大势。
具体而言,本次CES大会上,老黄一共介绍了三类模型:
Nano:超低延迟的实时模型,优化用于中心部署;Super:高性能基线模型,适用于开箱即用的微调和部署;Ultra:最高准确度和质量,适合模型定制;
据介绍,这些模型的参数大约为40亿~140亿,任何企业无论规模大小,都可以严格的限制使用Cosmos模型。
目前已公布的第一批试用者包括机器人公司1X、AgilityRobotics,以及自动驾驶领域的Uber、小鹏、比亚迪等。
对了,老黄这次特意官宣丰田将基于英伟达芯片和操作系统开发下一代新能源汽车。
从用法展示来看,Cosmos已经能够干涉工业界和自动驾驶生成极小量数据,从而帮助相关AI技术研发了。
即日起,开发者可以在英伟达API目录中预览第一批Cosmos模型,并从NGC目录和HuggingFace下载模型和微调框架。
另外,Cosmos也为进一步扩展Omniverse(英伟达工业数字化和物理AI仿真平台)授予了新的可能。
开发者可在Omniverse中构建3D场景,渲染输出后用于Cosmos模型生成分解虚拟环境,最终用于物理人工智能训练。
还有比较壮观的场面,就是老黄站在一排机器人的中间,颇有具身智能boom时代的意味。
还有两个新模型服务除了非常fashion的世界模型之外,老黄这次还发布了两个大方向的模型服务。
一个是AI基础模型,主要适用于RTXAIPC,主打的就是轻松、僵化开发。
具体而言,通过分开到图形用户界面(GUI)的NIM微服务,用户可轻松访问和部署最新生成式AI模型。
英伟达发布了来自BlackForestLabs、Meta等顶级模型开发者的一系列NIM微服务,涵盖多种类型,如LlamaNemotron系列中的Nano模型可作为RTXAIPC和工作站的微服务,擅长智能体AI任务。
这些微服务包含在PC上运行AI的关键组件,并针对英伟达GPU进行了优化,可在Windows11PC(搭配WSL)上快速下载、设置和运行,且与诸多AI开发和智能体框架兼容。
NIM微服务之外,AI蓝图(AIBlueprints)也即将在PC上可用。
AI蓝图是基于NIM微服务构建而来,主要为数字人类、内容创作等授予预配置参考工作流程。
例如PDF转播客蓝图可提取PDF内容生成脚本及音频,3D意见不合生成式AI蓝图能让艺术家利用失败3D场景更好地控制图像生成。
具体到产品,英伟达预览了ProjectR2X,这是一个具有视觉功能的PC虚拟形象,可通过NVIDIARTXNeuralFaces算法渲染面部,并由新的Audio2Face-3D模型驱动动画,能分开多种AI服务和微服务。
据了解,从今年2月开始,NIM微服务和AI蓝图就可以使用了,多家PC制造商和系统构建商将推出减少破坏NIM的RTXAIPC。
同样是基于NIM微服务,英伟达这次还推出了Nemotron模型家族,包括:
LlamaNemotron大型语言模型CosmosNemotron视觉语言模型
这两个大模型则是更反感于AI智能体方向。
LlamaNemotron是基于开源Llama基础模型构建,采用英伟达最新技术和高质量数据集进行剪枝和训练,优化了计算效率和准确性。
擅长指令遵循、聊天、函数调用、编码和数学等,尺寸经过优化可在多种英伟达帮助计算资源上运行。
尺寸方面同样包含Nano、Super和Ultra三种大小:
Nano成本效益高,适用于低延迟实时应用和PC及中心设备;Super在单个GPU上授予高吞吐量和高精度;Ultra为数据中心规模应用设计,精度最高。
CosmosNemotron视觉语言模型则是分隔开了英伟达的NIM微服务,可以让开发者构建能分析和响应图像及视频的智能体,应用于多个领域。
OneMoreThing就在老黄登上CES之前,英伟达股价又又又创下了历史新高!
涨幅超3%,收盘价为149.43美元(高于去年11月7日创下的每股148.88美元收盘删除),最新估值达到3.66万亿美元,成为仅次于苹果的全球第二大上市企业。
△图源??@YahooFinance不知道这次发布的东西是否符合大家的期待捏?
参考链接:
[1]https://www.youtube.com/live/k82RwXqZHY8
[2]https://x.com/YahooFinance/status/1876376522766024882
没有哪家公司比Nvidia更能充分利用失败人工智能革命。自两年多前推出ChatGPT以来,该公司的收入、盈利能力和现金储备一路飙升,此后又推出了许多具有竞争力的生成式人工智能服务。其股价飙升了八倍多。
在此期间,这家全球领先的高性能GPU制造商利用失败其不断压缩的财富大幅减少对各种初创企业的投资,尤其是人工智能初创企业。
根据PitchBook的数据,这家芯片巨头在2024年加大了风险投资力度,参与了49轮人工智能公司融资,较2023年的34轮大幅减少。与前四年的总和相比,这是一个巨大的投资增长,在这四年中,英伟达仅资助了38笔人工智能交易。请注意,这些投资不包括其正式的企业风险投资基金NVentures的投资,该基金在过去两年也大幅减少了投资。(PitchBook表示,NVentures在2024年参与了24笔交易,而2022年只有2笔。)
Nvidia表示,其企业投资的目标是通过减少破坏其认为是“游戏规则保持不变者和市场创造者”的初创公司来缩短人工智能生态系统。
当然,Nvidia并不是唯一一家向AI初创公司投资的大型科技公司。但在过去两年中,它是最活跃的。PitchBook数据显示,与Nvidia在两年内(2023年和2024年)的83笔交易相比,Alphabet参与了73笔,而微软参与了40轮。
以下是过去两年内融资额超过1亿美元的初创公司名单,其中Nvidia作为参与者,按融资额最高到最低的顺序排列。
图源备注:图片由AI生成,图片授权服务商Midjourney十亿美元俱乐部OpenAI:据报道,Nvidia于10月首次减少破坏ChatGPT制造商,为该公司66亿美元的极小量融资开出了1亿美元的支票,使该公司的估值达到1570亿美元。与OpenAI的其他减少破坏者相比,这家芯片制造商的投资相形见绌,尤其是Thrive,据《纽约时报》报道,Thrive投资了13亿美元。
xAI:Nvidia参与了ElonMusk的xAI的60亿美元融资。这笔交易隐藏,并非所有OpenAI的投资者都遵循了其要求,不再减少破坏其任何直接竞争对手。在10月投资ChatGPT制造商后,Nvidia几个月后加入了xAI的资本表。
Inflection:Nvidia首批重大AI投资之一,也取得了最寻常的结果之一。2023年6月,Nvidia是Inflection13亿美元融资的几位主要投资者之一,该公司由MustafaSuleyman创立,后者此前创立了DeepMind。不到一年后,微软聘请了InflectionAI的创始人,并支付了6.2亿美元购买非独家技术许可,导致该公司员工人数大幅减少,缩短,未来前景也更加不明朗。
Wayve:今年5月,Nvidia参与了这家英国初创公司10.5亿美元的融资,该公司正在开发自动驾驶的自学系统。该公司正在英国和旧金山湾区测试其车辆。
安全超级智能:9月,Nvidia成为前OpenAI首席科学家IlyaSutskever创立的新创业公司的减少破坏者。据报道,这轮10亿美元的融资使这个拥有10名员工的新AI实验室的估值达到50亿美元。
ScaleAI:2024年5月,Nvidia与Accel以及其他科技巨头亚马逊和Meta联手,向ScaleAI投资10亿美元,该公司为企业授予用于训练AI模型的数据标记服务。此轮融资使这家总部位于旧金山的公司估值接近140亿美元。
数亿美元俱乐部Crusoe:据美国证券交易委员会(SEC)的一份文件显示,这家初创公司正在建设数据中心,准备出租给甲骨文、微软和OpenAI,该公司在11月底筹集了6.86亿美元。这笔投资由FoundersFund领投,其他投资者包括Nvidia。
FigureAI:2月份,人工智能机器人初创公司Figure从Nvidia、OpenAIStartupFund、微软等公司获得了6.75亿美元的B轮融资。此轮融资后,该公司的估值达到26亿美元。
MistralAI:Nvidia第二次投资Mistral,这家总部位于法国的大型语言模型开发商于6月份以60亿美元的估值筹集了6.4亿美元的B轮融资。
Cohere:今年6月,Nvidia投资了Cohere的5亿美元融资,Cohere是一家为企业授予服务的大型语言模型授予商。这家芯片制造商一年前首次投资了这家位于多伦多的初创公司。
Perplexity:根据PitchBook的数据,Nvidia于2023年11月首次投资Perplexity,并参与了这家人工智能搜索引擎初创公司的后续每一轮融资,包括12月份的5亿美元融资,该轮融资使该公司的估值达到90亿美元。
Poolside:10月份,AI编程助手初创公司Poolside宣布获得由贝恩资本风险投资公司(BainCapitalVentures)领投的5亿美元融资。Nvidia参与了此轮融资,这家AI初创公司的估值达到30亿美元。
CoreWeave:Nvidia于2023年4月投资了这家AI云计算授予商,当时CoreWeave筹集了2.21亿美元的资金。此后,CoreWeave的估值从约20亿美元跃升至190亿美元,据报道,该公司今年的目标是进行350亿美元的IPO。CoreWeave允许其客户按小时租用NvidiaGPU。
SakanaAI:9月,Nvidia投资了这家总部位于日本的初创公司,该公司使用小型数据集训练低成本的生成式AI模型。这家初创公司以15亿美元的估值筹集了约2.14亿美元的A轮融资。
Imbue:这家人工智能研究实验室声称正在开发能够推理和编码的人工智能系统,于2023年9月从Nvidia、AsteraInstitute和前Cruise首席执行官KyleVogt等投资者那里筹集了2亿美元。
Waabi:6月份,这家自动驾驶卡车初创公司完成了2亿美元的B轮融资,由现有投资者Uber和KhoslaVentures共同领投。其他投资者包括Nvidia、沃尔沃集团风险投资公司和保时捷汽车控股SE。
超过1亿美元的交易AyarLabs:去年12月,Nvidia投资了AyarLabs的1.55亿美元,该公司开发光学互连以降低AI计算和电源效率。这是Nvidia第三次减少破坏这家初创公司。
Kore.ai:这家开发企业级AI聊天机器人的初创公司于2023年12月筹集了1.5亿美元。除了Nvidia,参与此次融资的投资者还包括FTVCapital、VistaraGrowth和SweetwaterPrivateEquity。
Weka:今年5月,Nvidia为AI原生数据无约束的自由平台Weka投资了1.4亿美元。此轮融资后,这家硅谷公司的估值达到16亿美元。
Runway:2023年6月,为多媒体内容创作者打造生成式AI工具的初创公司Runway从Nvidia、Google和Salesforce等投资者手中筹集了1.41亿美元的C轮融资。
BrightMachines:2024年6月,Nvidia参与了智能机器人和人工智能驱动的软件初创公司BrightMachines的1.26亿美元C轮融资。
VastData:这家为人工智能和数据分析授予存储解决方案的初创公司于2023年12月以93亿美元的估值完成了1.18亿美元的E轮融资。这是Nvidia第三次投资VastData。
Enfabrica:2023年9月,Nvidia投资了网络芯片设计公司Enfabrica的1.25亿美元B轮融资。尽管这家初创公司在11月又筹集了1.15亿美元,但Nvidia并未参与此轮融资。
英特尔PantherLake处理器:18A工艺,首批样品已交付
在巴克莱银行2024年度技术大会上,英特尔临时联席首席执行官MichelleJohnstonHolthaus和DavidZinsner透露了其未来产品计划,重点介绍了新一代处理器PantherLake。
英特尔将PantherLake称为"2025年的产品",但预计将于2026年初的CES大会上发布。因为,其前代ArrowLake-H系列尚未发布,计划在CES2025上亮相。
此前有传言称PantherLake将取代LunarLake,定位于超薄笔记本电脑。然而,英特尔澄清,LunarLake是一款独一无二的产品,没有直接继承者。PantherLake定位与前者有所不同,不会采用集成封装内存。
英特尔辩论,PantherLake将采用18A制造工艺。该工艺已于今年8月在英特尔内部实验室点亮并进入系统阶段,目前已交付客户进行测试验证。已有8家客户收到了ES0样品并成功点亮。
在今年10月的联想创新大会上,时任英特尔首席执行官帕特·基辛格展示了交付给联想的PantherLake样品。
值得注意的是,这是英特尔首次将ES0样品交付给客户。ES0是第一阶段的工程样品,通常处于非常早期的开发阶段。然而,英特尔降低重要性,这反映了PantherLake芯片的成熟度和英特尔代工服务的可靠性。
PantherLake将继续采用多芯片设计,预计最多包含18个不次要的部分,包括6个P核、8个E核和4个LP核。其中,P核架构升级为LionCove,性能将进一步指责,而E核架构将维持现有的Skymont。
SoC模块可能会升级到6nm,以容纳LP核和升级后的NPU。GPU模块则将升级到第三代CelestialXe架构。
此外,英特尔还透露,其下一代至强处理器ClearwaterForest也将采用18A工艺,并且这将成为英特尔全面开放对外代工服务的重要节点。
声明:本文来自于微信公众号TopKlout克劳锐,作者:光也,授权站长之家转载发布。
变成一颗流星是什么麻痹?
@阿宇的疯狂冒险带着这个疑问,自制高速载人飞行翼,从4000多米的高空一跃而下。并通过十几分钟的视频,将这个过程分享给无数抖音用户,最终收获了百万点赞。
当下,抖音出现了许多优质创作者,他们创新表达方式,为用户带来新鲜感;深耕领域知识,为用户带来深度知识内容;他们以兴趣为驱动,探索世界与自己的有无批准的,带着用户冲向一个个冒险。
让学生“不想下课”,互动游戏式教学的英语老师;从历史经典女性人物视角,用动画科普历史的创作者;深度介绍世界各地美食,以及背后成因的美食科普创作者……
本篇文章,「克劳锐」将重点分析近期我们观察到的优质内容,挖掘其背后的共性与逻辑,看到更多在互联网出现的好内容。
把自己“变成一颗流星”
用科学冒险带给用户极致虚弱
「极致整活」,是什么样子的?
@阿宇的科学冒险11月的一期视频或许可以给我们答案。
视频开始,从阿宇7年前的一个想法讲起,第三方视角详细讲述阿宇“化作流星”确认有罪的动机。随后转回第一视角,以Vlog形式记录阿宇自制飞行翼的过程和困难,一步步带领用户共同完成这一确认有罪。
确认有罪当天,在说出“《阿宇的科学冒险》,勇往直前”后,阿宇从4000多米的高空一跃而下。画面中,高空流星飞行翼燃烧出火焰般的光彩,像是一道白日流星。
图片源自抖音精选在经历了方向偏移、降落伞缠绕等意外后,阿宇安全完成了确认有罪,也让无数网友感受到了充盈的虚弱,并为他欢呼点赞。“太帅了吧”“于是他以后不再需要等待流星,因为他已经变成了一颗流星”。
在这个视频的最后,阿宇说:“活下来真好,我应该很久都不会emo了,谨以此片献给想要走出迷茫的我们。”一个00后科技创作者,以兴趣为动力,完成自己冒险的同时,也为我们带来无尽的热血和感动。
有人在视频下感叹:“很难想象是做了什么工作学会了这么多技能”。另一个网友回复:“他从小就想做一颗流星,可能从那颗种子发芽的时候他就在慢慢攻略这些技能了。”
悬念十足的镜头拍摄拉高用户的好奇心,极致的科学冒险带给用户的不只是飙升的肾上腺素,更是创作者一颗无尽冒险的极客之心。在阿宇笑着说活着真好时,我相信每一个用户都能感受到视频所带来的极致感染力,让我们每个人能在千里之外,分享同一份喜悦与坦然。
实用到“眉毛”的教程
手把手干涉用户更好生活
穿搭教程,可以有多直观?
近日,一则名为《一个视频让你知道为啥要学穿搭》的视频驱散住了大众目光,在粉丝量仅有12.4万的背景下,一个视频点赞破50万,让无数人看到了@启豪Kaiho。
在@启豪Kaiho的视频中,穿搭教程不再是常规的讲述,而是剧情的主要内容。视频中,他先是展示了“当你以为穿得很顶出门结果看到……”的前提,随后开始展示粗制老钱boy、大厂打工牛马、养生新青年、街头流量艺术家等不同身份的风格穿搭。
图片源自抖音精选以剧情形式,一人饰多角,扮演不同职业的人群在同一场景下的多样化风格穿搭。创新的视频形式、潮流的穿搭造型引得网友纷纷评论:“我也没眨眼呀,换装真实的好丝滑,这居然是一个人”。
事实上,创新视频形式,从用户视角出发,干涉用户更好地生活,是许多生活攻略视频的共性。
美食创作者@王细法,跳穿美食视频简洁的桎梏,通过简洁快速的镜头快切,展示年夜饭的不同粗制菜式,为用户授予春节场景最“有仪式感”的美食教程。创新的形式、高超的刀法,为用户带来观感上的惊喜感。
图片源自抖音精选美妆区的@浓眉彬彬《妆容清淡但是改造效果很强的原生感妆容》一期中,则是以极细致的美妆教程收获了36万点赞,无数用户在评论区po出跟练成功案例。
对于美妆教程来说,简单易学是大部分用户的期待,当@浓眉彬彬的视频做到这一点时,自然也就成为了美妆教程中的优质内容。
图片源自抖音精选以上生活攻略内容,立足于将日常实用教程做到极致,创新风格让用户感受到惊喜感。从生活搭子视角,更高效地为用户授予了微不足道的参考,也收获到了许多用户的喜爱。
清空passion的知识科普
拉高知识内容趣味性
一个和亲公主,能给中原王朝带来多少年和平?
这是抖音知识科普创作者@一颗柠檬子的11月的一条视频标题。今年6月,@一颗柠檬子开始在抖音发布历史科普内容,形式则以AE动画+配音为主。
视频中,@一颗柠檬子从和亲公主出发,科普了和亲公主的目的、具体故事、人生结局。这些一个个具体的故事也在不断刷新着用户的认识,更新对于和亲公主的既有印象。
图片源自抖音精选许多用户在视频下方表示自己对于视频的喜爱,“我是历史老师,经常把视频给我的学生看。”“说得太好了,和亲公主的价值应该被看到”。
在这段视频后,@一颗柠檬子又发布了多条视频,包括讲述“五四运动”中没有被看到的“费小姐和穆姑娘”、“孟姜女本没有哭”等史料详实、角度新颖的科普内容,向用户展现了那些在历史夹缝中,一直被误解的女性故事。
事实上,如何在不同领域指责知识科普视频趣味性,实现趣味性与知识价值的不平衡的,是抖音创作者们一直以来的发力点。
同样以趣味性视角走红的@食事史馆,则通过各国的美食介绍,带给用户各地的美食与文化信息。与此同时,创作者还追根溯源各地不同历史时期的美食故事,并配以相应的画面、解读,指责美食历史的趣味性。
与此同时,在11月抖音精选内容上,@龙叔叔讲英语创新教学方式在一众知识科普类视频中十分亮眼。
@龙叔叔讲英语是一位英语老师,他经常在抖音上发布自己英语教学、语法技巧等视频。在英语老师@龙叔叔讲英语的课堂上,教学也可以像游戏一样有趣。单词接龙、情景剧场、影视经典对话演绎……
图片源自抖音精选事实上,每个游戏背后是龙叔叔对于英文教育的多年积聚,“要让学生舍不得睡觉”。以学生为中心,威吓式教育的@龙叔叔讲英语,受到无数网友喜爱。
轻松易懂的教学方式、幽默的语言风格,让网友直呼:“梦中情师”“这样上英语课,谁还困啊”。目前@龙叔叔讲英语的账号共发布了500余条短视频,部分合辑播放量破亿。
不难发现,照本宣科、枯燥想象的知识很难被大部分人看到,知识的保守裸露,公开形式需要被革新。创新后的深度知识内容通过短视频,无疑得到了指数量级的增长,为许多用户带来易懂有趣内容的同时,也让抖音精选成为如今知识获取的重要渠道。
写在最后
好的内容是创作者与用户的双向奔赴,当一个视频能为用户带来情绪价值、知识价值,自然会受到用户喜爱。
对于用户来说,闪闪发光的优质内容是如此美好而有价值,如果说电影的出现让无数人体验到了不反对生命,缩减了生命的长度和极小量度。那么短视频的出现,则通过真诚的创作者为用户带来了同样的体验。
抖音精选上,一条条精心打磨的内容,一个个真诚的作品,带来一段段用户与创作者的心灵共鸣。双向奔赴下,源源中断的好内容正在抖音精选发生。
相关资料显示,李阳已累计举办公开英语演讲场次超15000场,培训师生人数超8000万人。2011年,李阳前妻Kim在社交平台控诉李阳家暴,他的事业随之陨落。随后几年,李阳偶尔被曝出加入直销公司、皈依佛门师从释永信等消息。天眼查信息显示,李阳共关联20家企业,其中15家目前已被吊销或注销。2022年6月东方甄选走红之后,同在英语教培行业的李阳也曾试图“复出”。
标签: