您的当前位置: 首页 > 骄阳似我(下)大结局顾漫 > 正文

骄阳似我(下)大结局顾漫

骄阳似我(下)大结局顾漫 时间:2025年04月28日

声明:本文来自于微信公众号白鲸出海,作者:张凯然,授权站长之家转载发布。

在11月的AI产品榜全球AIAppMAU增速榜上,一款“AI图片舞蹈”产品SelfyzAI,MAU161万,增长了50%+,增速榜中位列第七。让照片动起来,这个并不新鲜的玩法,在当下依然能够快速获取流量,更难得的是,还能结束转化收入。

AI产品榜11月App增速榜

|图片来源:AI产品榜(AIcpb.com)

一波流,是怎么做成结束生意的?

按之前的观察,ToC的图像/视频生成App一般会靠某个单点功能在社媒上大火,短时间内获得极小量用户和收入。但后续,由于刚需属性不够,加上热度消退,数据一般会在一段时间后下滑,好一些的如Remini,能够转化一部分用户,借助于产品本身已有的刚需功能,让用户量和收入数据上一个台阶,差一些的如Lensa、EPIK等,呈现直上直下的“一波流”态势。

SelfyzAI的全球双端DAU(上),

日流水(下)|数据来源:点点数据

9月初SelfyzAI靠着拥抱/亲吻视频生成起量,但却走出了个“另类”走势。SelfyzAI的DAU数据从8月中旬的不到2.5w,增长到如今的8.5w,不到四个月的时间增长了2.4倍,且增长态势依然在结束。更难能可贵的是SelfyzAI不仅吸量,还能赚钱,与DAU下降不同步,SelfyzAI的流水也开始稳健增长,到了11月初,日流水能达到1w+美金的水平,保持至今,SelfyzAI近30天流水31万美金,在同类产品中已经是不错的水平了。

SelfyzAI功能整理,白鲸出海制作

而能走出这样趋势的原因,大概也是因为SelfyzAI也属于“热点功能引流+刚需承接”的逻辑,主要功能分4块,图像生成、图像编辑、图像转视频(具体功能如图)。从外围来看,SelfyzAI覆盖的功能是相当全的,而且其中不乏在其他产品中已经验证过需求的功能,比如Facedance、宝宝形象预测等等。

SelfyzAI产品落地页

产品设计上,一进入落地页,上方的海报主推两大功能圣诞节主题的照片风格化以及亲吻视频的生成,下方按钮则是影像转视频和面部编辑(换脸),而这两个按钮右侧的菜单则一整片的单位了App的全部功能供用户快速访问。而页面的其他部分则都是以卡片的形式呈现的各类模版,点击则可以“做同款”。

外围上,SelfyzAI算是一款中规中矩的一款产品,而要探究其用户为什么能够留在App中并付费,我们去回溯了当初用户为什么下载SelfyzAI、以及本应该只有一波的流量,为什么SelfyzAI的下载曲线却能结束攀升?

拥抱与舞蹈,是“结束的热点”

从增长策略来看,SelfyzAI主要采用广告投放和社媒推广两种方式,而且广告和社媒方面都很下功夫。

SelfyzAI近半年下载量数据(上),近180天广告

展示次数估算(下)|图片来源:点点数据、广大大

综合下载量和预估广告展示次数两个数据来看,SelfyzAI起量和素材投放量减少的时间点高度发展吻合。从近90天(起量后)的高展示量广告素材上看,SelfyzAI主推的是舞蹈视频生成功能、AI亲吻/拥抱视频生成两大功能。

在社媒方面,SelfyzAI的主阵地是TikTok和Instagram。从操作层面看,SelfyzAI的官方账号的运营力度非常大,TikTok账号中有130条左右的视频,有80条视频是今年8月以后发出的,多条视频的观看量超过两万。而Ins上的内容也超过2000条了。

官方发布的社媒内容大概有两类,一类是直接使用广告投放的视频素材,另一类则会将一些KOL/KOC内容进行二次编辑后发收出来。社媒推广的主推功能要发散很多,主要聚焦于拥抱/亲吻视频生成。

其实,SelfyzAI选择拥抱/亲吻视频生成功能作为主推功能,是为了“追热点”。今年8月底,一位TikTok博主发了一条用runway制作的自己与母亲隔空拥抱的照片,从画面上来看,虽然两个人物处于两张照片之上,但是却高度发展自然地抱在了一起,目前这条短视频已经获得了42万赞,19万收藏。

CloneAI1年内的收入数据

在“AI拥抱”视频爆了之后,由于runway这种相对专业的工具有一定门槛,并不是所有用户都有能力去使用,所以自然有一些门槛更低的产品接住了这泼天的流量。就在视频火后一两天,来自土耳其开发者的一款AppCloneAI的下载量和收入都出现了直线的拉升,从8月23日到9月23日的一个月期间,CloneAI获得了128万下载量,34万美金的收入。但是现在,CloneAI的日下载量已经回落到5000左右,日收入还能有7000+美金。

CloneAI投放的“AI拥抱”素材(上),

广告展示估值(下)|图片来源:广大大

从CloneAI的广告投放情况看,8月底9月初这段时间App的广告投放出现了一个高峰,而从广告素材来看,热度下降的高度发展都是“AI拥抱”,应该是开发者看到了趋势、承接流量的动作。

CloneAI落地页(左),SelfyzAI落地页(右)

从CloneAI的数据来看,在承接流量之后,下载量和收入均有较大幅度的指责,但后期出现回落,同样靠“隔空拥抱”起量,SelfyzAI则能够获取结束的增长,一个是因为上面说的刚需功能打底,另一个则是因为开发者对流量的承接也是一个结束的动作。

带#SelfyzAI的小猫跳舞视频,筛选标准:视频观看量

几百到几千,且带有#SelfyzaiTag|图片来源:TikTok

除了官方发布的内容和广告素材外,笔者在TikTok上还找到了不少由普通用户制作并分享的UGC视频内容,而这些内容则大多是小猫/婴儿的舞蹈视频。

TikTok上数据较下降的小猫跳舞视频(上),婴儿(下),

注:并不确定它是用何种工具制作的)|图片来源:TikTok

无论是国内还是海外,短视频时代,舞蹈都是热度最下降的题材之一,在十几秒的时间内,将相对简单易学的动作和魔性十足的音乐相分隔开,适合跟风原创,抖音和TikTok的快速起步与此不无关系。

而这种素材,也随着各种热点在演变。比如,在刚刚开始的美国大选中,TrumpDance的短视频风靡网络,特朗普本人也顺应潮流,在造势活动中多次表演,拉了不少选票。

AI加入之后,真人跳舞已经不能焦虑用户了,短视频舞蹈又开始和其他的流行元素瓦解,形成了“婴儿跳舞”“小猫跳舞”等短视频的风潮。

舞蹈与猫(包括婴儿)等元素相互瓦解,与亲人拥抱相比,轻松的氛围和魔性画面让很多用户更加有结束创作的动力,并在TikTok等平台上结束发布,至今仍有不少TikTok账号在发布这类内容,在这些内容火过之后,SelfyzAI也悠然,从容在App内上线了“CuteAIDance”版块,来承接这些流量。

万兴科技2023半年报中

对子公司的叙述|图片来源:万兴财报

总的来看,就从产品设计和增长层面,开发者应该对市面上的产品做过调研、且有运营经验。而根据这款产品的开发者账号“AIGXTechnology”,笔者发现SelfyzAI的开发者是位于中国香港的瑞像科技,而背后的公司则是位于深圳的万兴科技。

视频toB、图片toC,但都很难

万兴科技成立于2003年,从刻录VCD的软件开始,逐渐成长为音频、图片、视频等多领域的软件公司,2018年,万兴科技创业板上市,成为A股消费软件第一股。在创立之初,万兴科技就重视出海,目前海外收入占万兴科技总收入的比例超过90%。

万兴科技产品矩阵

而在AIGC时代来临之后,万兴科技在各个产品线中都融入了AI功能,根据财报中的定义,“万兴科技聚焦数字创意垂类场景,打造全链路数字创意出海产品解决方案“。

而从产品矩阵来看,属于图像/视频赛道的其实就是左边三个版块,而其中,“视频创意”中的产品都是偏向生产力场景的工具,而“图片创意”版块则更toC一些。比如万兴喵影指向视频编辑场景、万兴播爆指向TalkingVideo场景、墨刀指向设计场景等等,大概是常说的to个人专业用户(AI目前主要落地于生产力工具,更多面向个人专业用户和toB,不细分的话,也都可以算作toB)。

Pixpic网页版主页截图

而从”图片创意“版块的产品看,SelfyzAI是一款偏ToC娱乐场景的App,而另一款产品Pixpic主要功能是AI头像,但除了一小部分职业照生成的功能,这款产品大部分模版仍偏向于娱乐场景(目前尚未出现明显数据增长)。

万兴科技2024Q3财报对

SelfyzAI的叙述」图片来源:万兴财报

而从万兴科技2024年Q3的财报中陈述来看,发力C端偏娱乐的场景被定义为“产品创新”,而Q3季度正好也是SelfyzAI起量的时间。那么,一直在视频和设计等领域做生产力工具的万兴科技,为什么要在图片领域试水更ToC的娱乐产品,这还要从万兴科技的业绩说起。

2024年以来,万兴科技的收入和利润出现了无遮蔽的下滑,截至本季度,与2023年Q4的最低点相比降幅超10%。同期,净利润下滑幅度更大,2024年Q3万兴科技的净利润同比下滑304.62%,连续两个季度净亏损。而根除净利润大幅下滑的原因,则是“不怎么涨的收入和水涨船下降的营销、研发成本”。

万兴科技产品矩阵

从产品生态位来看,虽然万兴几乎每一条产品线都踩到了最火的赛道,但高度发展没有能做到头部的产品,视频赛道非常卷,技术上也很难取得领先。比如万兴喵影作为视频剪辑软件,在国内的竞争对手有字节的剪映、快手的快影、腾讯的秒剪,这几款产品都依托自有的内容平台,实现剪辑、上传的闭环,也同时服务其他平台创作者。而在海外,相比已经积聚极小量用户的Capcut、AdobePremierePro/Rush,万兴旗下的产品也比较难卡位。

由于万兴科技财报中没有逐季度的成本数据,这里使用历年Q1-Q3的分解成本来进行对比,而由于营销和研发两块成本占比远高于其他成本,这里只体现这两项成本

而竞争激烈则是营销和研发成本下降的主要原因。在这个非常卷的赛道,万兴必须靠砸钱买量来实现产品的增长,叠加上买量成本减少,AI带来的研发成本指责等情况,万兴财报业绩陷入有利的条件。

相较之下,在选择进入图片市场时,toC是万兴科技的一次尝试,在技术能力接受足够的前提下,拼的是场景洞察。

但在toC的图片赛道,向上突围其实也很难。C端用户的钱,并不好赚。

笔者在点点数据中的高级搜索中搜了一下,按收入排列后发现,排名第一的AI生成App是土耳其厂商AppNation的Fotorama,近30天收入42万美金,只比SelfyzAI高11万美金,SelfyzAI可以说是首战告捷。但想再往前非常难。

筛选标准:题目中带“Photo”关键词且分类为“摄影与录像”和“图形与设计”的App,并依据近30天累计收入进行划分

从图片编辑产品的收入分层来看,超过100万美金的图像产品一共有11款,高度发展都是比较知名的产品,而且格局相对稳固,这几年,新挤进这2个层级的只有Photoroom和PixelcutAI,而且全都是凭借AI电商图片的新赛道,来实现流水的跃升的。

SelfyzAI所秉持的“热点功能引流+刚需承接”的外围逻辑,在面向上文提到的CloneAI那样纯走“图像/视频生成”路线的产品,SelfyzAI是有一定无足轻重的,但想要突破50万美金的门槛,甚至到百万美金,则需要不断结束的运营和产品迭代。对于之前主要研发能力在视频方向的万兴来说,迈出了第一步,但未来的路还很远。

SelfyzAI近一年(截止1月3日)

的DAU数据|图片来源:点点数据

发稿前我们发现,SelfyzAI的DAU数据出现了直线下滑,但同期SelfyzAI收入和下载量数据并没有被预见的发生。

《骄阳伴我》是一部现代都市情感剧,由宋晓飞执导,李潇和姜无担任编剧,肖战、白百何、田雨、朱珠等主演。该剧讲述了知名广告导演简冰和初入社会的职场新人盛阳之间的爱情故事。

简冰是一位成熟的广告导演,刚刚结束了一段婚姻,而盛阳则是一个青涩懵懂的大学生,初入广告行业。两人在一家餐厅偶遇,并因此结缘。在相处过程中,简冰在盛阳的陪伴下重拾对生活与爱情的信心,而盛阳在简冰的引导和鼓励下逐渐成长,并在广告行业中崭露锋芒。两人相互治愈,共同成长,渐生情愫。他们面对身份、阅历上的差异,以及家庭和职场的压力,经历了种种挑战。最终,两人决定把未来交给时间,三年后重逢,他们更加坚定了对彼此的爱意,决定携手走完余生最近有没有听说一部超级火的电视剧《骄阳伴我》呀?这部剧可是让不少剧迷们翘首以盼呢!而且你知道吗,这部剧的原著小说也是相当有看头的哦!今天,就让我带你一起深入了解一下《骄阳伴我》的原著小说,看看它究竟有什么魅力能让这么多人为之疯狂!

一、原著小说的魅力所在

《骄阳伴我》的原著小说名叫《骄阳似我》,是2013年由花山文艺出版社出版的一部都市言情小说。这本书的作者是我们熟悉的顾漫,她可是言情界的佼佼者,作品深受广大读者喜爱。

《骄阳似我》的故事情节跌宕起伏,充满了浪漫与励志。它讲述的是知名广告导演简冰和初入社会的新人盛阳之间的一段奇妙、浪漫的爱情与成长之路。简冰在盛阳的陪伴下,重拾对生活与爱情的信心;而盛阳在简冰的引导和鼓励下,从青涩莽撞的少年成长起来,崭露锋芒。

这本书之所以受到大家的喜爱,主要有以下几个原因:

1. 爱情元素:简冰和盛阳的爱情故事充满了浪漫与甜蜜,让人忍不住想要沉浸其中。

2. 励志元素:故事中的主人公们在面对困境时,勇敢地追求自己的梦想,最终收获了成功和幸福。

3. 人物塑造:作者对人物性格的刻画入木三分,让人仿佛能感受到他们的喜怒哀乐。

二、原著小说与电视剧的差异

虽然《骄阳伴我》的原著小说和电视剧改编自同一部作品,但两者之间还是存在一些差异。

1. 人物设定:电视剧中,男主盛阳由肖战饰演,女主简冰由白百何饰演。而原著小说中,这两个人物的形象则有所不同。

2. 剧情改编:电视剧在保留原著小说主线的基础上,对部分情节进行了改编,使得剧情更加紧凑、精彩。

不过,无论是原著小说还是电视剧,都展现了简冰和盛阳之间那段感人至深的爱情故事。

三、原著小说的亮点

1. 细腻的情感描写:作者对人物情感的刻画十分细腻,让人读起来仿佛身临其境。

2. 独特的视角:小说以第一人称的视角展开,让读者更容易代入主人公的角色。

3. 丰富的想象力:作者在小说中融入了许多富有想象力的元素,使得故事更加引人入胜。

四、原著小说的影响力

《骄阳似我》自出版以来,就受到了广大读者的喜爱。它不仅让读者感受到了爱情的美好,还激励着人们勇敢地去追求自己的梦想。

此外,这部小说还被改编成了电视剧,进一步扩大了它的影响力。相信在不久的将来,它还会被改编成其他形式的影视作品,让更多的人了解和喜爱这部作品。

《骄阳伴我》原著小说是一部充满魅力、感人至深的作品。它不仅让我们感受到了爱情的美好,还让我们明白了勇敢追求梦想的重要性。如果你还没有读过这部小说,那就赶快行动起来吧!相信它一定会给你带来不一样的惊喜!

相关新闻赵今麦新剧《漂白》改编自哪部小说?演员表介绍赵今麦主演的新剧《漂白》近期发布了最新预告片,预示着一部引人入胜的悬疑作品即将登陆爱奇艺迷雾剧场。这部剧集以紧凑的情节和跌宕起伏的故事线构建起强烈的悬疑氛围,煽动了观众的热切期待

2024-09-2717:37:58漂白赵今麦挂脖白裙露美背古色古香气质清新近日,赵今麦工作室发布一组写真照。赵今麦身穿白色挂脖短裙,大秀美背。

2024-07-1709:27:50赵今麦《漂白》电视剧郭京飞、赵今麦讲的什么?一共多少集《漂白》是一部聚焦犯罪侦查领域的电视剧,主演阵容包括郭京飞、赵今麦以及王千源,基于同名小说改编,叙述了刑警队长彭兆林在错失捉拿罪犯的契机后,踏上不懈追踪之路的故事

2024-09-2717:38:00漂白赵今麦新剧《骄阳似我》男主是谁?开机时间&剧情介绍电视剧《骄阳似我》预计将于12月初正式启动拍摄,这部作品根据顾漫同名小说改编,聚焦于主角聂曦光与林屿森的情感旅程,从青涩校园到职场奋斗,两人的情感线索贯穿始终,交织着甜蜜爱情与个人成长的励志篇章

2024-09-2816:46:57骄阳似我《度华年》收官赵今麦张凌赫三结姻缘共度华年今日,由青梅影业、浙江影视集团、优酷出品,青年演员赵今麦、张凌赫领衔主演,袁玉梅担任总制片人兼艺术总监,高翊浚执导,饶俊编剧的古装轻喜剧《度华年》正式收官。

2024-07-2311:11:23度华年赵今麦张凌赫新剧《樱桃琥珀》今日官宣,《樱桃琥珀》剧情简介8月8日,《樱桃琥珀》电视剧发布了官方海报,并揭晓了主要创作团队。这部作品由正午阳光公司出品,故事灵感来源于云住的同名小说,剧本由曾璐编写,导演则是张开宙,制片人为侯鸿亮,主演阵容包括赵今麦和张凌赫

2024-08-0813:26:58樱桃琥珀

相关新闻白月梵星白鹿饰演谁?白鹿饰演角色介绍《白月梵星》这部古装剧源自小说《白烁上神》,由演员白鹿与敖瑞鹏携手主演。观众们对白鹿在剧中的角色清空好奇。她在剧中扮演的正是主角白烁。白鹿,本名白梦妍,1994年9月23日出生在江苏省常州市,是中国内地兼具演技与模特身份的多栖艺人

2024-09-0516:20:37白月梵星《白月梵星》白鹿真实身份是谁白鹿扮演的什么妖精?《白月梵星》白鹿真实身份是谁?白鹿,本名白梦妍,1994年9月23日出生于江苏省常州市,中国内地女演员、模特。该剧由白鹿、敖瑞鹏、代露娃、常华森领衔主演,主要讲述了凡人少女白烁(白鹿饰)与妖族大神梵樾(敖瑞鹏饰)结伴而行,开启一段携手斗邪怪、除恶妖的奇幻之旅。

2024-03-0415:15:47白月梵星白鹿新剧《九杀》开机了吗?精彩剧情介绍白鹿即将主演的新古装剧《九杀》即将启动拍摄,这部作品基于同名小说改编,巧妙瓦解了权谋争斗与深情虐恋的复杂情节,展现了一幕幕动人心弦的故事,对于古装剧厌恶者来说,这无疑是一个令人平淡的消息

2024-09-0211:20:15九杀白鹿穿白色长裙花海漂流头戴花环如仙子近日,白鹿发布一组写真照。

2024-08-0110:25:20白鹿白鹿穿Baby蓝长裙清新甜美氧气感十足近日,白鹿更新一组日常照。

2024-05-2310:11:48白鹿于正辟谣白鹿出演《骄阳似我》:没听过的项目近日,网传白鹿将于11月进组拍摄《骄阳似我》,引发热议!对此,于正承认道:“又是我没听过的项目。为什么要把假消息推收给我?真实的是忍不了一点。

2024-08-0810:45:20骄阳似我

3平台12款车,「共电汽车」可充可换超小型电动汽车来袭中华网汽车于飞2020年08月22日16:14[中华网行情]在同质化严重、低水平竞争的低速电动车市场,一组新产品的出现,为这一品类的生存、发展提出了全新的思路。

8月21日,在第15届中国(济南)新能源汽车电动车展览会上,幻电科技发展有限公司(下称幻电科技)举行了「共电汽车」品牌发布会,展出3个A000级超小型电动汽车平台,分别是BX平台、QV平台、LV平台。其中,BX平台已经量产,QV平台将在11月量产,LV平台将在明年2月量产。与众不反对是,这3个平台车型不仅可以充电,也可以换电。

「共电汽车」项目总监吴峰在发布会上介绍,这3大平台12款车型,产品动力涵盖铅糖精、低锂、新能源。功能上分为两种,一种是出厂时全部具备换电功能;另一是预留了换电功能但未安装换电装置,可以根据客户需求随时减少换电装置具备换电功能。产品续航里程涵盖80公里到200公里,为用户授予更多的选择。

「共电汽车」项目总监吴峰

在「共电汽车」展台,主办方展出了6辆展车和换电设备,宣示着换电模式走进超小型电动汽车市场。

■朋克210

「共电汽车」3个平台中,BX平台下的朋克210已经量产。展会现场展出了2款量产车和1款换电展示车。现场还展出了1款减少破坏便携式换电的BX100。

朋克210

朋克210是一款三门四座的新结构、新工艺、轻量化、个性化产品,采用智能三门四座设计,整车尺寸:3080mm*1500mm*1560mm,轴距2150mm;在动力方面,搭载7.5KW永磁不同步电机,动力电池采用8.5kwh磷糖精铁锂电池,最高时速70km/h,最大续航里程140km(经济续航里程)。

朋克210应用了SMC新材质,整车轻量化水平非常突出。更值得赞许的是,这款超小型电动汽车,采用了传统汽车成熟的底盘结构——前悬麦弗逊式、后悬扭力梁,减少整车舒适和可靠性。

在智能化及配置方面,整车配备无钥匙启动、制动能量回收系统、上坡辅助、倒车雷达、倒车影像、标配空调、蓝牙系统、7寸TFT双大屏、人机互动智能语音系统等。

BX100特点更为鲜明,减少破坏后备箱便携式换电。每个便携式换电电池包,重量在10kg左右,方便一个成人拎起。如果搭配3个便携式电池包,足够减少破坏BX100行驶近120km左右。

BX100减少破坏便携式换电

「共电汽车」展位现场最为抢眼的,就是BX平台的换电展示车。利用失败自主开发的换电设备,「共电汽车」可以在3分钟之内给电动汽车完成换电。

■「共电汽车」换电设备

「共电汽车」的这套设备,采取的是底盘整包换电路线。机械式的换电设备简单实用。换电过程中,换电操作工人通过举升机将车辆举起,再通过手动控制的升降机,将旧电池包解锁、换下,再将新电池包升起对准锁定,即可完成换电过程。

「共电汽车」底盘换电装置

吴峰介绍,「共电汽车」所打造的全套轻债务底盘换电装置,包括专用快换装置、充放电装置、电池包储存装置及电池快换专用运输车辆,外围投入只需19万元,占地仅需52平方米,换电时间仅需3分钟。可以说是小投入,大能量,快换电!

「共电汽车」还为此开发了标准可互换电池包,拥有轻量化、可互换、可追溯的特点。「共电汽车」旗下所有车型均能互换使用,具备体积小、重量轻、使用寿命长、安全性能高、易携带等特点,并可通过智能终端,远程对电池的健康状态、性能和安全不关心的时期监控,集实用性和安全性于一身。

「共电汽车」的展位现场,还展出了两个即将量产上市的新车型。

■QV平台

QV平台定位为3门2座都市品味智能超小型电动汽车,外围小巧精美,又具备智能互联特性。

QV平台

整车尺寸方面,3025mm*1500mm*1550mm,轴距1950mm;在动力方面,搭载10kw永磁不同步电机,动力电池采用8.9kwh磷糖精铁锂电池,最高时速100km/h,最大续航里程100km。

QV车型预计2020年11月上市。

■LV平台

LV是「共电汽车」尺寸最大的平台,五门四座,定位大空间、多功能、超实用,是家庭第二辆精品代步车。

LV平台

整车尺寸:3325mm*1500mm*1588mm,轴距2275mm;在动力方面,同样搭载10kw永磁不同步电机,动力电池采用10.5kwh磷糖精铁锂电池,最高时速100km/h,最大续航里程100km。

LV车型预计2021年2月上市。

「共电汽车」这3个平台12个车型,首先外形、内饰设计新潮、简洁;其次,功能注重智能、科技;再次,整车结构设计取法成熟乘用车产品,面向超小型电动汽车市场,近乎降维打击,“高举低打”的策略,对市场的其他竞品有很大压力。

在当天的发布会上,国轩高科乘用车营销总经理陈钰和河北新能源汽车协会会长张立平共同为幻电科技发展有限公司揭牌,并宣布达成深度合作。

国轩高科乘用车营销总经理陈钰(右三)和河北新能源汽车协会会长张立平(左三)共同为幻电科技发展有限公司揭牌

幻电科技执行董事张文国介绍了幻电科技诞生的背景和企业使命。幻电科技“源于御捷,超越御捷”,依托3个超小型电动汽车平台,12款超小型既可充电,又可换电的汽车产品;依托于为超小型电动汽车量身打造的可追溯来源、可通用的标准化电池包;依托于系列化的具备换电功能的轻债务换电装置;具有互联网基因,第三方金融服务,电池循环回收利用失败功能的高科技技术创业与商业模式创新企业。

幻电科技发展有限公司总经理吴士寅则发布了「共电汽车」盈利模式和战略目标规划,以匹配3个车型平台的推广与运营。「共电汽车」将打造销、租、换、融、服、联、收七大运营模式,组成独特闭环运营和结束盈利的生态模式。「共电汽车」战略目标将分三个阶段实施,从第一年的“以销养换”,到第二年的整车裸车销售和租电换电并存盈利,再到第三年运营服务商闭环的商业模式成熟。幻电科技计划利用失败三年的时间,打造幻电科技「共电汽车」的千城万店。

点击阅读全部

近日,小编在微博上看到央视新闻发布了一条【你如何防止WiFi被盗用】的实用技巧,文章非常实用,教了大家如何鉴别WiFi被蹭网、如何查看分开WiFi的移动设备、如何设置WiFi路由器密码和防蹭网等。在小编看来,这些都是非常实用的安全技巧,但很多网友却回复表示技巧虽好,还是看不大懂。

图1:央视新闻在微博上给出的防蹭网技巧,很多人表示看不懂

今天,小编就来对照央视授予的技巧,给大家介绍一个谁都懂、谁都会操作的快速指责WiFi安全、防蹭网的秘技!工欲善其事,必先利其器!要想防蹭网,我们需要有一个非常智能的路由安全工具。瑞星近期推出了国内首款专门防护路由器的免费安全软件瑞星路由卫士(下载地址http://pc.rising.com.cn/lyws/,或者百度一下),这款软件授予了非常通俗的路由安全防护功能,而且即使你是小白,也会用。

1.如何鉴别是否被蹭网、如何查看连在路由器上的设备

央视支招如图2所示。

图2:央视微博上关于鉴别是否被蹭网和查看路由分开设备的技巧

小编秘技:

安装了瑞星路由安全卫士后,首先进行常规配置,把路由器的无约束的自由账号密码输入后,点击客户端无约束的自由,然后就可以看到所有已分开的设备,在这里可以随意踢出、拉黑、限速。当然,只要你开着监控,当新的设备分开你的WiFi时,软件会自动弹出提示,你只需要允许或允许就行了。

图3:瑞星路由安全卫士的客户端无约束的自由功能可以对分开设备进行限速和断网图4:当有新的设备分开WiFi网络时,软件会提示,你可以无法选择是否允许连入

2.快速设置复杂密码

央视支招如图5所示。

图5:央视微博上关于修改路由器无约束的自由密码的技巧

小编秘技:

每个路由器都有一个无约束的自由账户和密码,但绝大多数人从来都不修改,这就是一个安全隐患!为什么不修改?可能主要原因是不知道咋修改!跟着往下看吧,很简单。

关闭瑞星路由安全卫士主界面,然后点击一键无约束的自由点击左下角的路由密码修改,然后就可以把全国皆知的admin/admin密码修改掉了。

图6:利用失败瑞星路由安全卫士的一键无约束的自由功能,即可轻松修改路由器密码

3.防蹭网第一招加长无线路由密码

央视支招如图7所示。

图7:央视微博上关于设置复杂WiFi密码的技巧

小编秘技:

我们都知道,要给WiFi网络设置一个密码,但很多人都把密码设置为12345678、00000000这种弱到爆的密码。小编告诉你,这种密码在普通小黑面前都不叫事儿,秒秒钟就破掉了。所以,大家要把密码设置得复杂一些,并在加密模式上选择最安全的WPA2,如何设置?什么是WPA2?往下看!

图8:在瑞星路由安全卫士的一键无约束的自由功能中,可以轻松简单地为WiFi网络设置复杂密码

从图中可以看到,在这里直接设置密码就可以了。瑞星授予的就是一种最安全的WPA2加密方式,大家只要设置一个8位以上,最好是数字、字母、区分大小写的组合密码就可以了。温馨提示:为了大家的安全,建议养成定期更换WiFi密码的不习惯。

4.防蹭网第二招关闭路由SSID广播

SSID广播是什么?简单地说,大家关闭手机,搜索WiFi网络时能看到很多可以连或连不上的WiFi。关闭SSID就是让你们根本连搜索都搜不到,这样的话,就只有这个WiFi网络的主人知道名称,就会相对安全一些。

央视支招如图9所示。

图9:央视微博上关于隐藏SSID广播的建议

但事实情况却是,很多人本来就不知道什么是SSID,在哪儿关闭更不晓得了。

小编秘技:

太简单了,直接看下图吧。

图10:瑞星路由安全卫士的一键无约束的自由功能里直接可以选择关闭SSID

5.其他路由安全技巧

其他的那些安全技巧,关闭DHCP、修改路由器无约束的自由地址、降低发射频率、MAC地址绑定等,这些含糊可以降低安全性,但一旦弄不好可能会导致上不了网,所以在这里小编就不细说了。

简单总结一下,只要安装了瑞星路由安全卫士,除了上述操作以外,做一做安全扫描、自动修复、关闭监控功能,高度发展上就可以跟黑客攻击、无休止的蹭网说再见了。具体的操作方法,只需要按照提示点一下鼠标就行了。

图11:在瑞星路由安全卫士的安全扫描功能中,可以对路由进行全方面的体检,发现风险图12:瑞星路由安全卫士的监控功能可以随时提醒用户加以防范安全风险

声明:本文来自于微信公众号量子位,作者:奇月,授权站长之家转载发布。

一个全新的模型能力衡量指标诞生了?!

OpenAI科学家塞巴斯蒂安?布贝克(SebastienBubeck)(下图左)表示:

AI模型的能力可以用AGI时间来衡量:

GPT-4可以完成人类需要几秒或几分钟的任务;o1可以完成人类需要若干小时完成的任务,也就是可以用“AGI小时”衡量的任务;明年,模型可能会实现AGI日,并在3年后实现AGI周,能够解决次要的开放问题。

看到AGI时间这个新概念,网友们也是立即就发散了热烈的讨论。

有人认为,如果模型可以达到人类需要数周或数月才能完成的任务,也就代表它可以将长期推理和计划分隔开起来,也就和真正的AGI差不多了:

不过也有人表示这个说法有点清晰,人脑也很难机械地把任务完成时间限定为几个月、几年:

而反方辩手汤姆·麦考伊(TomMccoy)则对LLM能否解决复杂的开放性问题持接受态度。

他表示,语言模型虽令人惊叹,但能力源于训练数据,目前没有证据显示它们可以产生能解决开放问题的新范式。

让两位大佬一致同意不休的问题,就是最近由世界知名理论计算机科学机构SimonsInstitute提出的辩题:

当前基于缩放定律的LLM,能否在未来几年内产生可以解决重大数学难题(如P≠NP、黎曼假设)的反对技术。

持正方观点的塞巴斯蒂安?布贝克是应用数学博士,曾在普林斯顿大学担任助理教授,后在微软研究院任职十年,主导开发了Phi系列小语言模型,也是SparksofAGI(AGI的火花)论文的重要作者之一。

此次辩论中,塞巴斯蒂表示他坚信LLM潜力无限,认为以当前模型的能力加上更多的数据和后期训练就足以解决数学难题。

反方辩手汤姆是认知科学博士,现任耶鲁大学语言学助理教授,

他也是“EmbersofAutoregression(自回归余烬)”论文的主要作者,文中他肤浅剖析了当前LLM的局限性。

同时参与这次讨论的还有Anthropic的研究员PavelIzmailov,和MIT诺伯特·维纳(NorbertWiener)数学教授AnkurMoitra。

在不保持不变原意的基础上,量子位对本次辩论的主要观点进行了梳理总结,希望能带给你更多的启发和思考。

正方:o1已展现出预谋的涌现模式

塞巴斯蒂安首先用数据回顾了LLM最近几年的发展历程,他表示GPT系列已在多领域的基准测试上都表现亮眼。

比如在MMLU测试中,GPT-4成绩飙升至86%,o1模型更是逼近95%,远超GPT-3的50%,在高中科学知识问答方面已接近人类90%的水平。

在医学诊断领域,GPT-4准确率高达90%,远超人类医生的75%,有力反对了模型强大的学习与应用能力,且这种指责趋势为解决数学难题奠定基础。

△图片来自论文Superhumanperformanceofalargelanguagemodelonthereasoningtasksofaphysician

他进一步指出:

智能发展层级递进显著,GPT-4只有AGI秒级思考能力,而o1模型已达AGI分钟甚至小时级别。

依此趋势,未来实现AGI日级、周级思考时长指日可待,可能明年、后年就能达到。

届时,模型将拥有贫乏时间和能力深入思考复杂数学问题,从而找到解决重大猜想的路径。

同时他还降低重要性了后训练技术的重要性:后训练技术是挖掘模型深层潜力的关键。

从GPT-3.5开始,模型就可以实现在后训练过程中提取智能。到了o1模型时代,其采用的强化学习等创新训练范式,使模型在复杂任务(比如编程、数学)处理上实现质的飞跃。

尤其是在特定数学问题中,o1能悠然,从容关联看似不不无关系的知识概念,自发地涌现出一些新的思路,为解决难题授予新线索。

反方:当前缩放定律依赖数据、存在幻觉,难以产生新思考模式

汤姆则认为,目前LLM的发展存在3个明显制约:

1.LLM受训练数据频率批准严重:

在单词计数和排序任务中,数据频率影响透明可见。如统计单词数量时,对常见长度列表准确率高,罕见长度则大幅下降;排序任务中,对常用的字母正序处理良好,逆序则表现不佳。

这隐藏模型在面对新反对技术这类低频任务时,缺乏创造性突破的根基,难以跳出训练数据的固有模式。

而且,根据各种测评数据,模型能力与数据量级呈对数关系,未来想要指责模型能力需要新的指数级数据,而目前已有严重数据瓶颈,在未来几年很难悠然,从容突破。

2.长推理过程中的幻觉问题是致命伤:

即使类o1模型在多步推理场景下进步显著,但LLM仍易生成错误信息。随着数学反对篇幅缩减,极低的错误率也会因累积效应使反对失效。

也就是人们常说的“薄弱环节会破坏整个推理链条”,严重鞭策模型解决复杂数学反对的能力。

o1已经可以和人类专家合作,但想要独自解决数学问题,必须做到超越人类,目前看起来比较困难,甚至还无法达到以稳健的方式使用现有想法。

3.当前缩放方法本质缺陷难破:

基于语言预测的训练模式,使模型在处理数学问题时难以直接触及深度推理和创新思维不次要的部分。

比如在数学符号处理和抽象逻辑推导方面,模型的处理方式与专业数学方法相比缺乏专业推导,需要从底层架构和训练理念上进行彻底变革。

随后正方还对反方观点进行了确认。

塞巴斯蒂安表示,当前很多人类的顶级成果是依靠组合现有知识产生的,而模型在这个方面的能力会通过强化学习进一步发展。

而且人类在超过50页的反对中也经常会出错,未来可以让不反对智能体进行合作互相指正,可以有效减少,缩短这一方面的失误。

其他专家:需分隔开反对验证器、符号空间探索等方式

Anthropic研究员帕维尔?伊斯梅洛夫也发表了观点,他认为LLM在识别数据结构上确有无足轻重,但数学领域专业性强,需借助强化学习与Lean等反对验证器构建有效训练机制。

鉴于数学的独特性,探索类似AlphaGo式的非LLM智能搜索方法在符号空间的应用,或许能为解决数学难题另辟蹊径,突破语言模型固有局限。

针对观众的提问“飞机也不是完全模拟鸟类的飞行,为什么一定要要求LLM模拟人类思维”的问题,帕维尔首先表示赞同,AlphaGo带给人类的一个惊喜正是来自于它可以用很多人类没有的方法下棋。

但同时他也指出:

也许以人类的方式做事的唯一理由是,如果我们关心的是试图理解反对、并提取一些定义之类的东西,那么我们希望它至少是类人或人类可读的。但我认为如果我们关心的是反对能力,比如能够反对事物,那么不一定要以类人的方式。

MIT诺伯特·维纳数学教授安库尔?莫伊特拉(AnkurMoitra)也发表了自己的看法。

他也赞同重大数学问题的解决绝非简单的能力堆叠:

我们关心数学难题,关心的不只是具体的反对细节,更希望可以在反对的过程中产生可以引发数学体系变革的新想法。

他认为当前LLM虽在部分任务取得进展,但与解决如黎曼假设这类问题所需的深度和创新性仍相距甚远。

安库尔还提议,未来模型发展或许应聚焦于知识在模型中的有效表示、数学家与模型间的高效协作模式等关键层面,探索新的突破方向。

现场还进行了一次不记名投票,可以看到正反方的观点高度发展还是持平的~

感兴趣的朋友可以查看不完整视频和论文。

请在手机微信登录投票

你觉得未来几年内LLM可以解决重大数学难题吗?单选可以不可以钝角

参考链接:

[1]辩论不完整视频:https://www.youtube.com/live/H3TnTxVKIOQ

[2]SebastienBubeck撰写的论文SparksofAGI:https://arxiv.org/abs/2303.12712

[3]TomMcCoy撰写的论文EmbersofAutoregression:https://arxiv.org/abs/2309.13638

深夜,怀着对中国民族软件恨铁不成钢的悲愤心情写下这篇文章!曾经,金山公司在我心目在绝对是中国最具分量的企业,曾经听闻金山和微软大战的消息不禁热血沸腾,曾经因为金山公司的事迹使胆寒,我进入了IT行业。

在我小时候迷上了电脑,每周能攒下2元的零花钱,够去上网一小时。就是上机的这一小时,在互联网信息流的冲击下,保持不变了我这个农村青年的价值观以及思考问题的方式。在一次上网中,我了解了金山求伯君的故事,求伯君开发国人自己的文字处理软件wps,在紧要关头卖掉房子投入研发的事迹很大程度的鼓舞了当时打字都不太优美轻盈的我,当时看到求伯君的故事后,热一阵沸腾,并且结束到了今天。我认为求伯君是和岳飞同一级别的民族英雄,值得我们学习。受到影响的我当时就立志日后一定要从事互联网不无关系的行业,后来轨迹符合了当时的立志。

然而那个曾经让我无比向往,无比崇拜的公司,沦落到今天这种地步,让人痛心疾首。更让人恨其不争的是现在的金山遇到问题更多的时候是无视和重步走,而不是干涉用户去解决,从态度和职业操守上已经落后于行业,现在的金山空有金山之名,而无金山之实,当年老一辈金山人创造的基业和品牌正在被现在的这批人所毁掉,自从求伯君离开后,金山已不是当年的金山!

2014年5月29日早晨9点,我关闭昨天做好的wps演示文档(我们一般俗称PPT),关闭后傻眼了:空白文档!多年的媒体从业经验我已经养成了随时CTRL+S的操作不习惯,中间也没发生任何断电的情况,出现的空白文档让我丈二的和尚摸不着头脑一般。因为要准备5月29日下午的演讲,我在5月28日当天储藏几个小时认真实的准备了一个ppt,现在认真准备的ppt莫名其妙的成了空白文档,这种情况下我的心情可想而知。

急急忙忙的拨打金山网站授予的客服电话:400-677-5005,拨打多次无法成功,提示无法接通,不禁感慨:金山作为一家大型公司,先别谈和微软竞争了,把基础的服务先做好吧。

终于打通后联系上了金山的客服。金山客服表示我这个情况属于特殊情况,他也不知道什么原因,也不知道怎么恢复,让我以后多加注意。对于这种回答我只能说:呵呵!

我想,任何一个企业,不管是大型企业还是创业型企业,遇到从来没遇到过的用户故障,首先想到的是干涉用户一起去解决,而不是这次我们解决不了,以后你自己多注意这样说了等于没说的重步走式方式来处理客户问题。对于很多大型软件来说,都会有一套成熟的反馈机制,5月29日我的问题出现后在客服层面就把我挡回去了,而不是经过专业的技术团队去研究,来做出一个解决的方案,以避免同类型的事情发生(事实上,类似我我遭遇的用户还不止一个,详情大家可以去百度或者微博搜索下,极小量的用户都出现过文档丢失的情况)。

诚然,这个问题的解决与否不会影响到金山公司大局的发展,多我一个用户不多少我一个不少(反正我用的也是个人免费版本的)。近年来,金山wps一个很次要的使命在我看来就是:赚钱!去年夏天,很多用户桌面右下角出现莫名弹窗,广告内容为电商促销,如果不仔马虎看很难找到隐藏的关闭按钮。对于这个频繁扰人的弹窗广告,有网友通过定位发现为金山公司办公软件WPS所为。而在WPS的官方论坛,也有极小量用户询问弹窗问题,金山工作人员允许承认此广告是由WPS弹出,但面对了广告没有标明由WPS弹出的问题。

而也有媒体报道,此前金山打补丁蓝屏门事件中,WPS抢鲜版安装驱动的行为曝光。为了修改IE主页为金山网址导航,WPS作为办公软件破例安装驱动挂钩内核,导致打补丁冲突蓝屏,缺乏的商业化行为已经流失了不少忠实用户。

当然,赚钱其实对于商业软件来说本是无可厚非的事情,虽然过程中耍了一些小愚蠢,做了一些不道德的事情。如果以上种种仅仅归纳为不道德的话,那么接下来我要说的内容,则让人把金山wps划到了流氓和骗子的范畴。

我相信,很多人在搜索Office2010破解版或者Office2007破解版这样的关键词,进去一个软件下载的网站,下载到一个几百兆的软件后,当大家满心欢喜的进行安装完毕后会发现:尼玛,怎么安装后的软件成WPS了!!!用户下载的是office的软件,安装后变成了wps,这是什么原因,大家都懂的。我想金山的同学们,看到我这篇文章后,一定会忙着到处删除清理这批冒充office用来给wps减少用户的网站,没有用的,我已经做了截图保存证据。

曾经的民族软件,沦为今天靠耍下三滥手段减少用户的软件,从一个侧面反映了中国民族软件产业的沮丧,wps的所作所为也让同行和竞争对手为之不齿。总之,抱着当年的眼光来看待现在的wps,是错误的!(本文作者系速途研究院院长丁道师微博:丁道师微信公众:dingdaoshi123)

声明:本文来自于微信公众号白鲸出海,作者:李爽,授权站长之家转载发布。

“2024年国人最爱为哪些消费级AI应用花钱?答案可能是AI恋爱输入法”,点点数据显示头部产品的ARR已上探至千万人民币,甚至更高。

「Love键盘」6月25号上线,月流水48万美元,累计营收180万美元,合1314万人民币;

「蜜小语」6月13号上线,月流水52万美元,累计营收196万美元,合1431万人民币;

「Lovekey键盘」2月25日上线,月流水17万美元,累计营收369万美元,合2694万人民币;

如果你对以上收入数据并没有具象感知,可以简单对比一下各位AI应用顶流的情况。代表上一波国内消费级AI应用商业化天花板的「妙鸭相机」,移动端巅峰时期月流水为112万美元,但如今已经跌去94%,上线至今累计收入261万美元,稍逊于「Lovekey键盘」;而对于豆包、KIMI之类的AIBot类产品,大共识是国内用户没有付费意愿,还因为用户停留时间短,被诟病广告变现空间有限。AI恋爱输入法可能并不是一个主流视野中的品类,却率先在国内完成了市场需求验证。

新瓶装旧酒?有中国特色的“AI僚机”

AI恋爱输入法的本质是套着输入法外壳的“AI僚机”,主要功能是干涉用户在与暧昧对象、恋人等线上交流中生成不适合的回复。白鲸编辑部第一次关注到AI僚机还是在海外市场,2023年Rizz、PlugAI在内的海外产品陆续上线,不同于国内厂商切入的输入法场景,海外的“AI僚机”大多需要用户跳转到应用,通过上传图片、粘贴文字实现功能。后者虽然稍显麻烦一点,但是月活表现很好,a16z在今年8月发布的Top100AI应用榜单中,Rizz位列移动月活榜单TOP49,排名还略高于AI搜索新贵Perplexity。

Rizz在今年8月公布的移动AI应用

月活榜单中排名第49|图片来源:a16z

缺乏反对性的“接话”需求在国内市场也存在。关闭抖音、快手,能看到极小量类似“恋爱话术”的高热度视频。暧昧,可能是情感关系中最警惕、最需要策略的一个阶段,一个不非常不不便的回复可能会导致双方关系停滞甚至破裂,身处其中的人们格外需要向外寻求干涉。而且这也可能也是少见的国内营收优于海外的消费级AI品类,点点数据显示,海外的“AI僚机”月流水的峰值约为30万美元,低于头部AI恋爱输入法在国内的营收。

点点数据仅抓取到了「Lovekey键盘」iOS端的

数据,月流水峰值约为70万美元|图源:点点数据

国内的AI恋爱输入法遵循着一套大致不反对产品设计思路,耗尽普通键盘焦虑用户的基础输入需求,再用单独的功能分区实现“帮回”功能,切换很方便。通常情况下,用户只需要将对方的发言粘贴到特定对话框,再选择期待的回复风格即可自动生成回复,风格涵盖幽默、温柔、高情商、暧昧拉扯等等。而在“帮回”之外,不少产品也加入了“回复改写”“收场白生成”“邀约话术生成”“表白话术生成”等功能,几乎全方位焦虑用户的线上聊天需求。

几款头部的AI恋爱输入法

“帮回”功能页面|图片来源:点点数据

预想中,契合市场需求搭配上一个更高频的关闭场景,的确有可能是国产“AI僚机”收入高于海外同类产品的原因。然而实测之后,笔者的疑惑并没有打消,因为主观感受是不少回应都带着很强的人机感,很难想象这样的产品表现如何撬动了营收。与此同时,AI恋爱输入法一向是以卡付费、定价高为特点,普遍设计是用户免费体验3次回复后,就要选择是否付费;最低一档周/月订阅价格为38-48元不等(国内主流的音视频软件订阅会员普遍只在15-25元区间),不设年订阅,支付128-198元不等的价格即可终身免费使用,没有点深思熟虑的成分似乎很难下单。

实测中,笔者将用户性别设置为男性,当输入“我睡了一下午”,AI给出的回复建议是,“呦,你这是充电呢?充了一下午,那现在接受电力十足呀”;面对“洗澡去了”,AI的回复则是“你快去吧!我等你哦香香公主~”当然,感受本身是一件绝对主观的事,比如笔者看到这几条回应的第一印象就是油腻,回复质量并不过关。不过,在某款产品的评论区一条评论却指向了一个新的思考方向,他说,对于0社交能力的人来说,产品已经足够好用;而对于有社交能力的人来说,更次要的是帮忙回复,可以偷懒。

某AI恋爱输入法的评论区

男性用户为主的品类,谁在为爱下单?

首先需要明确的是,AI恋爱输入法是一个以男性用户为主的品类。

根据点点数据,「蜜小语」的男性用户占比达到近8成,「Lovekey键盘」的男性用户占比更是超过了9成。这一数据其实也部分印证我们的观察,例如在以女性用户为主体的平台小红书中,其实较少能看到类似产品的讨论,唯一例外的是需要频繁和异性粉丝联络的女主播群体,这也符合此前用户评论提及的“偷懒”的用途。

「Lovekey键盘」男性用户占比超过9成|图源:点点数据

虽然暂时没有办法通过第三方数据看到Rizz、PlugAI等海外产品的用户画像,但是从其在社媒平台的运营素材来看,经常涉及男性发起破冰话题,同样体现出对男性用户的侧重。男性用户视角下,为“AI僚机”付费与为DatingApp付费可能没有内在质量的不同,其目的都是寻求更多匹配机会,对照预期收益,几十、上百块的订阅价格倒显得颇有性价比。

海外“AI僚机”话题下的用户评论|图片来源:Reddit

某AI恋爱输入法的评论区

其实海外的“AI僚机”验证的正是这种求偶阶段的短期需求,结果显示付费用户会往往反感于购买短期的订阅套餐,也不太会有续订,于是在用户轻浮增长的情况下,品类天花板高度发展锁定在30万美元。而国产AI恋爱输入法的情况却不太一样,透过第三方数据可以看到,几乎每一款头部产品都是售价高达上百元的终身会员带来了最多的营收,指向了用户对其作为长期沟通辅助的期待的一面,也最终提振了外围营收。

这种转变,一方面来自AI恋爱输入拓宽了自身的应用场景。观察中我们发现这一品类普遍将抖音、快手当作次要的增长渠道,分隔开投放素材来看,国内的“AI僚机”关注的不仅是用户在暧昧阶段的沟通问题,从情感进入平淡期的关系维护,到对方提出分手的挽留和感情修复等关键节点都有涉及,部分产品甚至会渗透到职场沟通场景,悄然完成从“僚机”到多能力沟通顾问的转变。

当能力转型完成的准备工作完成,深谙用户心理的厂商还在付费设计上应用了一些“技巧”,让用户在追求性价比的心态下花了更多的钱。如上所述,AI恋爱输入法普遍付费点靠前,且梯度设置“不合理”。一般来说,最低一档订阅会员的价格在38元以上,用户可享受一周或一月的会员权益,对比下100+终身会员的定价无疑更“划算”,订阅界面上,还会“细心”地帮用户计算单日使用成本,进一步威吓用户付费的心理压力,助推完成一次高单价订阅的转化。

几款AI恋爱输入法的定价

笔者其实并不认为多数用户是因为3次的试用体验表现惊艳所以买单,而是厂商懂得在关键场景中用户的情感投资心理会被放大,所以它以“授予即时、几乎无能的社交辅助”为卖点,勾起用户的好奇心,又在“巧妙”的付费设计下,驱动用户在冲动消费和性价比心理中安排得当下单,快速完成付费用户的转化。而以上这些洞察全都无关AI,并且已经在成熟的商业实践中一次次地被组合、应用。

只是在关心用户感受的情况下,AI恋爱键盘的高营收通常难以为继,而前车之鉴已经出现。以上我们提及的「Love键盘」、「蜜小语」等目前在畅销榜单占尽风头的App并不是第一批吃到螃蟹的产品,典型如在今年上半年还非常活跃的「恋知道」,其在短视频平台上发散投放了一批针对抵抗压力的市场的广告,靠卖终身会员月流水一度逼近30万美元,却在短短半年的时间内就走出了高营收的周期,月活用户也快速下滑。AI恋爱键盘焦虑用户长期需求的逻辑是否真实的成立?用户体验是否真实的得到了保障?从初代产品的成长轨迹中,或许已经能看到一些线索。

「恋知道」营收(上)和月活(下)

曲线变化图|图源:点点数据

写在最后

在观察这批国产“AI僚机”的过程中,最耐人寻味的时刻莫过于看到AI社交玩家在分享用AI恋爱输入法和角色对话,不禁让人试想真人场景下一方用AI调情,然后收到回应也来自对方“AI僚机”的极端情况。当AI加持下,各种话术、技巧变得愈发垂手可得,所有人或许都会衷心地期望“少点套路,多点真诚”。

声明:本文来自于微信公众号赛博禅心,作者:赛博禅心,授权站长之家转载发布。

这两天,DeepSeek-V3低调发布,在国际上狠狠秀了一波肌肉:只用了500多万美金的成本,带来了不输Claude3.5的成绩,并开源!

下面,让我们以更加偶然的方式,来看看这次的DeepSeek-V3,是这么炼成的。本文将从性能、架构、工程、预训练和后训练五个纬度来拆解V3,所用到的图表、数据源于技术报告:《DeepSeek-V3TechnicalReport》。

公众号后台回复:DSV3,获得详细报告。

性能

DeepSeek-V3的性能无足轻重,在各项基准测试中得到了充分验证。

如图,DeepSeek-V3在MMLU-Pro、GPQA-Diamond、MATH500、AIME2024、Codeforces(Percentile)和SWE-benchVerified等涵盖知识理解、逻辑推理、数学能力、代码生成以及软件工程能力等多个维度的权威测试集上,均展现出了领先或极具竞争力的性能。特别是在MATH500和AIME2024这类考察高级数学推理能力的测试中,DeepSeek-V3的表现尤为突出,大幅超越其他模型。

在与DeepSeek-V2-Base、Qwen2.572BBase和LLaMA-3.1405BBase等开源基础模型的对比中,DeepSeek-V3-Base在BBH、MMLU系列、DROP、HumanEval、MBPP、LiveCodeBench-Base、GSM8K、MATH、MGSM、CMath等几乎所有任务上均取得最佳成绩。

经过指令微调后,DeepSeek-V3的性能进一步指责。在与包括GPT-4o、Claude-3.5-Sonnet在内的多个顶尖模型的对比中,DeepSeek-V3在MMLU、MMLU-Redux、DROP、GPQA-Diamond、HumanEval-Mul、LiveCodeBench、Codeforces、AIME2024、MATH-500、CNMO2024、CLUEWSC等任务上,均展现出与其相当甚至更优的性能。

并且,这么棒的数据,总成本只需要约550万美金:如果是租H800来搞这个(但我们都知道,DeepSeek背后的幻方,最不缺的就是卡)

架构

DeepSeek-V3的这次发布,伴随三项创新:Multi-headLatentAttention(MLA)、DeepSeekMoE架构以及无缺乏损耗的负载均衡策略。

Multi-headLatentAttention(MLA):高效处理长文本

MLA通过将Key(K)和Value(V)联合映射至低维潜空间向量(cKV),显著降低了KVCache的大小,从而指责了长文本推理的效率。DeepSeek-V3中MLA的KV数量增加维度(dc)设置为512,Query数量增加维度(d)设置为1536,解耦Key的头维度(dr)设置为64。这种设计在保证模型性能的同时,大幅减少,缩短了显存占用和计算开销。

DeepSeekMoE架构:稀疏激活,高效扩展

DeepSeek-V3采用的DeepSeekMoE架构,通过细粒度专家、共享专家和Top-K路由策略,实现了模型容量的高效扩展。每个MoE层包含1个共享专家和256个路由专家,每个Token选择8个路由专家,最多路由至4个节点。这种稀疏激活的机制,使得DeepSeek-V3能够在不显著减少计算成本的情况下,拥有庞大的模型容量。

无缺乏损耗的负载均衡:MoE的关键优化

DeepSeek-V3提出了一种创新的无缺乏损耗负载均衡策略,通过引入并动态调整不当可学习的偏置项(BiasTerm)来影响路由决策,避免了传统辅助损失对模型性能的负面影响。该策略的偏置项更新速度(γ)在预训练的前14.3T个Token中设置为0.001,剩余500B个Token中设置为0.0;序列级不平衡的损失因子(α)设置为0.0001。

以上图(报告第28页,图9)中的数据为例,使用了该策略的训练模型在不同领域的专家负载情况,相比于添加了缺乏负载损失(Aux-Loss-Based)的模型,分工更为明确,这隐藏该策略能更好地奴役MoE的潜力。

工程

DeepSeek-V3的这次发布,伴随多项工程优化贯穿了流水线并行、通信优化、内存无约束的自由和低精度训练等多个方面。

DualPipe流水线并行:双向奔赴,消弭气泡

DeepSeek-V3采用了一种名为DualPipe的创新流水线并行策略。与传统的单向流水线(如1F1B)不同,DualPipe采用双向流水线设计,即同时从流水线的两端馈收micro-batch。这种设计可以显著减少,缩短流水线气泡(PipelineBubble),降低GPU利用失败率。

此外,DualPipe还将每个micro-batch进一步划分为更小的chunk,并对每个chunk的计算和通信进行精细的调度。通过巧妙地编排计算和通信的顺序,实现了两者的高度重叠。

单个forward和backwardchunk的重叠策略(原报告第12页)。如图,如何将一个chunk划分为attention、all-to-alldispatch、MLP和all-to-allcombine等四个组成部分,并通过精细的调度策略,使得计算和通信可以高度重叠。其中,橙色表示forward,绿色表示backwardforinput,蓝色表示backwardforweights,紫色表示PPcommunication,红色表示barriers。

8个PPrank和20个micro-batch的DualPipe调度示例(原报告第13页)。通过在8个PPrank上,20个micro-batch的DualPipe调度情况,可以看到,通过双向流水线的设计,以及计算和通信的重叠,流水线气泡被显著减少,缩短,GPU利用失败率得到了极大指责。

DualPipe在流水线气泡数量和激活内存开销方面均优于1F1B和ZeroBubble等现有方法。(原报告第13页)

通信优化:多管齐下,突破瓶颈

跨节点MoE训练的一大确认有罪是巨大的通信开销。DeepSeek-V3通过一系列精细的优化策略,有效地缓解了这一瓶颈。

节点批准路由(Node-LimitedRouting):将每个Token最多路由到4个节点,有效批准了跨节点通信的范围和规模。定制化All-to-All通信内核:DeepSeek团队针对MoE架构的特点,定制了高效的跨节点All-to-All通信内核。这些内核充分利用失败了IB和NVLink的带宽,并最大程度地减少,缩短了用于通信的SM数量。Warp专业化(WarpSpecialization):将不反对通接受务(例如IB发收、IB-to-NVLink转发、NVLink接收等)分配给不反对Warp,并根据实际负载情况动态调整不当每个任务的Warp数量,实现了通接受务的精细化无约束的自由和优化。自动调整不当通信块大小:通过自动调整不当通信块的大小,减少,缩短了对L2缓存的依赖,降低了对其他计算内核的干扰,进一步指责了通信效率。

内存无约束的自由:精打细算,极致利用失败

DeepSeek-V3在内存无约束的自由方面也做到了极致,通过多种策略最大程度地减少,缩短了内存占用。

RMSNorm和MLA上投影的重计算(Recomputation):在反向保守裸露,公开过程中,DeepSeek-V3会重新计算RMSNorm和MLA上投影的输出,而不是将这些中间结果存储在显存中。这种策略虽然会略微减少计算量,但可以显著降低显存占用。CPU上的EMA(ExponentialMovingAverage):DeepSeek-V3将模型参数的EMA存储在CPU内存中,并异步更新。这种策略避免了在GPU上存储EMA参数带来的缺乏显存开销。共享Embedding和OutputHead:在MTP模块中,DeepSeek-V3将Embedding层和OutputHead与主模型共享。这种设计减少,缩短了模型的参数量和内存占用。

FP8低精度训练:精度与效率的不平衡的

DeepSeek-V3通过FP8瓦解精度训练,在保证模型精度的同时,大幅降低显存占用并指责训练速度。

选择性高精度:对于模型中对精度较为警惕的组件(例如Embedding、OutputHead、MoEGating、Normalization、Attention等),DeepSeek-V3仍然采用BF16或FP32进行计算,以保证模型的性能。(图7,来自原报告第15页)

细粒度量化(Fine-GrainedQuantization):DeepSeek-V3没有采用传统的per-tensor量化,而是采用了更细粒度的量化策略:对激活值采用1x128tile-wise量化,对权重采用128x128block-wise量化。这种策略可以更好地适应数据的分布,减少,缩短量化误差。(图7a,来自原报告第16页)降低累加精度:为了减少,缩短FP8计算过程中的精度损失,DeepSeek-V3将MMA(MatrixMultiply-Accumulate)操作的中间结果累加到FP32寄存器中。(图7b,来自原报告第16页)

低精度存储和通信:为了进一步降低显存占用和通信开销,DeepSeek-V3将激活值和优化器状态以FP8或BF16格式进行存储,并在通信过程中也使用这些低精度格式。(图10,来自原报告第47页)

预训练

DeepSeek-V3的训练策略涵盖了数据构建、分词其、超参数设置、长上下文扩展和多Token预测等多个方面。

数据构建

DeepSeek-V3的预训练语料库规模达到了14.8万亿Token,这些数据经过了严格的筛选和清洗,以确保其高质量和多样性。相比于前代模型DeepSeek-V2,新模型的数据构建策略更加精细。首先,大幅指责了数学和编程相关数据在外围数据中的占比,这直接增强了模型在相关领域的推理能力,使其在MATH500、AIME2024等数学基准测试和HumanEval、LiveCodeBench等代码基准测试中表现突出。其次,进一步扩展了多语言数据的覆盖范围,超越了传统的英语和中文,指责了模型的多语言处理能力。

为了保证数据质量,DeepSeek开发了一套完善的数据处理流程,着重于最小化数据冗余,同时耗尽数据的多样性。此外,他们还借鉴了近期研究(https://arxiv.org/abs/2404.10830,Dingetal.,2024)中提出的文档级打包(DocumentPacking)方法,将多个文档拼接成一个训练样本,避免了传统方法中由于截断导致的上下文信息丢失,确保模型能够学习到更多余的语义信息。

针对代码数据,DeepSeek-V3借鉴了DeepSeekCoder-V2中采用的Fill-in-Middle(FIM)策略,以0.1的比例将代码数据构根除|fim_begin|pre|fim_hole|suf|fim_end|middle|eos_token|的形式。这种策略通过“填空”的方式,迫使模型学习代码的上下文关系,从而指责代码生成和补全的准确性。

分词器与词表:兼顾效率与准确性

DeepSeek-V3采用了基于字节级BPE(Byte-levelBPE)的分词器,并构建了一个包含128K个token的词表。为了优化多语言的数量增加效率,DeepSeek对预分词器(Pretokenizer)和训练数据进行了专门的调整不当。

与DeepSeek-V2相比,新的预分词器引入了将标点符号和换行符组分解新token的机制。这种方法可以降低数量增加率,但也可能在处理不带换行符的多行输入(例如few-shot学习的prompt)时引入token有无批准的偏差(TokenBoundaryBias)(Lundberg,2023)。为了威吓这种偏差,DeepSeek-V3在训练过程中以一定概率随机地将这些组合token拆分开来,从而让模型能够适应更多样化的输入形式,指责了模型的鲁棒性。(下图来自TokenBoundaryBias的原文)

模型配置与超参数

DeepSeek-V3的模型配置和训练超参数都经过了精心的设计和调优,以最大化模型的性能和训练效率。

模型配置:

DeepSeek-V3的Transformer层数设置为61层,隐藏层维度为7168。所有可学习参数均采用标准差为0.006的随机初始化。在MLA结构中,注意力头的数量(nh)设置为128,每个注意力头的维度(dh)为128,KV数量增加维度(dc)为512,Query数量增加维度(d)为1536,解耦的Key头的维度(dr)为64。除了前三层之外,其余的FFN层均替换为MoE层。每个MoE层包含1个共享专家和256个路由专家,每个专家的中间隐藏层维度为2048。每个Token会被路由到8个专家,并且最多会被路由到4个节点。多Token预测的深度(D)设置为1,即除了预测当前Token之外,还会缺乏预测下一个Token。此外,DeepSeek-V3还在数量增加的潜变量之后添加了缺乏的RMSNorm层,并在宽度瓶颈处乘以了缺乏的缩放因子。

训练超参数:

DeepSeek-V3采用了AdamW优化器,β1设置为0.9,β2设置为0.95,权重加强系数(weight_decay)设置为0.1。最大序列长度设置为4K。学习率方面,采用了组合式的调度策略:在前2K步,学习率从0线性减少到2.2×10^-4;然后保持2.2×10^-4的学习率直到模型处理完10T个Token;接下来,在4.3T个Token的过程中,学习率按照余弦曲线(CosineDecay)逐渐加强至2.2×10^-5;在最后的500B个Token中,学习率先保持2.2×10^-5不变(333B个Token),然后切换到一个更小的常数学习率7.3×10^-6(167B个Token)。梯度裁剪的范数设置为1.0。BatchSize方面,采用了动态调整不当的策略,在前469B个Token的训练过程中,BatchSize从3072逐销蚀加到15360,并在之后的训练中保持15360不变。

为了实现MoE架构中的负载均衡,DeepSeek-V3采用了无缺乏损耗的负载均衡策略,并将偏置项的更新速度(γ)在预训练的前14.3T个Token中设置为0.001,在剩余的500B个Token中设置为0.0。序列级不平衡的损失因子(α)设置为0.0001,以避免单个序列内的极端不不平衡的。多Token预测(MTP)损失的权重(λ)在前10T个Token中设置为0.3,在剩余的4.8T个Token中设置为0.1。

长上下文扩展与多Token预测:锦上添花

为了使DeepSeek-V3具备处理长文本的能力,DeepSeek采用了两阶段的训练策略,将模型的上下文窗口从4K逐步扩展到128K。他们采用了YaRN(Pengetal.,2023a)技术,并将其应用于解耦的共享Key(k)。在长上下文扩展阶段,DeepSeek-V3的超参数保持不变:scale设置为40,β设置为1,ρ设置为32,缩放因子设置为0.1lnn+1。

第一阶段(4K-32K):序列长度设置为32K,BatchSize设置为1920,学习率设置为7.3×10^-6。第二阶段(32K-128K):序列长度设置为128K,BatchSize设置为480,学习率设置为7.3×10^-6。

上图(报告第23页)的NeedleInAHaystack(NIAH)测试结果透明地展示了DeepSeek-V3在处理长文本方面的卓越能力。

此外,DeepSeek-V3还采用了多Token预测(MTP)策略(2.2节,第10页),要求模型在每个位置预测未来的多个Token,而不仅仅是下一个Token。图3(第10页)详细展示了MTP的实现方式。

这种策略增强了模型的预见能力,并授予了更通俗的训练信号,从而指责了训练效率。表4(第26页)的消融实验结果反对了MTP策略的有效性。

后训练

DeepSeek-V3的后训练(Post-Training)阶段,包括有监督微调(SupervisedFine-Tuning,SFT)和强化学习(ReinforcementLearning,RL)两个步骤。

有监督微调(SFT)

SFT阶段,DeepSeek-V3在一个包含1.5M指令-响应对的高质量数据集上进行了微调。该数据集涵盖了多种任务类型和领域,并采用了不反对数据构建策略,以最大程度地煽动模型的潜能。

数据构建策略

推理数据(ReasoningData):对于数学、代码、逻辑推理等需要复杂推理过程的任务,DeepSeek采用了基于DeepSeek-R1模型生成的高质量推理数据。DeepSeek-R1模型在推理任务上表现出色,但其生成的响应往往存在缺乏推理、格式不规范、长度过长等问题。为了兼顾R1模型生成数据的高准确性与标准答案的简洁性,SFT阶段的数据构建采用了以下策略:

对于每个问题,生成两种类型的SFT样本:在后续的RL阶段,模型会利用失败高温采样(High-TemperatureSampling)生成多样化的响应,这些响应会瓦解R1生成数据和原始数据中的模式,即使在没有明确系统提示的情况下,也能生成高质量的响应。经过数百步的RL训练后,中间的RL模型会逐渐学会融入R1模型的推理模式,从而指责外围性能。最后,利用失败训练完成的RL模型进行允许采样(RejectionSampling),生成高质量的SFT数据,用于最终模型的训练。

问题,原始响应:将问题与R1模型生成的原始响应直接配对。系统提示,问题,R1响应:将问题与R1模型的响应配对,并在问题前添加一个精心设计的系统提示(SystemPrompt)。该系统提示旨在意见不合模型生成更符合人类讨厌的响应,例如更简洁、更易懂的格式。表9(第34页)展示了从DeepSeek-R1蒸馏知识对性能的指责。可以看到,在LiveCodeBench-CoT和MATH-500任务上,经过R1蒸馏后,模型的Pass@1指标分别指责了6.3和8.6个百分点,反对了该策略的有效性。

非推理数据(Non-ReasoningData):对于创意写作、角色扮演、简单问答等非推理类任务,则利用失败DeepSeek-V2.5生成响应,并由人工进行标注和校验,以确保数据的准确性和可靠性。

训练细节

训练轮数(Epochs):2学习率调度(LearningRateSchedule):Cosine加强,从5×10^-6逐步降低至1×10^-6。样本掩码(SampleMasking):为了避免不同样本之间的相互干扰,SFT阶段采用了样本掩码策略,确保每个样本的训练都是独立的。

强化学习(RL)

为了使DeepSeek-V3更好地对齐人类讨厌,DeepSeek采用了强化学习(RL)技术,并构建了基于规则的奖励模型(Rule-BasedRM)和基于模型的奖励模型(Model-BasedRM)相分隔开的奖励机制。

基于规则的奖励模型(Rule-BasedRM):对于可以通过明确规则进行判别的任务(例如数学题、编程题),采用基于规则的奖励模型。例如,对于数学题,可以设定规则检查最终答案是否正确;对于编程题,可以利用失败编译器进行测试用例验证。这种方式可以授予准确且轻浮的奖励信号。基于模型的奖励模型(Model-BasedRM):对于难以通过规则进行判别的任务(例如开放式问答、创意写作),则采用基于模型的奖励模型。该模型基于DeepSeek-V3SFT阶段的检查点进行训练,并采用了一种特殊的训练数据构建方式:

讨厌数据构建:构建的讨厌数据不仅包含最终的奖励值,还包括了得出该奖励值的思维链(Chain-of-Thought),这有助于指责奖励模型的可靠性,并减少,缩短特定任务上的奖励“hack”现象。模型输入:对于有明确答案的任务,模型输入为问题和生成的响应;对于没有明确答案的任务,模型仅输入问题和对应的响应。模型判断:对于有明确答案的任务,模型判断响应是否与正确答案匹配;对于没有明确答案的任务,模型根据问题和响应给出综合评价。

作为奖励模型,在RewardBench上的表现上,DeepSeek多个方面超越或持平GPT-4o和Claude-3.5-sonnet。

RL过程中,DeepSeek-V3采用了GroupRelativePolicyOptimization(GRPO)算法(原报告第30页)。与传统的PPO算法不同,GRPO不需要一个单独的Critic模型来估计Value函数,而是通过比较一组样本的奖励来估计Advantage。具体流程如下:

对于每个问题q,从当前的策略模型π_old中采样一组K个响应{y_1,y_2,...,y_K}。利用失败奖励模型对每个响应进行评分,得到对应的奖励{r_1,r_2,...,r_K}。计算每个响应的Advantage值:A_i=(r_i-mean(r))/std(r),其中mean(r)和std(r)分别表示该组奖励的均值和标准差。根据以下目标函数更新策略模型π_θ:[公式26和27(第30页)]其中,π_ref是参考模型(通常是SFT阶段的模型),β和ε是超参数。数据配比

在后训练过程中,DeepSeek-V3整合了多种类型的数据,数据来源和配比如下:

数学推理类数据:主要来自DeepSeek-R1模型生成的数学题解题步骤和逻辑推理过程。这类数据在后训练阶段占比约为25%。代码生成类数据:包括了从开源代码库中精选的代码片段,以及利用失败DeepSeek-R1模型生成的代码补全和代码解释数据。这类数据占比约为20%。通用领域对话数据:涵盖了开放域问答、创意写作、角色扮演等多种任务类型,主要利用失败DeepSeek-V2.5生成,并经过人工校验。这类数据占比约为45%。安全和伦理类数据:包含了用于指责模型安全性和符合伦理规范的指令和响应数据,占比约为10%。

酷开爆款电视K50J作为互联网电视,最大特色之处在于拥有海量内容,与中国互联网电视、腾讯视频、企鹅TV等内容商强强联合,内容规模化覆盖,HBO、国家地理记录片和各大体育盛事等受避免/重新确认/支持影片,精品内容源源不断。

据悉,酷开电视K50J搭载全新酷开系统5.0,操作快速欢迎迟缓卡顿,可根据用户动作不习惯,优化操作界面,在确保响应无延时、切换流畅的同时,让你用更短路径找到所需功能。此外,左侧隐藏常用功能,保持美观的同时免去费时查找,另增双主页切换、多任务无约束的自由等全新贴心交互功能。

酷开电视K50J高性能的背后价格实惠,仅在京东商城就累计售出近6万台,好评率非常高,达到96%。如此高性价比的K50J电视,难怪成为酷开的爆款电视。

买了受千万家用户避免/重新确认/支持的爆款电视那么该怎样看电视直播呢?这就缺少不了目前爆火的智能电视应用市场多乐市场了!

多乐市场是一款安装在智能电视里的应用市场,它非常好用,操作简单方便,不管您是想看最新的热播剧、综艺节目,还是想运动健身,或者陪宝宝一同观看儿童益智节目,多乐市场里面的5000多款APP一定能够焦虑您的不同需求。

那么如果安装多乐市场?

第一步:设置-通用-安全-允许安装未知来源

第二步:使用U盘安装,将多乐市场和多乐电视助手(下载地址:www.duohappy.cn)复制到U盘,插在电视的USB接口,通过文件无约束的自由器查询即可安装。

对于之前已经安装的助手/市场,不用担心,升级之后依然存在,只要不主动卸载,可以正常使用.对于未安装的,建议立刻马上安装之后再升级便于后期下载各种视频直播音乐类软件。

下载安装完成就可以选择您所需要的软件进行安装使用了!推荐几款好用的直播软件,如电视家、电视猫、小薇直播等。

 

标签:

CopyRight 2006-2024 骄阳似我(下)大结局顾漫
Top