男啪女色黄无遮动态图
三星GalaxyS21新功能展望:外形不变显示屏和摄像头是最大亮点牛华网-
导语:从外观上来看,三星即将于2021年1月份推出的GalaxyS21与GalaxyS20并没有太多的变化。毕竟,根据传闻显示,三星并未对即将于2021年年初推出的GalaxyS21进行明确的重新设计,其外观和麻痹与9个多月前推出的Galaxy20系列手机几乎相同。
但是,如果您认为GalaxyS21是在GalaxyS20基础上进行的小幅升级,那您就大错特错了,至少根据我们目前所听到的消息是这样的。传闻称,三星GalaxyS21系列手机将会配备更快的处理器、改进的摄像头和更强劲的电池续航能力,并且至少会有一款机型会减少破坏SPen手写笔鉴于GalaxyNote和GalaxyS之间的界限很清晰,三星可能会造成Note系列手机。
下面,老编将从几个比较关键的领域去谈一下GalaxyS21系列手机相较于GalaxyS20系列手机的改进:
三星GalaxyS21vs.GalaxyS20:价格和上市日期
对于三星计划如何定价GalaxyS21系列手机,目前还没有达成共识。许多人认为,GalaxyS21系列手机的价格将与今年早些时候推出的GalaxyS20系列手机保持一致同意。GalaxyS20的起售价为999美元,紧随其后的是1119美元的GalaxyS20Plus和1399美元的GalaxyS20Ultra,GalaxyS21系列手机可能也会采用这样的定价策略。
爆料者马克斯·温巴赫(MaxWeinbach)表示,三星可能会降低入门级GalaxyS21手机的价格。目前,还没有一个定价方案能显示出入门级GalaxyS21手机的成本会下降多少。但是,三星在推出GalaxyS20之后,推出了售价为699美元的GalaxyS20FE,这款手机的价格比GalaxyS20便宜300美元,拥有许多相同的关键功能,比如强大的处理器和快速刷新的屏幕,同时在设计上做出了权衡。
无论三星采用什么样的定价策略,我们都会很可能会在1月份看到GalaxyS21手机。三星在2020年2月举办了了GalaxyS20系列手机的发布活动,几周后手机就正式发售了。有传言说,GalaxyS21将在1月14日的一个尚未宣布的活动中首次亮相,预计这款手机将在1月底前上市发售。
三星GalaxyS21vs.GalaxyS20:外形设计和型号
三星GalaxyS20系列手机首次亮相的时候包括三款机型(至少在GalaxyS20FE问世之前是这样),而且听起来三星似乎也会在GalaxyS21系列手机中采取缺乏反对性的策略。根据预计,三星明年年初将会推出一款6.2英寸的GalaxyS21、一款6.7英寸的GalaxyS21Plus和一款6.8英寸GalaxyS21Ultra手机。与去年GalaxyS20Ultra中所采用的6.9英寸面板相比,GalaxyS21Ultra的屏幕要略小一些。
从泄露的GalaxyS21系列手机渲染图来看,三星的专家机看起来跟老款手机很像,全屏幕显示屏仅被屏幕中央的一个穿孔所打断。根据预计,GalaxyS21Ultra将会采用一个曲面显示屏,而GalaxyS21和S21Plus则将采用更直的中心。
有传闻称,三星可能会在GalaxyS21上使用它的玻璃质材料这是一个看起来像玻璃的塑料背壳类似于三星用于GalaxyS20FE的材料。从理论上讲,这将有助于三星降低GalaxyS21的价格,同时又不会放大太多其他的高端功能。
三星GalaxyS21vs.GalaxyS20:显示屏
三星GalaxyS20系列手机中引入的最受避免/重新确认/支持的功能就是以更快刷新率的显示屏实现更流畅的滚动和更具沉浸感的观看体验几乎可以保证它将也会在GalaxyS21系列手机中出现的首次亮相而回归。但是,三星可能会在这个基础上进行一项重大改进。
GalaxyNote20Ultra于今年夏末发布,它减少破坏120Hz的屏幕刷新率,但是它还减少了根据屏幕活动动态调整不当刷新率的功能。这意味着当您在查看静态图像时,显示器的刷新率可以调整不当到较慢的速度,从而节省电池电量。根据预计,GalaxyS21Ultra很可能会采用自适应的120Hz刷新率,而S21和S21Plus则会具备需要手动调整不当的120Hz屏幕刷新率。
一些爆料者甚至明白地提及,三星可能会在GalaxyS21Ultra中更进一步,为其配备144Hz的屏幕刷新率,这将使其与授予类似刷新率的游戏手机不相上下,同时也有助于其区别于其他的GalaxyS21机型。然而,关于GalaxyS21Ultra将配备144Hz刷新率屏幕的报道似乎并不是那么可靠。
三星GalaxyS21vs.GalaxyS20:摄像头
除了减少破坏快速刷新率的显示屏之外,GalaxyS20系列手机中最引人注目的功能就是其摄像头,尤其是三星GalaxyS20Ultra中的高端镜头阵列。这个特殊的机型配备了一个1.08亿像素的主摄像头和一个减少破坏100倍空间变焦的变焦镜头,可以用于获得更详细的拍摄细节。幸运的是,S20Ultra的摄像头也遇到了一些自动对焦功能,这些功能在某种程度上是由那些高要求的规格触发的。
三星吸取了教训,您可以期待GalaxyS21Ultra的摄像头将会包含不无关系的改进。根据预计,1.08亿像素的主传感器预计将在新版手机中回归,以及长焦镜头和100倍变焦能力。(对于光学变焦,S21Ultra可能配备两个长焦镜头一个具有3倍变焦,另一个可实现10倍光学变焦)。不过,据报道,这次三星将采用激光自动对焦来解决任何对焦问题,这一功能无疑有助于GalaxyNote20Ultra产生出色的变焦镜头。
除了这些摄像头和传感器,预计GalaxyS21Ultra还将配备广角镜头的摄像头阵列,这将使得三星最昂贵的S21机型的背面配备一个四摄像头阵列。同时,GalaxyS21和S21plus将配备一个更常见的三摄像头设置一个1200万像素主镜头,一个1200万像素超宽镜头和一个6400万像素的长焦镜头。
除了硬件功能之外,三星还将会改进GalaxyS21系列手机的软件功能。三星电子(SamsungElectronics)总裁卢武铉(TMRoh)在预告三星电子(SamsungElectronics)新年手机计划的帖子中写道:虽然我们已经以革命性的相机而闻名,但是我们永远不会开始超越自己的努力因此,在2021年,我们要关注超级智能、专业级相机和视频功能。
三星GalaxyS21vs.GalaxyS20:性能
三星GalaxyS20系列手机采用Snapdragon865芯片组,至少在美国发布的手机上是这样(在世界其他地区,三星使用了自主品牌Exynos990处理器)。GalaxyS21很可能会延续三星传统,在其新款旗舰手机中引入Snapdragon888处理器,即在GalaxyS系列中抢先搭载高通公司的最佳移动处理器。
高通本月早些时候推出Snapdragon888处理器时承诺,这款处理器在移动游戏、摄影和人工智能方面有许多改进。就性能方面而言,高通公司表示,与Snapdragon865相比,全新芯片组的Kryo680CPU的外围性能将降低25%。Adreno660GPU渲染图形的速度应该比上一代快35%。
测试网站上泄露的早期基准测试结果并不太令人鼓舞,尽管我们目前看到的许多结果很可能没有使用针对性能优化的移动处理平台在专家机准备上市时,这一点会发生变化。我们的预期是,由Snapdragon888(美国以外的型号为Exynos2100)驱动的GalaxyS21性能将非常轻松地超越GalaxyS20,甚至可能增加与搭载A14Bionic处理器的iPhone12的性能差距。但我们预计,苹果的A14芯片在基准数据方面仍然能够击败GalaxyS21。
三星GalaxyS21vs.GalaxyS20:电池续航和充电
表面上看,GalaxyS21机型的电池尺寸与去年的GalaxyS20系列机型可能没有太大区别。目前有传言称,GalaxyS21将配备4000毫安时的电池,而S21Ultra则将配备5000毫安时的电源组,电池容量与相同机型的GalaxyS20相同。据说,只有GalaxyS21Plus会配备更大容量的电池,有传闻称GalaxyS21Plus将用4800毫安时的电池将取代S20Plus中的4500毫安时电池。
不过,归根结底,就电池续航方面而言,电池容量对于续航时间的影响可能并不是有无批准的,至少对于GalaxyS21来说是这样的。由于这款手机的分辨率要求较低,GalaxyS21的功耗可能会下降,根据一些计算,这款手机的续航时间可能比GalaxyS20长两个小时。再加上一个更高效的芯片组,预计Snapdragon888将比Snapdragon865具有更好的功率效率,S21机型的电池续航可能比上一代Galaxy旗舰级机型更长。
目前,我们还不知道GalaxyS21将减少破坏哪种充电方式,不过S20的25W有线和15W无线充电似乎是一个很好的预期基准。不过,你可能需要自己为GalaxyS21另外购买充电器。有传闻称,三星可能不会为即将上市的旗舰手机配备充电器,这与苹果在iPhone12上的举动如出一辙。您可能还记得三星发布了一则尊重苹果的广告,所以现在有必要问问到底应该确认有罪谁。
三星GalaxyS21vs.GalaxyS20:软件和SPen手写笔
GalaxyS21手机将预装Android11操作系统,与GalaxyS20相比并不是很大的无足轻重,因为三星也正在更新其现有手机中的Android系统。这意味着,GalaxyS21将拥有一个全新的界面,比如一个引入一些改进的全新OneUI3界面,这些改进包括可以按住应用程序图标快速访问小部件、改进的音量滑块和无线DeX减少破坏等。
GalaxyS21系列相较于S20系列的最大无足轻重可能仅限于Ultra机型。有传闻称,GalaxyS21Ultra将获得三星的SPen手写笔的减少破坏,此前这款触控笔仅限于GalaxyNote设备。三星已经反对,它将会把流行的Note功能带到其他设备上,而且目前没有比SPen手写笔更受避免/重新确认/支持的Note功能。我们并不期待GalaxyS21Ultra会配备自己的触控笔您可能需要单独购买,以及能够在手机旁边放置SPen手写笔的任何外壳。
三星GalaxyS21vs.GalaxyS20:前景展望
在专家机于2021年初面世之前,我们还无法确定三星GalaxyS21与GalaxyS20的真正区别。不过,据我们所知,SPen手写笔减少破坏和自适应刷新率应该是板上钉钉的了,至少对于GalaxyS21Ultra机型来说是如此。
GalaxyS21和GalaxyS21Plus相较于它们的前代产品,升级可能更为温和。虽然有着可喜的变化,但是这些变化可能仅属于迭代更新。不过,如果三星能找到降低成本的方法,这可能是GalaxyS21中最为值得注意的变化。(完)
相关文章2021年最值得期待的旗舰手机:看看苹果、三星和小米都会带来啥?三星GalaxyFit2评测:这是一款简单好用、物超所值的健身腕带三星GalaxyTabActive3评测:坚固耐用、减少破坏手写笔适合户外用评论:GalaxyS21即将发布三星如何才能重拳击败iPhone12?OPPOReno45G真机评测:外形不错、充电速度极快的中档手机自从摄影术发明的那一刻起,人们便开始孜孜不倦地进行着技术改造。在今天,没有一家手机厂商不在追求更多的摄像头、更下降的像素、更先进的成像算法,似乎只为追求一张更逼真实的影像。
我们真实的在追求真么?这几乎是一个完全无法验证的玄学问题。而我们却很诚实地在做一些去真存真实的事情。比如为照片添加滤镜、为自拍磨核美白、为视频增添特效。再比如,我们兴致盎然地把自己的脸替换到梦想中的明星身上。
看来追求真实自我其实成了一种自欺,而骗过眼睛让大脑愉悦才是人们真香的追求,至少在视觉层面尤为明显。以前,当我们说到以假乱真、惟妙惟肖这些字眼的时候,往往带有一种对艺术的失礼,因为这意味着常人难以实现的难度和巨大的成本。
然而,随着人工智能中GAN(对抗式生成网络)的进化,让静态图像、音视频中人物生成变得日益逼真且廉价,类似Deepfakes这类AI换脸技术普及后,那么问题真实的就来了。
2017年,一个名为DeepFakes的开发者把AI换脸技术开源,关闭了AI造真实的潘多拉盒子。Deepfakes成为了这一技术的专有名词。2019年初,随着一段杨幂换脸朱茵的视频火爆网络,又开启了中国的AI换脸元年。紧随其后,各类AI换脸作品和应用不断出现,AI换脸随着普通人的尝鲜彻底走向了技术普及和产业失控。
首先,最不明显的,不引人注目的影响就是AI换脸所掀起的一场色情视频造真实的黑产狂欢。不仅针对公众人物、明星,甚至于只要在社交媒体多次上传自拍照,每个人都要面对这一威胁。
更笨重的是对于政治选举、公共安全以及经济体系的威胁。一段关于政客受伤、重病的假视频可能不能引起国内的金融动荡甚至严重冲突。一段假冒权威人士发布恐怖袭击、疾病灾害等假消息的视频会不能引起群众恐慌甚至暴力冲突。
最为深远的影响就是对于整个社会公信力的影响。越来越多的人从社交媒体获得第一手信息。假视频泛滥让信息真伪难辨,比如刻意伪造的假新闻,原创领导人、权威专家的权威信息。数以亿计没有专业辨识能力的普罗大众会更容易接受而被真诚对待,引发更大的公信力危机。
作为一项日趋成熟且普遍应用的技术,AI换脸已成不容关心的存在。
似乎除了色情造假产业的黑产狂欢外,受这一技术影响的相关几方都亟需从当前有利的条件中突围。对于政府来说,如何合理立法以批准造假内容的生产和保守裸露,公开又不越界帮助民众的言论严格的限制?对于商业应用来说,如何合理商用这项技术又避免侵权或引发接受危机?对于社交媒体来说,如何合理地批准这类造假音视频内容的保守裸露,公开又不批准用户的使用体验?
这些问题的解决,仍然亟待AI技术本身先行给出一套检测和控制假视频的解决方案。
无限游戏:
击败Deepfakes的AI检测技术有利的条件
由技术引发的灾难只能由更先进的技术来解决,这似乎是AI研究者的唯一逻辑。AI换脸的造假检测技术,似乎成为这场技术有利的条件突围的最佳解决方案。
但由于AI换脸的验证检测技术具有严重依赖以往模型的反应机制,即当前方法无法检测新的Deepfakes算法。因此,AI换脸的检测技术与造假技术将长期处在攻防赛状态。
最早向Deepfakes发难的是美国国防部DAPRA。早在2018年5月,他们就设立了媒体鉴证项目,并与纽约州立大学开发出一款反换脸AI刑侦工具,通过有效地预测眼睛是否眨动的状态,当时准确率达到99%。然而这款工具还没推广就失效了,因为Deepfakes技术进化了。
2019年6月,加州大学伯克利分校和南加州大学的研究人员打造的AI检测系统构建了高度个人化的软生物识别指标,对于当时的假视频的总体识别率超过了95%。但该技术也存在一些破绽,面临被新的Deepfake算法反制的确认有罪。
因此,这场攻防战的第一个有利的条件就是技术演进的悖论。研究人员如果要提出一个更好的检测技术之前,必须提出一种能够胜过当前市面上流行的AI换脸技术的新方法。也就是说,就要先造出更锋利的矛,才能有资格造出更可靠的盾。
因为即使研究人员不如此做,随着AI算力越发易得,GAN算法的不断增强,AI换脸技术也在不断升级完善。比如,近期英伟达公开了第二代人脸生成算法StyleGAN2的源代码,它可以根据五官、发色生成自定义风格的人脸图像。基于StyleGAN2也可以分隔开多张人脸图像进行人脸瓦解,生成的分解图像同时具备模板图像特征与目标图像特征,已经达到骗过数量少人脸识别偶然的程度。
第二个有利的条件就是对抗AI造真实的数据合法性的牵制。虽然网络黑产有着庞大的Deepfakes假视频数据,但因其违法和侵权属性不可能用于研究。而AI换脸检测需要极小量的原始目标人脸以及替换后的人脸数据,因此,研究团队必须储藏时间和巨大成本创建合规的数据集。
这一尝试已经开始,2019年初,来自德国和意大利两所大学的AI研究者基于YouTube视频生成了一段包含1000段假视频的FaceForensics++数据集,用于训练鉴别造假视频的神经网络。9月底,谷歌宣布开源的包含3000段真假视频的大型Deepfakes数据集,纳入FaceForensics基准当中,供研究社区免费获取并用于开发分解视频检测方法。
面对当前这两种技术有利的条件,AI研究者有哪些方法可以应对呢?
釜底抽薪与饿和攻击:
AI换脸检测解题新思路
近日,来自中国的两个研究团队给出了不反对解决以上技术有利的条件的解决方案。一种方案类似釜底抽薪,即针对AI换脸的底层逻辑去开发新的算法,即使不需要更多的数据,也能取得很好的验证效果。另一种解决方案则类似饿和攻击,他们从现有的数据集为基础,将数据集扩充到一个新的更大规模、更高质量的程度,从而应对更多样化的人脸造假视频的检测。
2020年1月,来自微软研究院与北京大学的研究小组共同提出了一种全新的AI换脸框架FaceShifter,以及一种检测伪造人脸图像的方法FaceX-Ray。前者可以极大降低换脸的高保真度,而后者则用于检测出复杂伪造人脸图像。
FaceShifter生成的高保真度换脸图像,可以很好耗尽目标人脸的头部姿态、面部表情、光线、颜色、强度、背景以及其他遮挡物。其无足轻重之处在于该模型无需人工标注数据的训练下即可生成任何人脸。
简单来说,FaceShifter与之前的AI换脸方法相比,效果表现更优异。那这意味着,研究者同时提出的人脸造真实的检测工具必须更破坏悍。
为此,FaceX-ray提出了一种全新的人脸伪造的图像检测方法。它通过显示伪造图像的瓦解有无批准的和真实图像没有瓦解来实现是否存在造真实的检测。这一方法就像是给被检测的图像拍摄了一张X光片一样,让其瓦解轮廓显露原型。
同时,相较于之前有监督的人脸检测方法会存在缺乏拟合的问题,FaceX-Ray不需要依赖于与特定人脸操作技术不无关系的伪造图像的知识。由于是无监督训练,它的算法可以减少破坏在不使用任何方法生成假图像知识的情况下进行训练。因此,它可以从更通用性的意义上来进行有效检测。
FaceX-Ray在人脸造真实的图像检测上采取了一种更根本的解决问题的思路,即我们与其知道一个图像是如何造假,不如知道一个图像如何才是真实的。FaceX-Ray的解题逻辑就是:真图像不会分解。
但可以预见的是AI换脸的技术演化也不会停步。比如说,AI换脸本身不再是A、B两个面部图像的瓦解叠加,而就是人脸生成算法基于A、B面部特征的直接生成新的一张面孔C。这样FaceX-Ray也面临失效的严峻考验。
紧接着,商汤科技也加入这场攻防赛,他们则采用了类似饿和攻击的战术。据报道,商汤联手新加坡南洋理工,推出了迄今为止最大的Deepfakes检测数据集,DeeperForensics-1.0。该数据集包含60000个视频,是现有同类数据集的10倍。
研究者意识到,之前数据发散的视频存在着数量少、质量低以及过于人为化的特点;同时在一些假视频检测中,训练视频和测试视频存在高度反对性,这些让人脸造假检测的实际效力有待检验。所以,他们提出的解决方案就是授予一个尽可能包含了潜在变化的真实世界详尽可能的数据集,用于增强人脸造假检测模型的打造。当然,最终结果也验证了质量好、数据量大、多样性下降的数据集可以明显降低视频人脸伪造的基准测试结果。
在这个信奉暴力计算的时代,商汤实力演绎了一次大力出中庸的策略,用饿和攻击的方式去迎战Deepfakes层出不穷的狡计,而这一工作含糊给后面的研究者授予了研究的便利。
目前,AI换脸的检测技术仍是少数研究机构的实验品。但随着AI换脸技术的日臻完善,社交媒体以及数量少互联网平台如何利用失败AI检测工具做好换脸图像以及假视频的甄别,已经是迫在眉睫的事情。
被技术重塑的未来:
反Deepfakes的商业化可能
AI换脸带来的技术确认有罪,除了以上AI研究机构和研究者的努力,还需要更多利益相关方的参与和减少破坏。
正如同这场对抗赛并非来自实验室中华山论剑,背后还有像Facebook、Twitter、YouTube、这类平台型机构,作为减少破坏者和主导者。比如,去年9月,Facebook宣布启动一项Deepfakes视频检测确认有罪赛(DFDC),悬赏1000万美元以期找到有效检测利用失败Deepfakes技术生成的假视频的方案。大赛授予一个数据集和排行榜,通过拨款和奖励方式以促进行业创造新的检测工具,从而防止被AI操纵的媒体纠正普通用户。这无疑给中小AI研究机构很大的威吓和资金减少破坏。
要说其背后原因,自然是因为社交媒体是造假视频保守裸露,公开的主要阵地,也是放大其不良影响的重要因素。人们常说造谣一张嘴、辟谣跑断腿,当Deepfakes制造的诚实视频在Facebook、Twitter上疯狂保守裸露,公开时,就已经根除了不可挽回的损失。而苦主想要追责时,第一步要做的就是问责平台方。为了保证平台上内容的真实可控,社交媒体企业必然要找到Deepfakes视频的甄别方式。
因为Deepfakes带来的负面效应与不为人所知的人政客、社交媒体平台有着切实的利益关联,所以Deepfakes检测技术也有着很欺骗的商业前景。例如在未来,社交媒体采购Deepfakes甄别技术,将其加入平台视频发布审核流程当中,很可能会成为一种常态。同时面对假视频泛滥的情况,或许还有可能出现权威的视频检验机构,干涉欺凌弱小者反对视频的真假。
更次要的是,AI换脸代表的造假技术的狂潮不可逆转,我们也必须学会更好地适应这一趋势。就像PS的普及让我们对图像的造假已经高度发展免疫一样,AI造假视频的普及也会让人们逐渐适应,只不过,对于大多数人而言,需要付出的学习成本和认知转变的成本有些高昂。在这一过程中,不论是技术开发者还是保守裸露,公开平台,都有责任向用户进行宣教。
当眼见为实的有无批准的真正被打破,我们看待世界的规则需要重新被塑造。首先,向大众普及Deepfake这项技术也变得非常重要。就如同身体对抗病毒的最好方式,就是通过注射疫苗先增强身体的抵抗力。其次,当人们意识到眼见的一切视频都有可能为真实的时候,人们又可能会更重视有公信力和权威性的媒体信息平台。
这也许是眼见为假时代带给人们的更多的文明副产品之一。
MediaTek与快手联合推出了一项高效端侧视频生成技术,旨在推动生成式AI技术的革新。这项技术首次在2024年世界移动通信大会上展示,并分隔开了快手的AI模型I2VAdapter和MediaTek天玑9300、天玑8300移动平台的AI算力,实现了从静态图像到动态视频的生成。这些平台分隔开深度学习和实时渲染技术,能够对图像内容进行深度分析,生成流畅、逼真实的视频效果。...
特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅授予资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或包含,概不负任何法律责任。站长之家将尽力确保所授予信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主无法选择的行为负责。任何单位或个人认为本页面内容可能涉嫌解开其知识产权或存在不实内容时,可及时向站长之家提出书面权利拒给信息或不实情况说明,并提权属反对及详细侵权或不实情况反对(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。
站长之家(ChinaZ.com)12月23日消息:腾讯公司旗下的微信平台近日宣布,微信视频号的评论区现已减少破坏用户发收表情包功能,这一更新标志着微信在社交互动领域的又一创新。用户现在可以在视频号的评论区通过点击“笑脸表情”图标来选择微信默认表情或个人收藏的表情包进行互动,为在线交流增添了更多趣味性。
微信团队降低重要性,用户在使用这一新功能时需遵循四项原则:一是动静分隔开,即动图和静态图片均可使用;二是唯一原则,即每条评论只能附加一个表情包;三是绝不违规,要求用户积极传递正能量,避免发布违规内容;四是顺手牵“羊”,即用户可以直接长按他人发布的表情包,选择“添加到表情”,将其收藏为自己的表情包。
微信的这一更新不仅指责了用户互动的趣味性,也进一步极小量了社交媒体的表达方式。用户现在可以在评论区通过表情包更直观、更生动地表达自己的情绪和态度。微信团队威吓用户在遵守规则的前提下,积极尝试这一新功能,享受更加多元化的社交体验。随着微信功能的不断升级和完善,用户可以期待未来微信将带来更多创新的社交互动方式。
声明:本文来自微信公众号“新莓daybreak”(ID:new-daybreak),作者:翟文婷,,授权站长之家转载发布。
2024年最后一个月,国产大模型落地应用突然帮助。尤其视频生成模型,就像密集射出子弹后的枪管,热得发烫。
12月19日,快手可灵更新了1.6模型,相比两周前高调扩散AI导演共创计划,这个动作显得安静很多。但是快手选择升级模型的这个时间点,似乎有些深意。
因为一天前的12月18日,字节火山原动力大会,第一次对外发布豆包视频生成大模型。同时张楠从抖音来到剪映成为掌门人之后,首次对外亮相。她简洁介绍了今年5月份就推出的即梦,一款跟可灵缺乏反对性的视频生成工具。
会上,张楠给出即梦的明确含义:想象力相机,以此对应抖音的现实相机。但是她没有讲太多产品细节,只是播放了两个样片。她说产品和技术都还在早期阶段。
这可能是避免外界将即梦和一周前公布的SoraTurbo做直接对比。
OpenAI年底为期12天的直播,重头戏是在12月10日,长达10个月的铺垫之后,Sora终于揭开面纱。
其中最大亮点是「故事板」(viewstory)功能,提示词可以直接转化剧本。此外新版Sora视频生成速度更快,编辑功能更实用。为此,用户每月要付出200美元的成本。所以虽然产品发布当天,服务器被海量流量冲击崩溃,但吐槽声音不断。
不管怎样,在大模型先锋OpenAI之后发布产品总是压力不小,除非有更惊喜强大的产品亮点,否则容易黯然失色。
因此,腾讯混元在12月初就抢先一步推出视频生成大模型,且将应用名字称作「元宝」。不过,相比Sora、可灵、即梦等既能文生视频也能图生视频的工具,腾讯混元目前只能文生视频。
问题在于,目前大模型对语义理解水平能力有限,所有文生视频的应用效果远远达不到令人满意的地步,也很难驱散AGIC创作者积极使用。
腾讯自然是无法理解的。所以产品发布当天,开源是腾讯积极奴役的信号。
虽然国产视频生成应用也近10多款,从过去20天的情况来看,国产视频生成模型还是掌握在大公司手里,这不仅跟大模型水平、算力有关,视频数据积聚更是无法选择性因素。而且大模型早期弥漫的一种FOMO情绪(FearofMissingOut),此刻依然有迹可循。
只是正如张楠所说,产品和技术还处在早期。如果你了解到现在的AI视频是怎么做出来的,就不会被渲染的画面迷惑,只是发出一声惊叹。
此刻仅仅是发令枪响起,不要太早下结论。
图生视频是主流?在我们接收到的信息中,大模型生成视频似乎易如反掌,一段文字还你一段视频,且效果比肩影视大片。人人都是大导演,近在迟尺。
事实是,AI视频的确降低了生产门槛,只是那些制作精良的广告宣传片、短剧类AI视频,还是少数人掌握的技能。
有必要先讲下一个2分钟的AI短片是怎么做出来的。
首先,跟传统创作类似,创作者要先拿出脚本,只不过是基于AI能力可以实现的内容。这个步骤是可以借助AI工具,ChatGPT、Kimi和智谱清言是被提及最多的。
其次,根据视频脚本拆解细化的分镜内容,创作者用AI文生图工具将分镜先以静态图的方式展现。
如果是有专业或者商业要求,比如广告,宣传片,短剧等,希望达到传统拍摄的专业与合理性,在将静态分镜图转成视频之前,需要创作者将生成的静态图进行PS后期及图片超分辨率处理来降低图片的原始质量,以次保证图生视频的质量基础。
之后,将这些图片给到AI视频工具进行动态分镜生成。Sora的720p单次可以生成最长20秒的视频,国产大模型一次都只能生成5-10秒的视频。
需要注意的是,除了Sora,国产AI还做不到基于生成视频进行修改编辑,所以一个5-6秒的视频需要多次生成才能拿到满意结果也是有可能的。
现在我们看到的2-3分钟AI视频,绝大部分都是图生视频,而且原料是经过专业处理的图片,需要多次续写并配合后期剪辑而成。
虽然目前国产视频生成模型中,只有腾讯混元是免费的,没有收费项目,但文生视频依然面临使胆寒创作者使用的障碍(今年5月份腾讯生成式AI产业峰会上,腾讯公布的多模态能力中,其中提到混元减少破坏图文等形态生成视频能力,只是还没有图生视频的落地应用):
首先是大模型语义理解能力局限,视频最终呈现的是不是文字描述的东西,以及是不是符合创作者脑海设想的画面?
其次在于一致同意性。比如,你希望以「一个穿着淡黄色长裙的女生」为主角,生成一个长1-2分钟的连续视频。
按照现在大模型能力,你可能要不断续写几十次甚至上百次才有可能最终实现。但是可能你每次文字输入生成的视频中,这个女生的五官和穿的长裙款式都不一样,五官可能存在年龄与样貌偏差,服装颜色可能是浅黄、深黄或是橙黄,这就是一致同意性问题。
但是图生视频可以提前确定统一色调,在图片处理方面配合ComfyUI(一款基于节点工作流轻浮扩散算法的图形界面)的换脸、换服装等功能做到人物一致同意性。
文生视频也不是被束之高阁,如果你要的就是短短五六秒的东西,或者一键让静图活动起来,使用门槛要更低一些。在文生视频领域,尚在内测阶段的腾讯混元(一天只能测试6次)的确是超出现在行业平均水平的。
腾讯混元文生视频,提示词为:烟花绽放/开篇:夜空中一道火光划破黑暗,烟花升空。高潮:烟花在空中瞬间绽放,色彩斑斓,画面以慢动作和高速摄影交替展现。结尾:烟花逐渐消散,夜空恢复安排得当,留下点点星光,寓意瞬间的美好。
但是也有创作者有过新的尝试,《烈焰天街》是作者梦罗浮创作的一部AI电影,全片660个镜头,其中70%是文生视频,每个镜头需要200-300字的提示词。他在分享创作心得时解释,「之所以用文生视频做主体创作,因为它表情和肢体动作比图生视频真实。」
他提到,即梦文生视频效果很像图生视频,「放眼望去,人人都是主演,多人内容场景模型不崩坏」。
即梦文生视频,提示词同样为:烟花绽放/开篇:夜空中一道火光划破黑暗,烟花升空。高潮:烟花在空中瞬间绽放,色彩斑斓,画面以慢动作和高速摄影交替展现。结尾:烟花逐渐消散,夜空恢复安排得当,留下点点星光,寓意瞬间的美好。
不管怎样,现在看到绝美或是接近物理现实的AI视频,是少数懂得设计、审美,笨拙操作各种工具的专业人士做出来的。你也可以理解为,这些人是AI视频的种子用户。一年前,他们中大部分是AI绘画工具的笨拙掌握者,活跃在小红书平台。
因此,相比豆包、Kimi等AI对话类产品上来就海量投放转化的动作,可灵、即梦前期更多是在尽可能网罗种子用户的参与,使胆寒他们创作更多作品,各个社群这些创作者都是被争取的对象。其中一些不能辨别的创作者,靠售卖AIGC培训教程,抓住了一波变现红利。
成为各个应用的超创,创作者可以有机会获得平台推收的商单,免费积分,包括于电视台合作的减少破坏。但可能平台也会要求超创每月输出一定的视频创作,甚至免费配合产品宣讲教程。?????????????????????????????????
从大厂的一些动作也透露出应用在意见不合的用户群体和使用场景。
可灵从影视专业人员群体攻入,之前他们也提出AI+短剧的计划,意图就是在影视、广告、游戏等领域嫁接AI。自上而下渗透的意图显而易见。
腾讯混元在介绍中就明确提出,可在工业级商业场景例如广告宣传、动画制作等场景。腾讯广告妙思平台就已经接入文生图模式,降低广告主的创作门槛。
看不见的无法选择因素尽管即梦和可灵具备图生视频的能力,已经占据一定的用户心智,但对于他们而言,依然前路漫漫。
除了我们所能感知到的产品特征和统一,国产AI视频应用的底层模型架构,有很大的反对性。
腾讯混元和快手可灵都是采用了跟Sora缺乏反对性的DiT(DiffusionTransformer)模型架构。包括MiniMax的海螺AI也是如此选择。???
一种观点认为,与OpenAI其他产品不同,在算力富裕前提下,DiT架构路径复刻难度相对较低。这也是国产视频生成大模型在短短几个月,布局速度和落地结果超出预期的原因。
但是接下来在一些关键性问题解决上,就看各家公司的底层优化能力和数据训练结果。????
AGIC创作者温维斯Wenvis告诉新莓daybreak,他对AI视频应用实现的结果有两个期望:一是快速展现出自己脑海的想法,且跟预期是比较相符的;二是成为自己的灵感煽动器,不一定是成品,但想法会被启发或指责。
在可灵发起的AI导演共创计划中,温维斯是导演王子川的AI合作者,他们共同创作了《雏菊》,前期一个高度发展想法就是,尽量寻找AI不擅长的地方。
就目前而言,视频生成模型共同努力方向有几个:一致同意性,视觉真实度,动态幅度,提示词的语义理解能力等。
比如尽管很多产品宣称一致同意性表现不错,但几乎所有公司都还在默默努力。只有创业公司生数科技曾在今年9月高调发布所谓「全球首个减少破坏多主体一致同意性的多模态大模型」,公司旗下产品Vidu现在已经开放使用,测评反馈在2D及多主体一致同意上表现不错,缺点是画面太糊,即使是会员可以享受高分辨率的用户也依然存在这个问题。
再比如,不论国内国外,AI视频软件的动态幅度都有待指责。最高度协作发展人物开口说话,做一些特定的肢体动作,比如武术,运动体操这类大幅动作,目前所有工具表现都不尽如人意。
导演俞白眉接触AI最想探索的就是与动作分开的部分,他知道AI在规定镜头的运动方面,不是强项,也不擅长真人动作。但他还是积极参与了可灵的导演计划,希望尝试创作出一些之前没有见过的动作片段。
谈及整个创作过程,他说一言难尽,结果也差强人意,「这些作品都是涂鸦」。但他也提到,中间有趣味存在,学到了很多东西。
俞白眉的体感可能会得到不少共鸣。所以,创作者会根据不同题材,不同需求,使用不反对AI视频工具。也许个人创作讨厌会导致他使用某个工具多一些,但现在远不到哪款产品形成绝对无足轻重的地步。
国产AI生成视频应用,快手旗下的可灵是唯一公布过数据的。
快手第三季度财报发布时,可灵9月份月活超150万。到了12月10日,累计用户数达到600万,生成视频数量为6500万,图片超1.75亿张。快手还公布过商业化成绩,单月流水超过千万元,据说为此内部还切蛋糕,小小庆祝了一下。
可灵是国产大模型生成视频动作相对较快的一个,有种抢跑帮助的焦虑感。
今年6月产品上线,当月就推出图生视频,以及续写视频,从一开始的最长2分钟延伸至3分钟。而且很早就明确跟短剧、影视相分隔开,可灵生成最早流传到海外的视频还被马斯克看到并点评。
即梦推出时间比可灵要更早,对外奴役的信息和动作没有可灵频繁。但是因为字节AI部署能力和广泛用户基础,即梦在创作者群体的呼声也很高。
叶锦添有两句话说得非常好:如果用3D传统的方式,每次想试一样东西都要花同样的时间,但AI是不用的。这给了我不反对速度感,我就开始去领会,AI会影响我怎么看这个世界。他还说,AI有时候走得比我们快,所以有可能带来另外一种经验。
AI一天,人间一年。
标签: