关于 jelo

该作者尚未填入任何详情。
目前jelo已创建了7篇文章.

横向各向同性软组织的本构方程及有限元实现

|2021-06-03T17:04:02+08:006月 3rd, 2021|Creative|

前言 软组织的力学研究在近几十年内已经成熟,各种理论层出不穷,但总体来讲经历了三个阶段: 第一阶段,1940年Mooney提出了一个具有很强变形能力的超弹性材料的力学模型,1948年Rivlin对它做了改良,也就是现在流行的Mooney-Rivlin超弹性模型,目前对于超弹性材料的仿真都使用了Mooney-Rivlin。 第二阶段,1994年,Jeffrey Weiss 定义了纤维增强型Mooney-Rivlin,通过向量场控制当前构型的变形,这个理论为肌肉的力学仿真奠定了基础,并发表了论文(他博士读了九年,都在搞这个)。 第三阶段,2003年-2018年,在斯坦福大学跟工业光魔的共同努力下,肌肉仿真成功在数字人上应用,大幅提升了数字形象的真实感,目前 Ziva Dynamics,FACEGOOD 等公司也是类似技术路线。 我在2016年看到了Weta Digital一篇专访,放了这段肌肉仿真的视频( Weta Digital Horse FEM Simulation)它们从内到外做了一匹“真马”:骨骼层->肌肉层->筋膜层->脂肪层->皮层,深深被其震撼,了解到他们用到了有限元法(FEM),随后就沉迷这个技术了。我个人来讲喜欢写一些有难度的玩意,编译器、虚拟机、3D引擎、渲染器、物理引擎之类的都写过,这么牛逼的物理引擎不搞一下自然心痒得很,很幸运,是兴趣又跟自己的创业方向吻合,肌肉仿真的研发就这样开始了。刚开始对计算力学一窍不通,只好从头学起,一开始就像个无头苍蝇学习路线比较乱,有限元的书买了一堆,发现它只是个数值工具,想搞明白原理需要先看力学,力学里面又有经典力学、理论力学、固体力学、结构力学、材料力学、弹性力学,不知道从哪里出发,于是干脆全都看了一遍,最后范围逐渐缩小,聚焦之后学习起来自然就很高效了,现在已经在手撸有限元的C++实现了。 图(2)计算力学知名学者吴建营老师(左) 2017年FACEGOOD上线了表情捕捉产品,但当时对计算力学方向还是很迷惘,有幸遇见了吴建营老师,我把这个课题给他看了之后他给的反馈是“都是技术问题,没有理论问题,但是工程化方面人才比较缺”。听了这一番话我反倒是觉着靠谱了,工程化是我们的专长,这些年一直在做工程化的急先锋。FACEGOOD 搞仿真主要是提升数字人的真实感,例如只有从力学上模拟表情产生的全过程才能做到Physically Correct,这里面最核心的是解决人体软组织的力学建模问题,也就是需要得到韧带、肌腱、脂肪、皮层等软组织的精确力学模型。本文主要介绍软组织的数学建模以及其有限元的实现,读者需要具备变分法(Caculus of Variations)、计算力学(Computional Mechanics)、有限元法(Finite Element Method)等知识,熟悉横向各向同性(Transverse Isotropy)、不可压缩超弹性材料的应力、弹性张量等理论特性。按照本栏目一向硬核风格,直接给出完整思路,最后附上一段小DEMO。 认识韧带与肌腱 图(3) 人体有206块骨头,大部分骨头是不能直接向接触的,这样会有很大的摩擦,也没法运动。骨与骨之间并没有榫卯结构,也没有机械齿轮,把骨与骨连结起来的就是韧带和关节。从解剖学角度讲,韧带是骨与骨之间的直接连结,指的就是连接骨与骨之间的致密结缔组织。 每一块骨骼肌都分成肌腹和肌腱两部分,肌腹由肌纤维构成,色红质软,有收缩能力,肌腱由致密结缔组织构成,色白较硬,没有收缩能力。肌腱为肌肉末端的结缔组织纤维索,肌肉藉此附着于骨骼或其它结构。 材料初步(超弹性,横向各向异性的Strain Energy方程推导) 大部分生物材料的力学特性都是各向同性的,他们对载荷的变形反应取决于材料的分布方向,这种材料变形行为是材料内部超微小结构造成的结果,也就是跟纤维束有关,最常见的是胶原纤维、弹性纤维。弹性纤维主要存在于韧带和脉管壁,它与胶原纤维共同存在, 赋予组织以弹性和抗张能力。弹性纤维如同橡皮带一样,它的长度能够伸展到正常长度的几倍,当收缩时又能恢复到原始长度。组织的弹性则是通过改变散布在弹性纤维中胶原的数量来控制。 图(4)肌肉结构 [...]

FACEGOOD 提出高精度表情解算算法

|2021-06-04T11:09:29+08:006月 3rd, 2021|Creative|

前言 表情动画方面在ilm、weta digital等为首的特效公司目前都已经在使用肌肉了,这里说的表情肌肉不是ziva dynamics那种计算果冻效果的,例如在用力摇头的时候,口轮轧肌会抖动,这类高频motion就是果冻效果,利用有限元分析可以对这类弹性力学现象仿真,ziva的肌肉是基于这类理论实现的。表情动画的肌肉方案有两个路线,根据人脸从内到外建立肌肉模型,解决肌肉运动后,再推算出皮肤的形变,最终产生表情,理论上,只要肌肉的运动足够接近真实,这种做法的效果是最好的,在2016年研究过这个方向,有篇论文做了一些初步研究:http://run.usc.edu/cs520-s12/facial/facial-survey.pdf。当时判断这个方向太理想化,难度非常大,就放弃继续深入了,而且目前看起来学术界在这个方向上也没有继续发展。第二个路线,也就是我们目前采用的路线,ilm跟weta digital也用了同样的技术路线,在alita、avenger、the planet of apes里面大放异彩,效果甩blendshape动画好几个维度,我简单介绍一下思路,人的同一个表情,在每次出现时幅度跟形状都是不同的,我们只要保证计算出来的表情跟实际误差最够小,就可以接近演员的表情了,怎么做到这一点呢? 传统绑定的问题 我们先看一下Blendshape绑定的问题,bs绑定有个巨大缺陷,就是我们假设了人的每个表情只是幅度的不同,形状都是一样的。但实际情况是,同一个表情,每次做的时候形状也是不同的,如果微分到人脸上的每个点,这个解基本上是无穷的。试图解决这个问题,只能把bs数量放大,但实际上到了几百个bs后人工绑定的要求就非常高了,1k以上的绑定需要手艺很好的老师傅才能完成,而且国内这种人非常少,国外的绑定成本高得离谱,而且最终问题还是解决不了,因为bs动画无论加到多少,它都是一维的。 粗暴一点,拿iphonex举个例子,51个bs,bs动画的数学原理就是对这些表情求和,最终得出表情,每次只是变化幅度不一样,形状完全一样,线性组合嘛,问题就在这个线性,每次变化都是一维的,就算加到10w个bs,它也是一维的。给出公式: F(w)是最终表情,Base是自然pose,对其余表情求和,w就是权重,很显然这个过程是线性的。第一代表情捕捉技术就是对w求值,这个公式的逆过程,因此像facegood P1、faceware、dynamixyz这类产品非常依赖于绑定,绑定做不好,算出来的表情是没法看的。上面指出了bs绑定的理论缺陷,但也并非bs完全没用,我们的解决方案是这样的,在bs绑定的基础上计算了一次肌肉,保留bs主要是为了方便动画师对动画二次加工,保留bs绑定,看一下我们是怎么解决这个缺陷的。 首先第一步是bs权重的计算,bs绑定,w的计算就是表情捕捉要计算的结果,计算公式就是求和公式的逆过程,把上面换个形式,如下图: faceware跟dynamixyz在算这个权重w的时候也是有很大缺陷的,给到一个视频后,需要用户k几个关键pose,然后跟当前帧做线性回归,当用户k的pose超过个位数后,回归的结果会变得混沌,精度变得非常差,这就是为什么当台词多的时候,尤其是对白超过30秒后,效果非常差,另外还有个致命弱点,因为是根据pose来推算权重w,就导致人脸的局部肌肉的运动是算不出来的,例如苹果肌,一般只能由嘴部表情联动,这种效果是不精确的,容易导致僵尸脸。 FACEGOOD 方案 我们的做法是不用用户k关键pose,我们根据当前表情,计算出所有bs的权重,最终得出当前表情的粗解,如上图公式。为什么叫粗解,因此此时的结果是无法完全匹配到演员的,原因我们开始已经解释过了,人的表情,每次的形状都是有差异的,bs只记录的某个时刻的外观。我们要做的就是在bs权重计算完之后再做一次修正,如下图: 此时计算完bs权重后,可以看到内嘴唇是没有完全匹配到演员的,我们在这个基础上计算肌肉,这一步已经完全脱离了bs的一维线性空间变成顶点动画了。 肌肉计算完后,可以看到嘴唇已经完全匹配了,这时bs动画变为顶点动画,这是全自由度解,完美匹配真人的表情。尤其是细微的、高频的微表情,例如嘴唇的粘连、眼轮匝肌四周微小高频的motion等。第一步bs权重的粗算得到了八九不离十的大表情,最终算完肌肉后,演员的“神情”就被计算出来了,尤其是眼睛中的情绪,都可以还原,下图为完整算法。 以下这种级别的匹配度,可以说100%匹配,bs绑定就算细分到1k也是做不到的。因为人的维表情变化是无穷的,表演的灵魂恰恰都在这些微表情中。

FACEGOOD 推出10万点人脸关键点跟踪,重新定义工业级人脸3D重建

|2021-06-04T11:22:20+08:006月 3rd, 2021|Creative|

前言 目前无论是学术界还是工业界对人脸的研究有两个方向,其一民用级,通过技术泛化为用户提供低精的产品,这些技术在工业级高精度上是无法满足需要的,主要因为算法泛化丢失了人脸的低频信息(五官的细微差别)。其二工业级,从人脸生物力学仿真层面,持续提高精度,FACEGOOD走在这个方向,在技术适当泛化的基础上,其将人脸关键点跟踪推向了极致,目前已将精度推到10万级,该技术可用于工业级换脸、表情捕捉等场合。 人脸关键点检测在安防、金融、娱乐等领域具有广泛的应用,可以说已经成为非常基础的算法,我们先来回顾一下它的发展历史,Tim Cootes & Chris Taylor在1995提出了一种新的方法(Active Shape Model)开创了人脸关键点对齐的先河,ASM引入了统计模型来解决对齐问题,紧接着三年之后,他俩在此基础上发展出了Active Appreance Model,这个方法有很重的历史地位,要知道当时人脸对齐问题是个很棘手的事,传统的CV算法太粗暴,难以应付人脸这种高纬特征,AAM之后算是进入了一个正确的方向,为后来神经网络方法奠定了基础,基本思想是ASM并没有考虑到纹理特征,只是对landmark训练了一个统计模型出来,AAM进一步优化了ASM,在回归的过程中加入了纹理特征,这样就解决了特征的泛化匹配的问题,使得人脸对齐更加鲁棒。20年之后,在众多研究者不断推动下2D人脸对齐问题已经彻底解决了,算法也已经白菜化,随便在github都有大量的精度不错的开源项目。 3DMM 与此同时,在1998年有两位研究人员又开辟了一条新赛道,他们提出了3D对齐算法,将人脸对齐推向了一个全新的维度,这套方法目前已经成为现在工业界主流的算法流程,现在工业界习惯上把它叫做3DMM,虽然并不严谨,但我们姑且沿用这样一个定义,3DMM计算结果是在人脸上拟合并投影出一个3D点云,它的应用就非常丰富了,美颜、表情捕捉、通过照片生成一张人脸等等都用了类似的技术。 公式1 如上图所示基本思想是:一张脸可以由多个不同的人脸通过线性组合得出,换句话说,给出一张人脸,要得出3D模型,就是一个系数的回归问题,了解AAM的同学一眼就看出来这个公式就是AAM公式,也可以说这是AAM的另一种应用,其中S是平均脸,s是特征向量,ai是权重系数。Tmodel是用来拟合人脸纹理,同样使用线性组合得出。3DMM是一个非常初期的idea,他的计算结果并不理想,现在来看只能算玩具级,主要是PCA在精度上的丢失是很严重的。 2008年,一篇论文的发表将3DMM的精度进一步推广,公式1只采样了人脸在某一时刻的表情,因此在表情上没有考虑到其他情况,导致精度丢失。这篇论文增加了一个维度,因此叫“双线性模型”,在人脸基础上加上了表情因素,这样的计算结果更加可信。 公式2 这个双线性公式在公式1的思路上增加了一个系数a,表示不同表情,b表示不同的个体,w是人脸数据库,到此3DMM在算法流程上完整了,为日后Facewarehouse等应用奠定了基础,后面的故事大家都知道了Facewarehouse推出了自己的数据库及应用思路,讲到这里我们对前面这些研究做个总结。 3DMM缺点是很明显的,在技术泛化这条路上一路狂奔,忽略了人脸非常多的细节,尤其是高频低幅度的表情细节,在个体上体现非常明显,造成这个局面的原因有两个,基于统计的回归并不精确,是一个模糊解,3D数据库模型的采集多数用成本低廉的设备生成,精度不高,两者加起来,3DMM在高精应用场景可以说完全无法满足需求,更不可能达到工业级超高精度需要。 FACEGOOD 3DMM 图示1 BFM & SFM 模型 图示2 FACEGOOD 模型 为了更精确的计算人脸的3D信息,并能适用于工业级业务场景,FACEGOOD团队采用相机阵列方式采集了100个不同个体的3D模型,每个人有43个不同的表情,以及他们对应的高精度皮肤材质数据,至于这些数据建立了FACEGOOD 3DMM模型。 目前开源的数据库主要有BFM跟SFM两个,同时还有一个Facewarehouse仅供学术研究使用,对比这些数据库,FACEGOOD 3DMM主要体现在精度上,抛弃kinect这类民用级扫描技术,使用相机阵列的方式,可以完全重建人脸的所有肖像特征,如上图所示,图示2是FACEGOOD数据,图示1是SFM数据,后者在细节上损失很大,基本上只保留了人脸的大概特征。 神经网络的优势主要在技术泛化上有很好的表现,但在高精度场合并非理想选择,为了达到高精度跟踪人脸的3D特征,包括脸型、五官的深度、微表情的变化等,FACEGOOD研发人员使用传统算法实现了这一套方案,目前已经在超写实数字人上开始应用。 公式3 [...]

深化产教融合,深职院与量子动力FACEGOOD签订产教融合战略协议

|2021-06-01T16:23:02+08:006月 1st, 2021|News|

4月27日,深圳职业技术学院(以下简称“深职院”)和FACEGOOD(量子动力计算机科技有限公司)建立战略合作模式,就人才培养项目在ECO国际会议中心签订产教融合战略合作协议并为在FACEGOOD建立“实习基地”举行授牌仪式,共同从学生预就业阶段开始进行专业的靶向人才培养。深职院数字创意与动画学院李亮院长携师生代表、FACEGOOD创始人兼CEO王全伟及团队等出席仪式。 深职院李亮院长及FACEGOOD CEO王全伟 在活动仪式上,数字创意与动画学院李亮院长,介绍了学院多年的办学历程、教学科研、师资队伍、专业设置等概况,希望发挥双方各自优势,加强人才培养方面的合作, 共同培养更多的专业人才。双方表示,未来将进一步加强产学研项目合作,教材建设、影视动画制作示范中心,创新教材建设等建立长效的合作机制。 深职院数字创意与动画学院李亮院长讲话 FACEGOOD(量子动力)多年深耕数字化产业制作技术的研发,自主研发国内首个实现人脸高精度建模、绑定、驱动高效制作工具Avatary。人脸软组织力学仿真技术,打破了国外技术垄断,在表情捕捉,表情建模领域筑起坚实的壁垒。作为科技企业,FACEGOOD(量子动力)多年致力通过技术的力量,推进中国在数字创意、影视、动画、游戏制作过程中的工业化进程,大幅度提升影视、动漫等在制作环节中的效率,降低制作成本,同时能够更好服务于文化创意内容的落地。 FACEGOOD(量子动力)CEO王全伟说:“未来,在人才培养、科研教学上也将与高校携手,科技助力产业升级的意识传递到校园,为文化与科技的发展,未来复合型人才的培养,作为企业也应该为社会添砖加瓦,贡献力量。” 目前国家正在大力推行文化转型升级,实现科技和文化的融合已经变成一种趋势。相信FACEGOOD(量子动力)与深职院此次的合作也将架起高等院校、科研机构和企业之间的人才、技术、项目合作的新桥梁,深化发展以企业为主体,高校、科研机构为创新动力的合作模式,从而实现科技与经济对接、创新成果与产业对接、创新项目与现实生产力对接。在以校企主导、政府推动、行业发展的有序推进下,培养适合国家发展需要的人才培养模式正在迈向一个新的高度。

FACEGOOD发布AVATAR STUDIO(Avatary)亮相数字人大会

|2021-06-01T16:24:21+08:0012月 9th, 2020|News|

12月3日,2020DHDC首届数字人开发者大会在北京黑糖盒子艺术中心圆满落幕。大会现场300位数字人行业权威专家及优秀企业代表等出席大会,FACEGOOD携手谷歌、迪士尼、浦发、清华大学、中央广播电视总台、原力动画、网易、凌云光等数十多位行业大咖通过线上和线下发表精彩演讲,就数字人前沿技术、最新应用、人工智能等热点问题做了分享和探讨。围绕企业级市场的智能交互应用,FACEGOOD重点介绍了数字人脸部动画创作的前沿技术并发布了助力数字人动画创作的高效工具AVATAR STUDIO1.0。 作为本次大会的协办单位,FACEGOOD与联盟和产业链伙伴携手,积极推进国内数字人视觉呈现的技术创新。目前FACEGOOD已经将国际上好莱坞最高级别的超高数据3D点云技术运用在AVATAR STUDIO系列软件上。并且AVATAR STUDIO秉承助力行业生产提效的原则,将软件免费化,降低了行业生产标准。 目前国外的脸部表情动画捕捉系统,占据市场85%的份额,本次AVATAR STUDIO的发布将彻底扭转这一市场被国外企业垄断的情况,预计可以为整个行业节省近4亿元的投入。同时可将脸部表情动画的创作效率比传统方式提高60倍,为行业提升30~60亿的内容产值提升。 ​对比国外的脸部表情动画捕捉系统,AVATAR STUDIO在表情精度远超国外的脸部表情动画捕捉系统,软件功能上更加强大易用,配套设备精度更高,同时采购成本只需国外系统的1/10,形成了对国外系统的直接冲击,让中国数字人行业的发展不再只有国外的脸部表情动画捕捉系统可选,扭转了这一领域对国外软硬件系统的依赖。 AVATAR STUDIO的本次发布得到了各位数字人行业从业者的广泛关注,在本次大会中获得了满堂喝彩,FACEGOOD能再接再厉为行业技术升级带来更加高效的生产工具。 量子动力FACEGOOD由全球图形学、计算物理领军人物创立,研发团队来自上海交通大学、浙江大学、华南理工大学、NEC、微软、NVIDIA等全球顶尖的企业跟科研结构,在图形学、计算物理领域深耕几十年,在ACM/Appiled Mechanics等顶级会议上发表论文专利等近百篇,凭借技术与产品力兼备的专家型团队,领先的计算物理仿真技术,依托与上海交大合作成立的“数字人研究中心”,FACEGOOD已迅速成长为具有国际竞争力的数字人仿真企业。  

陆川导演和“AI数字人陆川导演”,揭秘第十届中国国际新媒体短片节亮点

|2020-12-01T17:58:05+08:008月 1st, 2019|News|

今日,中国知名导演、编剧、制片人陆川到深圳扫描形象、录制声音,制作“AI数字人陆川导演”。陆川本人也将携其AI数字人亮相于12月2日—8日在深圳举办的第十届中国国际新媒体短片节,在今年迎来十周岁的中国国际新媒体短片节将为大家带来更加丰富、精彩的活动,更多优质的项目和最新的科技成果,为大家呈现酷炫的科技+艺术盛宴! 陆川导演与 第十届中国国际新媒体短片节 陆川导演曾担任过三届短片节金鹏奖短片导演原创扶持计划的评委会主席,是短片节的“资深伯乐”,曾在短片节的平台上选拔出许多优秀的短片创作人才。其中有第二届评委会特别奖获奖短片《爷爷》导演丁璐,后其长片剧本《丽斯的选择》获得了2016年上海电影节纪录片单元最佳入围奖;第七届最佳金鹏短片《不和谐音》获奖导演蒂尔·诺瓦克(德国)加入漫威电影,成为《银河护卫队2》、《黑豹》、《神奇女侠》等多部电影的美术概念师。 陆川导演一行参观FACEGOOD 在短片节十周年之际,陆川导演这位特别的见证人将再次回归,担任“金鹏奖微视频计划”的发起人,并来到高校日大师班分享创作经验。同时,陆川导演将他的首个AI数字人形象献给短片节作为十周年礼物。 量子动力创始人CEO王全伟向陆川导演介绍 AI数字人表情捕捉技术 “AI数字人陆川导演”将在12月2日—8日第十届中国国际新媒体短片节开幕期间与大家见面,数字人能进行现场实时对话问答,为观众带来打破虚拟空间和现实空间次元壁的实时实感交流互动体验。充分展现了中国国际新媒体短片节“新媒体·新科技·新生活”的活动主题。 陆川导演向技术团队了解AI数字人技术的后期制作流程 “科学+艺术”也将成为第十届短片节的核心关键词,“数字人”技术作为AI人工智能技术代表亮相第十届短片节,也将成为本届短片节的一大亮点。 本次虚拟形象录制分为数字人技术方案和声音采集两部分,数字人技术方案由深圳本土科技公司量子动力(FACEGOOD)提供技术支持,使用国际前沿的情感计算技术,可实现人物形象360°全维度建模,还原纤毫可见的逼真人物形象。同时,“AI数字人陆川导演”将搭载思必驰语音合成系统,通过采集陆川导演本人的声音生成语言库,最终将实现实时对话功能。陆川导演虚拟形象的制作很好地展现了国内在数字人及人工智能发展水平和实力,体现了深圳民营企业在科技领域的创新活力。 “AI数字人陆川导演”制作幕后花絮 第十届中国国际新媒体短片节 亮点 在第十届中国国际新媒体短片节来临之际,明确永久落户深圳市光明区。第十届中国国际新媒体短片节将于12月2日—8日在深圳举办,活动内容有金鹏短片导演原创扶持计划、光明草地短片嘉年华、国际短片交流展映、高校日、短片交易市场等。在光明区建成短片文化特色鲜明的休闲旅游地,新媒体视频内容创作、展示、交流、交易的中心及产业的聚集地。 亮点1 视频科技成果展示 为“科技+文化”搭桥 自2016年第七届短片节首次开办短片交易市场以来,视频科技领域的前沿成果展示一直是短片节交易市场最吸引人的亮点内容。第十届短片节交易市场将继续办好、办精视频科技展示,设立“视频科技展区”,将重点展示CG(计算机成像)、AI人工智能、VR虚拟现实等前沿科技。第十届短片节高校日活动策划的重点将突出“科技+艺术”,邀请三届奥斯卡技术成就奖获得者尤·士丹,知名导演、编剧、制片人陆川导演,以及两届奥斯卡最佳纪录片获得者柯文思等业界知名导演、专家学者开设大师班讲座,为参加短片节高校日活动的师生讲授人工智能、CG(计算机成像)技术在艺术创作中的应用。预计将有全国各地20多所高校300多名师生到深圳与深圳本地高校师生一起参加活动。大家还可以在今年短片节的各个场地看到“数字人陆川”,并与“他”交流互动。 亮点2 丰富的“一带一路”合作项目 将亮相第十届CSFF短片节 近年来,短片节组委会在“一带一路”沿线国家短片展映、项目推介会等活动中获得了业界的好评。中国国际新媒体短片节已被列为深圳参与“一带一路”建设重点项目,第十届短片节将在此基础上,继续加强、加深与“一带一路”沿线国家合作,与伊朗、新西兰、俄罗斯、马来西亚、波兰等“一带一路”沿线国家的影视机构合作,为国内观众带来“一带一路”沿线国家优秀短片展映,通过短片欣赏“一带一路”国家的文化风貌。此外,短片交易市场也将设立“一带一路”沿线国家展区,建立“一带一路”版权合作联盟,并举办“一带一路”影视项目推介会,以促进“一带一路”沿线国家与中国影视文化企业在短片联合展播、短片合拍、短片版权交易、新媒体视频内容版权销售等方面的项目合作。 亮点3 短片交易市场设“融媒体”专区 助力传统媒体与新媒体融合发展 近年来,传统媒体在人力、内容、宣传等方面进行全面整合,建成了一批实现“资源通融、内容兼融、宣传互融、利益共融”的新型媒体,涌现出一些具有鲜明时代特征和科技元素的互联网舆论平台,呈现出了百舸争流的发展态势。为合理利用融媒体的优势功能,促进影视文化的繁荣发展,第十届短片节交易市场特设“融媒体发展”专区,聚焦融媒体中心建设和内容汇聚、生产、管理、发布、互动等功能的建设进行交流和探讨。邀请全国电视台新媒体业务部门、广播电台和互联网机构等参展,共同展示和探讨如何把传统媒体与新媒体的优势互为整合与利用。邀请全国各地的融媒体中心示范单位交流融媒体中心建设经验。第十届短片节交易市场预计将有20个国家和地区100多家企业和机构设展位。 亮点4 “5G下的短片” 着眼现实探索未来 伴随着5G网络的布局和5G技术的发展,短视频在未来将迎来爆发期。第十届短片节交易市场“5G时代的短片"专区将聚焦短视频创作和5G新媒体平台建设,聚集影视机构、专业及准专业创作者的泛文艺、泛资讯、泛知识三大品类内容展示个发布。邀请短视频平台充分展示在5G时代来临时,最前沿的聚合、分发技术以及短视频新形式和用户体验。邀请移动运营商展示5G技术下移动终端的双屏显示和可视化互动体验。同时,结合这一行业发展热点,组委会与腾讯微视合作推出“金鹏奖微视频计划”,面向国内外短视频创作者征集思想主题健康、制作精良、创意优秀的微视频作品。微计划将通过网民投票和第十届短片节国际评选委员会评委评选,选出最佳微视频金奖、银奖、铜奖各1位获奖者,年度十大人气微视频奖和最佳人气网络新星奖(男)、最佳人气网络新星奖(女)两位获奖者,奖金总数高达20万元,获奖选手还可获得微视达人官方认证。目前,“金鹏奖微视频计划”参赛报名已经启动,目前#金鹏奖微视频计划#竞赛话题页面上线一个月,已有1190个视频作品,播放量超过580万,点赞量超过16万。微计划报名截止日期为11月10日。

人人都能有数字替身:FACEGOOD发布AI交互实时数字人

|2020-12-01T11:10:22+08:0012月 1st, 2018|News|

今日,量子动力 FACEGOOD 发布了一款基于AI交互全实时数字人,次世代人机交互恐怕越来越近了。 那我们不禁要问?《头号玩家》电影里出现的场景真的很快来到吗?答案是肯定的,而且很快。 数字技术的出现催生出数字人这一崭新的视觉元素。这种产生是有多方面原因的,技术的发展、产业对经济利润的追求,流量与人口红利的枯竭。对生产力效率与成本提出了更多的要求。以及人类集体无意识中的木乃伊情结 ,都在不同程度上充当了数字人物产生的驱动因子。与真人相比,数字人物作为对人类自身透视的客体,具有其独特的传播优势。要使数字人物更好地被受众所接受,其身上所负载的文化内涵也是不容忽视的。 但随着人工智能等相关技术的不断进步,数字人物技术也将得到不断的发展。 数字人物的运动机理与真实人物的生物解剖学是不相符的。他的动作是由骨架驱动的,而不是肌肉组织驱动。 这样,真实人物运动时全身肌肉的拉伸与隆起、皮毛的褶皱与交错等很平常的自然现象,在由数字技术制作的人物身上就都变成极其复杂而繁琐的事情,这要求工程师要了解掌握生物解剖学和雕塑艺术等相关知识,并通过平时的大量观察和生活积累,练就了较高的把握能力后。才有可能塑造出一个生动逼真具有生命质感的数字人。 在未来,人在打破物理成面的存在已不再是不可能,人人都可以有数字替身。次世代AI交互新场景无所不在。

返回顶部