消息 10月13日~15日,第二届中国广电媒体融合发展大会在北京国际饭店会议中心举行。本次大会由国家广播电视总局、北京市人民政府指导,中共北京市委宣传部、北京市广播电视局主办。
大会以“视听引领,融合未来”为主题,充分体现年度媒体融合政策趋势,围绕建设全程媒体、全息媒体、全员媒体、全效媒体,构建媒体+政务服务商务模式等热点话题进行讨论,为广电媒体融合的内容建设、技术创新、模式探索、产业发展提供有力支撑。
10月13日下午,第二届中国广电媒体融合发展大会的媒体融合视听新技术峰会:AI赋能新视界举行。腾讯云传媒物联新文创业务中心首席架构师曹飞发表题为《腾讯云智媒体AI中台助力网络视听数字化应用》的演讲。他指出,多模态内容理解智能应用引擎能覆盖从视频中看到的、听到的、提炼的、联想到的,抽象化标签内容智能提取;构建三大文本标签体系、六大视频标签体系、九大图像标签体系的全维度标签体系。
图:腾讯云传媒物联新文创业务中心首席架构师 曹飞
曹飞首先介绍了传媒+AI的五大要素:
1、应用场景。AI进入业务深水区:涉及智能感知、智能交互、智能决策等业务;场景更复杂,需要从单一模型到多模型配合。
2、A I运算对GPU资源的要求成本居高不下,AI算法服务高并发、高可用等要求。
3、数据。数据类型差异大,数据接入工作量大,建模有效数据积累不足;数据标注工作强度大、重复工作多、专业性强。
4、算法与模型。模型场景需求差异大,定制化建模成本高;模型部署后需持续迭代才能保证优异效果。
5、智能设备。设备厂商设备型号丰富,能力标准不统一;设备选型与算法的适配效果息息相关。
曹飞表示,目前已经通过AI的方式实现编目的分层和标签的提取,同时把这些标签和互联网的智能标签进行打通,向后延伸到了智能化数据提取之后的应用。实际业务中,有更多类别和垂类的标签建立出来,应用在业务之中。除了标签和编目之外,我们经常还会谈到拆条,以往我们说的是对新闻和能够片断化故事情节的内容进行拆条。现在通过分层分段很容易实现多方面内容的拆条。
除此之外,通过AI还可以做更多的事情。比如,特定区域亚像素级的跟踪,可以把虚拟的广告,贴到画面中,甚至替换原有的广告。这样的方式,可以通过高保真的替换和亚像素级的跟踪,将更多的广告内容衔接到每一个视频内容的方方面面。
综上所述,现在我们看到的AI实际业务应用是多算法组合,具备基于场景的算法编排处理。对于腾讯来说,不仅有各方面的算法支撑,同时也有一套完整的中台平台。通过TI-Matrix平台,实现从算法单一应用到算法场景化、流程化的编排来实现多业务系统调用。整个平台可以对算法进行管理,经过编排调用为业务服务。