一.引言
随着互联网等新媒体技术的发展,人们获取新闻资讯的方式,从传统的报纸、广播、电视向移动端的智能手机发展,广播节目作为传统的新闻资讯传播载体,也从原来的半导体收音机到车载收音系统、互联网、手机移动端等多种方式演变,这也让广播节目的展现方式有了更多的可能性。中国之声作为全天24小时不间断直播的中国新闻广播的第一品牌,在央视频上推出了直播间的视频慢直播,让听众在收听广播的同时,也可以通过手机等移动端设备观看到播音员在广播直播间里的直播工作情况。
二.创新和定位
较之传统的广播节目音频直播,融媒体视频直播间让广播直播更为生动,让听众不仅能听到主持人的声音,还可以看到主持人在直播间的工作状态,同时借助各个网络视频直播客户端的平台,广播直播的覆盖范围将更广。以央视频为例,广播电台可以借助其视频直播的网友评论功能有效弥补广播直播的局限性,与受众加强了互动沟通。因此,融媒体视频直播形式下,电脑、手机、车载广播用户可实现有效融合,观众在任何时间、任何地点,借助任何终端均可实时了解某一资讯或信息的动态,进而还可扩大广播电台的影响力。而广播节目的可视化得以实现,也使广播的传播力得到极大提高。
广播节目直播间的视频直播结合了传统媒体与新媒体的特点,弥补之间存在的差异,进而发现适应媒体融合的要求,具体分为:在传播渠道方面,众所周知新媒体的传播速度非常快,而传统媒体具体一定的局限性,只能通过固定的传播渠道进行传播 ;在信息交互能力方面,新媒体信息量大、信息交互成本低、互动性强,公众既可以是信息的接收者也可以是信息的制作传播者,而对于广播而言,互动的形式大多仅限于热线或者是观众的留言 ;在内容及公信力方面,新媒体的内容虽然层出不穷,但内容的真实性很难考证,存在着大量的虚假信息。对于传统媒体而言,多年来树立的正面引导舆论形象早已深深扎根于群众的思想当中,传统媒体发布的内容真实可靠。内容就是传统媒体的优势所在。因此广播节目直播间的视频直播创新点在于:建设了一套具备多元化生产传播能力、提高受众交互能力、促进节目形态和管理流程,发挥传统媒体内容价值的直播形式。
中国之声台内直播间的视频直播,是一种24小时的视频慢直播形式,采用非剪切、非加速的对现实场景的实时记录、等比播放和完整呈现,用户在这种更加贴近于真实场景的直播场域中,可以更加专注、真实地去体验慢直播中直播间播音员的工作状态。而对于重要时段重要场合的直播内容,节目组往往需要到前方现场,完成直播工作,这就需要在前方搭建临时直播席,而前方的视频直播工作也不仅仅是反应前方直播席的工作状态,而是尽可能多的将前方的现场情况与直播席播音员解说相结合,使得直播节目更加立体生动,增强用户的沉浸式体验。
中国之声台内直播间的视频直播
通过融入新媒体技术的手段,将后方的直播间挪到前方,将前方的视频画面,与直播间的主持讲解相结合。同时,与传统的音视频直播系统不同,将节目是制作也在前方完成,直接推流至服务器,在前方就完成了一整套的直播系统。直播过程中主持人用头戴式耳麦代替话筒架,遮挡主持人面部的问题得到彻底解决,让外出视频直播的可操作性大大提高。
三.应用
2021年9月中国之声在珠海第十三届中国航展现场进行直播节目,航展直播由于有地面装备演示、飞行特技的表演活动,为了更好的报道航展盛况,采用了音视频同步直播的方式,在传统广播的基础上,通过现场架设机位,对广播直播席,航展现场和空中特技飞行、动态武器表演进行了全方位的报道,使得中国之声的听众不仅听到专家的讲解,飞机的轰鸣,还可以看到高难度的飞行表演。
本次现场直播,是中国之声在台内视频慢直播基础上,首次在外场进行视频直播,技术人员通过反复调试,设置1路固定直播席机位,1路游机,1路公共信号的三路视频信号,为视频直播的切换做好准备。在地面装备演示区的直播席,由于位置限制,音频广播直播席经过反复调整,确定方案,将直播席与技术席分开放置,配合视频机位,1路摄像机拍摄动态展示区表演,一路固定机位拍摄直播席,另外还准备了Gopro摄像机作为应急全景画面。
由于既要完成音频的大广播直播,同时将音频信号与视频信号一起推流到央视频服务器。其中视频信号还要将飞行表演,直播席,以及航展现场的多场景进行切换,来配合主持人和嘉宾的现场讲解。技术团队采用可将多路信号源组合、编码、切换、录制和直播推流的视频编码器,这样就可以将视频的SDI、HDMI信号,与音频XLR信号,一起送到编码器,通过混合组合,将需要的场景进行切换,完成直播推流工作。同时编码器具备切换台功能,几个直播画面组合切换,并添加画中画效果,使得直播飞行表演的效果更佳。
航展视频直播设计思路
视频方面:由于现场直播空间有限,又要实现多讯道切换系统录制,技术团队采用一款多功能的实时编码工具,将公共信号的SDI信号,摄像机的HDMI,以及安全机位的HDMI信号一起送入编码器,同时将调音台输出的XLR音频信号送入编码器,通过笔记本电脑进入它的管理控制界面,设置视频编码器编码所需分辨率和推流地址及码率等。配置好用于导播切换的多层视频布局,每层一个SDI或HDMI视频信号,并将XLR音频配入其中。该编码器支持包括2各12G SDI接口、2个HDMI/DVI接口、2个4K HDMI/DVI接口,6路视频信号输入和2对立体声XLR平衡音频,1对立体声RCA非平衡音频信号输入接口,然后将信号源组合、编码、切换、录制并推流至CDN服务器。
直播过程中完成切换、编码、录制、推流等功能
音频方面:虽然视频编码器可以通过HDMI或SDI线缆同时传输视音频信号,但却声音内会多少有些夹杂环境声,造成音频不纯净。因此,通过现场的调音台输出了一对左右声道的立体声,经由视频编码器的平衡音频XLR输入音频,并在控制软件内部整合配置到指定视频通道,通过延迟功能及音量调节确保采集的声音是清晰无杂质的。这样的好处是在航展现场嘈杂的环境中,保证了广播音频信号高质量的送入视频,使得主持人和专家的讲解结合飞行表演,使受众有更好的感受。
编码器web切换台界面
中国之声航展直播界面
声画同步方面:系统搭建过程中,安装工程师把多路视频信号接入到切换系统,经切换系统处理后输出,耳麦作为音频信号源接入到调音台,通过调音台混音后输出,因此摄像机输出的视频信号和调音台输出的音频信号分别送入系统的PGM,会出现明显的声画不同步,原因在于视频、音频设备处理的时间长短不一致。经测算,视频处理时间比音频处理时间长接近100ms。切换系统自带音频延时调整(最多支持200ms),通过对音频延时调整后,切换系统的PGM带音频输出的声画不同步问题得以解决。
航展现场通过画中画切换功能实现直播席与陆地展示现场的变换
推流方式选择:在流媒体音视频传输协议中,常用的流媒体协议主要有RTSP协议、RTMP协议、UDP协议、HLS协议、SRT协议、NDI协议等。
RTSP协议:是最早的视频传输协议,RTSP是局域网实时流传输协议。是TCP/IP协议体系中的一个应用层协议,RTSP协议是对多应用程序如何有效地通过IP网络传送多媒体数据。
RTMP协议:来进行实时数据通信的网络协议,是互联网网络直播常用的传输协议,流媒体/交互服务器之间进行音视频和数据通信运行工作。
UDP协议:是用户数据报协议,主要用于不要求分组顺序到达的传输中,提供面向事务的简单不可靠信息传送服务。
HLS协议:协议是由苹果公司基于HTTP的流媒体网络传输协议,主要用于PC和Apple终端的音视频服务。类似于RTMP协议升级版。
SRT协议:基于UDT的基础上进行了一些扩展和定制, 具备网络传输丢包检测/延迟控制/视频加密功能。SRT协议网络直播互联网传输RTMP协议升级版本,该协议可以减少延迟,消除中心瓶颈,并降低网络成本。
NDI协议:是基于RTSP是局域网实时流传输协议升级版,NDI协议使视频兼容产品通过局域网进行视频共享的开放式协议,直接通过IP网络进行超低延时、无损传输、交互控制的标准服务;NDI支持一种访问机制,这种机制允许手动输入正在运行NDI源的其他子网上的计算机的IP地址。
本次直播技术团队采用的是RTMP协议推流,RTMP协议是要靠底层可靠的传输层协议(通常是TCP)来保证信息传输的可靠性的,RTMP用于在服务器和Flash播放器之间实时传输视频,音频和数据。同时RTMP 是目前应用较广的流媒体传输协议,广泛用于直播领域,目前在绝大多数的直播平台都采用支持这个协议。RTMP是专为流媒体开发的协议,对底层的优化比其它协议更加优秀;国内主流的CDN平台和OTT平台基本都支持RTMP,大部分的硬件或软件编码器也都支持RTMP推流格式;适合长时间播放,连续10天以上连续播放仍然比较稳定。
在每场60分钟,连续6天7场,总时长7个小时的直播过程中,通过飞行动态表演,航展现场展示,并与直播席主持人嘉宾讨论画面相结合,在央视频中国之声直播页多方位、全视角的展示了第十三届中国航展的现场情况。在直播推流过程中,通过对机位的切换,画中画展示,让观众在观看现场的同时,也看到中国之声主持人嘉宾的直播工作画面,直播期间做到音频信号安全稳定传输,视频播出画面流畅。
四.结语
现在网络技术和设备的发展,让轻量化广播的直播不仅可以听到声音,还可以看到影像,同时还可以交流互动,使传播更加立体,丰富受众的视听感受,也可以让听众去感受声音背后的电台故事。作为转播系统技术人员,要在传统转播系统和直播技术发展的结合上不断找到前行的平衡点及增长点,让广播看得见,推动广播节目更加丰富多彩的发展。