一种AR增强的游戏直播方法和系统转让专利
申请号 : CN201811181572.9
文献号 : CN109195020B
文献日 : 2021-07-02
发明人 : 汤宇超
申请人 : 三星电子(中国)研发中心 , 三星电子株式会社
摘要 :
权利要求 :
1.一种AR增强的游戏直播方法,其特征在于,包括:在直播前,客户端预先接收并存储游戏的静态模型数据;
采集模块收集游戏直播中的音视频数据,并进行编码,同时采集游戏直播中的动态模型数据;
采集模块将动态模型数据和音视频数据打包压缩后,通过网络传输给客户端;
客户端加载预先存储的静态模型数据,并结合接收到的动态模型数据进行AR渲染,实时显示游戏视频,并播放相应的音频。
2.根据权利要求1所述的方法,其特征在于,该方法还包括:预先对直播的3D游戏场景进行模型重构,转变为适宜通过AR显示的AR模型,所述静态模型数据和动态模型数据构成AR模型数据。
3.根据权利要求2所述的方法,其特征在于:所述动态模型数据包括:模型动态行为数据、坐标数据、状态数据;
所述静态模型数据包括:3D场景数据、人物模型数据。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述采集模块将动态模型数据和音视频数据打包压缩后,通过网络传输给客户端包括:采集模块将动态模型数据和音视频数据打包压缩后,向服务器推送打包压缩后的动态模型数据和音视频数据;
服务器收到采集模块推送的所述打包压缩后的动态模型数据和音视频数据后,推送给CDN节点,并由所述CDN节点继续推送到各个客户端,或者,服务器对接收到的所述打包压缩后的动态模型数据和音视频数据进行动态编码以适应不同的客户端需要,同时将所述打包压缩后的动态模型数据和音视频数据存储在云端数据库中,供客户端请求回看时调用播放。
5.根据权利要求3所述的方法,其特征在于,客户端进行AR渲染包括:客户端对接收到的静态模型数据、动态模型数据和音视频数据进行解码,同时利用客户端的摄像头获得现实场景,对现实场景进行分析,确定AR显示区域方向,建立三维坐标系,将解码后的AR模型在指定AR显示区域显示,同时播放直播视频和音频。
6.根据权利要求5所述的方法,其特征在于:解码分为音视频数据的解码和AR模型数据的解码,其中,AR模型数据的解码分为静态模型数据和动态模型数据的解码;在进行AR显示时,先渲染静态模型数据,再将动态模型数据叠加在静态模型数据上进行渲染显示。
7.根据权利要求4所述的方法,其特征在于,该方法还包括:进行用户交互操作,具体包括:调整客户端摄像头的拍摄位置,以调整AR模型的显示位置、角度,调整摄像头焦距,以调整AR模型的大小,利用客户端向服务器发出回看请求,调取存放在云端数据库中的所述打包压缩后的动态模型数据和音视频数据进行回看。
8.一种AR增强的游戏直播系统,其特征在于,包括:采集模块、传输模块和客户端模块,其中:
采集模块用于收集游戏直播中的音视频数据,并进行编码,同时采集游戏直播中的动态模型数据,将动态模型数据和音视频数据打包压缩后,推送给传输模块;
传输模块用于通过网络将采集模块所采集的打包压缩后的动态模型数据和音视频数据传输给客户端;
客户端在直播前预先接收并存储游戏的静态模型数据,在接收到传输模块的所述打包压缩后的动态模型数据和音视频数据后,加载预先存储的静态模型数据,并结合接收到的动态模型数据进行AR渲染,实时显示游戏视频,并播放相应的音频。
9.根据权利要求8所述的系统,其特征在于:所述采集模块包括:音视频采集模块、AR场景建模模块和数据压缩编码模块,其中:所述音视频采集模块通过麦克风和摄像头采集直播者的音视频数据;
所述AR场景建模模块将直播的3D游戏场景进行模型重构,转变为适宜通过AR显示的AR模型,模型重构包括:将静态模型和动态模型剥离,将静态模型的模型范围框选在一个合适的大小内,并分别渲染静态模型和动态模型;
所述数据压缩编码模块用于将音视频数据压缩编码成可通过网络传输的流媒体形式,并将AR模型的静态模型数据和动态模型数据分别压缩编码,最终将所述动态模型数据和音视频数据打包发送到传输模块。
10.根据权利要求8所述的系统,其特征在于:所述传输模块包括:直播服务器推流模块、实时转码服务模块、数据存储服务模块和视频分发服务模块,其中:
所述直播服务器推流模块的服务包括:将采集模块所采集的动态模型数据和音视频数据推送到服务器端,以及将服务器中的动态模型数据和音视频数据推送到各个视频分发服务模块;
所述实时转码服务模块用于满足不同平台的客户端需求,将数据转换成对应不同平台可解析的编码;
所述数据存储服务模块用于提供可回看的功能,将直播中采集的所述动态模型数据和音视频数据同步存储在数据库中,用户可根据自身需要调取相应的动态模型数据和音视频数据进行回看;
所述视频分发服务模块用于将缓存服务器分布到用户访问相对集中的地区或网络中,在用户访问网站时,利用全局负载技术将用户的访问指向距离最近的工作正常的缓存服务器上,由缓存服务器直接响应用户请求。
11.根据权利要求8所述的系统,其特征在于:所述客户端模块包括数据解码模块、场景标定模块、显示模块和AR交互模块,其中:所述数据解码模块对接收自传输模块的所述打包压缩后的动态模型数据和音视频数据进行解码,得到音视频数据和动态模型数据,动态模型数据发送给场景标定模块进行重构;
所述场景标定模块通过客户端模块的摄像头得到现实场景,再运用环境理解技术,对现实场景进行平面标定,如果现实场景中无平面,则标定在场景的中间位置或者由用户指定显示位置,所标定的区域用于显示AR模型,将模型叠加在现实场景中,最终交由显示模块进行显示;
所述AR交互模块用于接收用户操作,包括移动摄像头观看不同方位,调整摄像头远近用于放大缩小AR模型,当用户进行操作时,需要实时进行渲染,达到AR显示的稳定性。
说明书 :
一种AR增强的游戏直播方法和系统
技术领域
背景技术
直播平台不下百余家,其中最有名气的也有数十家,可谓是百花齐放。直播平台也催生出了
网红经济,依托网红庞大的粉丝群,创造了一个又一个的营销奇迹。网络直播主要涉及流媒
体技术,主要分为三大部分:音视频采集处理、视频网络传输协议和客户端播放器。本申请
主要关注点在3D游戏直播,因为游戏直播是网络直播中最重要的一块,且占比超过50%。
互动。增强现实技术不仅展现了真实世界的信息,而且将虚拟的信息同时显示出来,两种信
息相互补充、叠加。把真实世界与电脑图形多重合成在一起,便可以看到真实的世界围绕着
它。AR技术主要包含计算机视觉、三维配准、识别跟踪等技术。本申请主要涉及到3D游戏模
型重组、三维配准以及识别跟踪。
最终形成一套完整的从内容到传播再到盈利的良好生态链。直播平台的诞生催生了网红经
济,网红经济又将直播带上了新的台阶。
术有传输协议:RTP与RTCP控制指令、SIP和SDP等。播放方为不同平台的网络终端,主要涉及
视频解码和播放技术。这些技术相对成熟稳定。
术,是把原本在现实世界的一定时间空间范围内很难体验到的实体信息(视觉信息、声音、
味道、触觉等)通过电脑等科学技术,模拟仿真后再叠加,将虚拟的信息应用到真实世界,被
人类感官所感知,从而达到超越现实的感官体验。真实的环境和虚拟的物体实时地叠加到
同一个画面或空间同时存在。
育、工程、影视、娱乐等领域。
容采集方面还存在着不足之处。
可以匹配不同场景的AR游戏也是充满挑战性的。AR技术的另一个局限是,实时性差,因为在
渲染时需要大量的运算,所以在做大型实时游戏时,AR就显得不尽如人意。
发明内容
感受,同时为AR应用的发展提供新的思路和途径。
云端数据库中,供客户端请求回看时调用播放。
在指定AR显示区域显示,同时播放直播视频和音频。
据,再将动态模型数据叠加在静态模型数据上进行渲染显示。
调取存放在云端数据库中的数据进行回看。
戏视频,并播放相应的音频。
适的大小内,并分别渲染静态模型和动态模型;
传输模块。
存服务器上,由缓存服务器直接响应用户请求。
显示,AR模型数据发送给场景标定模块进行重构;
户指定显示位置,所标定的区域用于显示AR模型,将模型叠加在现实场景中,最终交由显示
模块进行显示;
观众的智能终端上,并通过AR方式显示出来。观众通过移动、旋转、缩放等方式控制终端来
观看游戏实况的局部或全局的任意角度,再配合以语音解说和玩家视频内容,观众可以更
好更全面地体验游戏直播,并且仿佛置身于游戏战场一般,沉浸感十足。
附图说明
具体实施方式
的方法,包括:内容采集端采用AR渲染游戏画面,将数据打包并通过网络传输到终端(也可
称为客户端),终端通过AR方式实时显示游戏画面,并播放音频。该方法能够让观众沉浸式
地体验游戏直播,直播效果更好。
容采集端将模型分为静态模型数据和动态模型数据,其中,静态模型(数据量较大)数据可
以在直播前预先传输到客户端,客户端可以本地存储这些数据。动态数据大都是游戏游玩
中产生的用户数据,如人物的移动,动作等数据,这些数据的数据量小,可以利用网络实时
传输,延迟很低。在客户端进行AR渲染时,加载预先存储的静态模型数据,并且配合网络传
输的动态模型数据,在数据渲染上可以做到实时性,技术难度也相较很低。这样就可以改进
AR实时渲染慢的问题。
一个合适的大小内,并分别渲染静态模型和动态模型。
直播服务器端。
是:本申请中的数据分为两种,一种是传统的音视频数据,另一种是AR模型数据,模型数据
中静态模型数据往往较大,但变化频率低,可以在其变化的时候进行传输;动态模型数据量
小,变化频率高,可以实时传输。动态模型数据可以包括:模型动态行为数据、坐标数据、状
态数据等;静态模型数据可以包括:3D场景数据、人物模型数据等。
各种缓存服务器,将这些缓存服务器分布到用户访问相对集中的地区或网络中,在用户访
问网站时,利用全局负载技术将用户的访问指向距离最近的工作正常的缓存服务器上,由
缓存服务器直接响应用户请求。
据。音视频数据可以直接在显示端显示,AR模型数据需要交给场景标定模块进行重构。
定显示位置。所标定的区域用于显示AR模型,将模型叠加在现实场景中,最终交由显示模块
进行显示。
交互模块进行的用户交互操作,具体可以包括:调整客户端摄像头的拍摄位置,以调整AR模
型的显示位置、角度,调整摄像头焦距,以调整AR模型的大小,利用客户端向服务器发出回
看请求,调取存放在云端数据库中的数据进行回看。
进行三维重建,最后根据数据解码模块解析得到的AR数据/视频数据、平面标定的结果、三
维重建得到的模型,将模型叠加在现实场景中进行渲染合成,并最终交由显示模块进行显
示。
具箱来标定。不仅可以标定出摄像头的内参数,还能标定出镜头畸变。该工具箱采用的是棋
盘格标定法。标定工作需要事先完成,否则无法进行三维重建。
幕上的一些十字光标与真实世界中的物体进行多次对齐,多次对齐需要通过手转动完成。
数据获取后,通过DLT方法构建方程组求解投影矩阵,下图5所示。
致,空间位置的不同,会导致遮挡发生变化。光照一致性是指渲染的虚拟物体怎样保持与真
实环境一致的光照效果,解决这个问题的途径是通过获得真实环境中的光源分布,然后在
虚拟世界中模拟该光照效果。
中活动。这样就可以很方便地区分静态模型和动态模型。同理,有固定大小场景的3D游戏
(如星际争霸,CS等)均可以套用。
家的游戏中收集。
频包括:G.711μ、AAC、Opus等,封装有MP3、OGG、AAC等。
RTSP等协议进行推送。RTMP协议是被Flash用于对象、视频、音频的传输。该协议建立在TCP
协议或者轮询HTTP协议之上。RTMP协议就像一个用来装数据包的容器,这些数据既可以是
AMF格式的数据,也可以是FLV中的视音频数据。一个单一的连接可以通过不同的通道传输
多路网络流,这些通道中的包都是按照固定大小的包传输的。
步是对这两部分数据分别进行解析,其中,音视频数据可以使用相关硬件或软件对接收到
的数据进行解码,得到可以直接显示的图像/声音,一般对应的编码器均带有相应的解码
器,也有一些第三方解码插件等。AR模型数据需要区分静态和动态两部分数据。
标。如果显示场景中无平面,则在场景的中间位置或者由用户指定位置建立对应的三维坐
标。
置就会随着终端前移而放大,同理,想观察全局时,则向后移动终端。如果想调整视角可以
通过左移或者右移终端来调节。
能,因此,需要用到云端存储。与上述实施例一类似的步骤不再赘述,具体步骤如下:
浸感十足。