一、视频纹理研究与实现(论文文献综述)
韩微[1](2021)在《基于图上信号处理的动态纹理分析方法研究》文中认为
代清[2](2021)在《大规模场景下海量视频的拼接与动态调度方法》文中研究说明随着现代数字化技术在安防领域应用的不断深入,三维地理信息系统与视频监控系统的集成成为当前热门研究方向。将视频图像融合到三维地理系统中,不仅可以定位视频地理位置,而且解决了视频分散独立、庞杂散乱、不直观的问题,可以对大场景进行空间动态全局管理。同时,视频监控在三维地理信息系统中加入了时间维度,将动态的真实世界的信息集成到静态的虚拟三维场景中。二者优势互补,可实现对三维空间的动态全局时空分析。然而当前大部分研究方法很少考虑视频的三维空间信息,导致三维视频融合效果较差。另外,目前大多数三维视频加载方法因空间裁剪等算法效率低,导致加载视频数量受限,无法承担大规模场景下视频监控动态管理的需求。针对多视频数量受限及拼接融合效果不佳的研究现状,本文围绕多路视频加载、视频与场景三维模型的融合方法展开,提出一种在GIS(Geographic Information System,地理信息系统)场景下基于八叉树索引和像素模式LOD(Levels of Detail,多细节层次)的海量视频调度方法,通过二维监控视频图像与三维模型的拼接融合,实现对大场景的全局管理,达到三维视频融合的效果。研究内容主要包含以下方面:(1)研究三维场景中多路视频的加载与调度方法。针对当前多视频数量受限的问题,提出基于八叉树索引和像素模式LOD的海量视频动态调度方法,实现在大规模三维场景下加载调度海量视频。为进一步提升渲染速度,利用文件映射存储海量视频节点。此外通过像素模式LOD模型对摄像机视锥体进行剔除,减少渲染数据量,以更好地提升视频流畅度。在实验阶段,本文方法实现70路视频的加载。(2)研究视频拼接与三维融合方法。针对当前拼接融合效果不佳的问题,提出利用摄像机内外部参数映射、监控摄像头姿态信息、摄像头实时监控视频流的解码与可视化,改进视频与三维场景的融合效果。在实验阶段,将本文融合方法与直接投影的方法进行比较,结果表明该方法在融合绘制效果和性能上更优。
杨昆[3](2021)在《基于学习的视频纹理分析和合成编码》文中研究指明随着电子技术的日益进步,高品质多媒体设备逐渐进入到人们的日常生活,高清和超高清数字视频内容也逐步得到普及,但是,海量的视频数据也随之出现,这给视频数据的存储和网络传输带来了巨大的压力。目前,高性能视频编码(High Efficiency Video Coding,HEVC)是采用最为广泛的新一代视频编码标准,该标准采纳了大量的新技术,相比于上一代视频编码标准(H.264/AVC),它能够在相同主观质量的情况下节省大约一半的码率。即便如此,现有技术的视频压缩率和视频压缩需求之间仍然存在着巨大的鸿沟。因此,如何设计更加高效的视频压缩方法是目前视频编码领域面临的严峻挑战。传统的视频编码方案通常采用基于预测/变换的混合编码框架,利用灵活的块划分技术将输入图像/视频划分为树形结构单元,并基于信号在该单元内是平稳信号的假设,以牺牲复杂度为代价从多种编码模式中选择最优模式对其进行压缩编码。数十年来,该编码方案一直是基于香农信息论,从信号处理的角度,不断对标准中的技术进行微调。然而,自然视频内容的统计特性十分复杂,它往往在纹理、边沿等内容处展现出非平稳的信号特性,传统编码方法无法高效地对其进行压缩,因此,该部分内容在编码中往往需要耗费大量的比特数。但是,另一方面,人眼通常对该部分内容并不敏感,其内容即使存在细微的差异也不会被察觉;与此同时,深度学习技术在众多计算机视觉任务中展现出了非常强大的学习能力,并且也在视频编码领域取得了巨大的成功。因此,本工作主要的研究内容是如何利用深度学习技术并结合传统的经典视频编码技术来进一步提高视频纹理内容的压缩效率。论文的主要工作和创新如下:(1)本文针对静态纹理内容提出了一种基于深度学习非线性变换的编码方案。首先,本文设计了一个基于深度学习的非线性变换神经网络模型,并将其成功集成到现有的帧内编码框架之中;其次,本文提出可以利用帧内预测信息去除帧内预测残差中的方向性信息,以此提高变换的性能;再次,本文提出利用变换增益作为神经网络的损失函数以及针对变换系数的TopK训练方法,提高变换系数的能量压缩效果,进而降低编码变换系数所需的比特数。实验结果表明,本文提出的基于深度学习的非线性变换方案相比传统方法可以明显提升视频中纹理内容区域的编码性能。(2)本文针对视频中的动态纹理内容提出了一种动态纹理检测方案。首先,本文提出了一种基于运动方向直方图的动态纹理检测算法,该方法简便快捷并已经成功集成到视频编码框架中;其次,本文基于动态纹理内容之间的时空相关性,提出了一种对动态纹理检测结果的优化方案,以此提高动态纹理检测结果的准确度。实验结果表明,本文提出的动态纹理检测方案能够在满足编码需求的情况下快速准确地检测出自然视频中的动态纹理内容。(3)本文针对视频中的动态纹理内容编码提出了一种基于动态纹理检测合成的视频编码方案。首先,本文设计了一种利用时空域信息来进行动态纹理合成的生成对抗网络模型,提出了利用空域判别网络和时域判别网络增强合成结果的空域真实性和时域连贯性的方法;其次,本文提出一种结合动态纹理检测以及动态纹理合成的视频编码方案,并将该编码方案成功集成到帧间编码模块中,大大提升了纹理内容视频的编码效率;最后,本文采集并构建了动态纹理视频训练(验证)数据集用于神经网络的训练,并建立了动态纹理编码测试序列视频数据集用于动态纹理内容编码的研究。实验结果表明,本文提出的基于动态纹理检测和合成的视频编码方案能够显着提升动态纹理视频内容的编码效率。
易慧敏[4](2021)在《基于深度网络的动态纹理长周期生成方法研究》文中研究指明动态纹理是计算机视觉中的动态模型之一。它在空间范围内具有统计平稳性,在时间维度上具有随机重复性。动态纹理生成的目的是合成视觉上类似于给定纹理的图像。针对动态纹理长周期生成的难题,本文利用深度网络在特征提取和时间序列预测中的优势,对动态纹理非线性建模和高质量动态纹理生成方法进行了研究。本文首先对卷积自编码器进行了优化,设计了一种基于多尺度卷积自编码器的动态纹理建模方法。对于不同的动态纹理,在建模时需要关注的信息是不同的,基于传统卷积自编码器的建模方法可能会造成局部信息的丢失。本文模型在原有的解码部分设计了多个中间层用于拟合编码部分的信息,并将这些中间层与解码部分原有的信息进行融合,从而减少下采样操作造成的信息损失。与只使用输入数据与输出数据的差值作为损失函数的传统卷积自编码器不同,此模型通过计算多个层次的误差来优化损失函数,它在对动态纹理建模时能够兼顾纹理的全局特征和细节信息。在动态纹理长周期生成过程中,预测误差的积累是导致纹理质量下降的关键。本文提出了一种基于自纠正机制的动态纹理生成模型。首先,利用清晰度、结构相似性、光流等指标来确定优化数据范围,并找到优化极值点。随后,通过自纠正机制,将原始数据替换为优化数据,并利用优化后的数据进行预测。最后,使用多尺度卷积自编码器将预测数据重构为高维动态纹理视频帧。本文在标准的动态纹理数据集上进行了实验,并与几种典型的动态纹理生成模型进行了比较。实验结果表明,使用该模型生成的动态纹理序列与真实动态纹理序列计算得到的均方误差数值更小,峰值信噪比和结构相似性的数值更大。它解决了动态纹理长周期预测中出现的残影、模糊、噪声等问题,且使用该模型生成的动态纹理序列具有最好的综合效果。同时,验证了所提出的建模方法的有效性。
陶浩然[5](2021)在《基于VVC的视频帧内预测编码技术研究》文中指出为了满足人们不断增长的对高质量低码率视频的需求,研究新一代视频编码标准取代HEVC(High Efficiency Video Coding)是重要途径。而VVC(Versatile Video Coding)作为新一代多功能视频编码标准,它拥有比HEVC更广泛的应用场景。VVC为了提高编码质量,在各个模块增加了多种核心技术。但是,新增的技术会导致VVC存在编码计算复杂度高、编码时间长等问题。本课题目的就是提高VVC编码速度,以拓宽VVC应用领域。VVC依然采用混合编码框架。本论文主要研究框架中的帧内编码技术。由于在VVC帧内块划分中,现有算法没有充分利用空域信息;而在VVC模式决策上,复杂度依然较高,仍存在优化空间。针对上述问题,本文在VVC编码标准的编码块划分以及模式抉择任务中做了深入研究,主要工作如下:(1)概况性地阐述了视频编码发展过程以及技术研究现状,描述了VVC的编码框架及相应的编码原理。详细分析了帧内预测编码的编码块划分和模式预测过程,为本文的深入研究奠定框架基础。(2)编码块划分中,为了降低VVC帧内预测编码单元划分的计算复杂度,提出了基于梯度幅值相似度的编码块快速划分方法。首先,计算当前编码单元下层的四个子编码单元平均梯度幅值相似度偏差来确定当前编码单元进行四叉树划分或不划分。其次,当不满足以上划分条件时,通过遍历得到多类型树划分的子块像素方差的方差,基于此信息来选择多类型树中最佳的划分方式,避免了原划分方式中六种固定类型划分情形。(3)模式抉择中,在统计分析编码块模式决策过程的规律基础上,提出了一种基于梯度方向信息的帧内预测模式快速抉择算法。利用图像块纹理像素特征,将VVC帧内的67种模式划分为四个方向的模式集,通过判断当前块的纹理方向值将其归类,减少进入VVC粗选阶段的模式数量,进而提高了抉择速度。通过实验结果验证了本文算法性能的优劣。与标准测试模型7.0(VVC Test Model,VTM)编码器原有算法相比,在视频序列的全帧内编码时,本文所提算法在保证图像质量基本不变下,减少了57.91%的时间消耗,而码率只上升了1.79%。
李雨思[6](2021)在《基于音频驱动的视频生成设计与实现》文中研究表明人脸作为人类最具表现力和个性化的外在特征,是人们在相互沟通交流过程中用来表达情感的直接载体。面部表情和唇部姿态相结合,可以传递更多有效的信息,从而大幅度提升人们对语言的理解。口型与语音的同步很大程度上决定了人脸动画的优劣,所以借助音频中讲话人的音调、情感等因素,可生成逼真自然的人脸说话视频。音频驱动的人脸视频生成技术可以提高在线教育辅导、媒体新闻播报、影视剧编辑修正、大型三维游戏制作等方面的制作效率,提升用户视听层面的感受,为制作方和用户双方节省不必要的时间开销。因此,基于音频驱动人脸视频生成技术是目前比较具有现实意义和价值的研究。针对以上背景,本文将基于音频驱动的视频生成方法进行研究与设计,人脸说话视频包含三个流程模块,分别为:基于弱监督学习的三维人脸重构、基于音频驱动的人脸图像生成以及基于音频驱动的视频生成,使生成的人脸说话视频具备音视同步且人脸逼真自然的效果。论文主要完成以下工作:1.研究三维人脸重构方法,基于弱监督学习设计并实现输入人脸的三维人脸重构,此方法不使用额外的标签信息,将检测得到的人脸关键点位置信息作为弱监督信号,通过对参数提取网络的学习训练,最终得到与输入图像相似的三维人脸图像。2.研究音频信息与人脸图像间的相关性,设计并实现了基于音频信息到人脸表情和姿态参数的映射网络,该网络采用长短期记忆网络的原理,使参数间的映射更加准确。将得到的人脸表情和姿态参数与保存的三维人脸参数相融合,最终生成含有目标口型的人脸图像。3.研究人脸图像与视频帧背景间的匹配方法,提出一种可保证生成视频中含有自然人脸姿态的背景帧匹配方法,可对输入视频中局部人脸姿态进行保留,使生成的人脸视频帧足够自然。4.研究人脸视频生成方法,基于生成对抗网络的原理,提出一种可针对局部图像进行风格迁移的网络模型及损失函数,使生成的人脸视频帧自然逼真,生成的人脸视频流畅清晰。
刘慧超,王志君,梁利平[7](2020)在《基于纹理特性的能量差调制视频水印算法》文中研究指明针对现有视频水印算法复杂度高、鲁棒性差的问题,提出一种基于残差纹理特征的能量差调制视频水印算法.该算法首先利用视频编码过程得到的残差DCT系数进行区域纹理强度建模,然后依据纹理强度对DCT中高频系数的能量进行自适应调制实现水印的嵌入.算法在不引入额外复杂计算过程的条件下,针对不同区域自适应地嵌入不同强度的水印信息,保证视频质量的同时提高水印的鲁棒性.算法以H.264/AVC视频编解码器为测试实例,实验结果表明,本文提出的水印算法在保证视频质量和编码码率的情况下,对重编码、滤波和噪声等攻击具有很好的鲁棒性,水印提取过程满足盲检测应用需求.
刘慧超,王志君,梁利平[8](2020)在《融合视频编码的低复杂度纹理自适应视频加密算法》文中提出针对现有视频加密算法复杂度高的问题,提出一种低复杂度的纹理自适应视频加密算法。该算法直接利用视频编码DCT系数和运动矢量建立阈值自适应的纹理估计模型,以此检测视频纹理区域并进行加密。考虑到视频编码效率和格式兼容性,选择纹理区域的DCT系数符号和MVD符号进行加密。该算法以应用广泛的H.264/AVC视频编解码器为验证平台,实验结果表明,该文提出的加密算法在确保视频内容安全性和压缩编码效率的同时,加密算法复杂度降低,待加密数据量减少。与现有纹理检测模型相比,该文纹理检测算法复杂度低,能够适用于实时性视频加密应用场景。
刘美月[9](2020)在《面向大范围视觉监控的增强虚拟可视化技术研究》文中研究说明新世纪以来,视频监控广泛用于人们的日常生活,但是传统的摄像机拍摄范围有限,造成监控资源的浪费,并且拍摄场景多是单摄像机的二维图像数据,缺少立体场景的可视化监控效果。视频增强虚拟环境(AVE)将实时视频与三维虚拟场景相融合,既能将时间和空间的一致性发挥最大优势,它还能最大限度地扩展和应用视频分析的结果并得到充分的理解,在政府部门、交通站点、社会保障等方面具有广阔的发展空间和应用价值。将监控视频图像融合到三维虚拟场景中的前提是已知真实摄像机在三维虚拟场景中的位姿参数。通过人工标注是摄像机位姿求解的常用方法,但是这种方法不仅费时费力,在对于真实场景中摄像机需要调整姿态的前提下也很难应用此方法。大多数摄像机都有自动调整姿态的功能。除非得到厂商软件的支持,否则无法实时获取摄像机调整后的姿态信息,导致监控视频与三维虚拟场景无法准确实时地融合。本文在已有的三维虚拟场景基础上,对实时监控视频与三维虚拟场景融合面向大范围视觉监控的增强虚拟可视化技术研究。作者完成的主要工作与成果如下:(1)对特殊情况下摄像机参数发生变化进行分析,提出了对摄像机进行实时监测和实时位姿估计的方法。该方法采用全局特征的颜色直方图快速检测摄像机参数是否发生改变,然后提出了 MSORB(多尺度ORB)算法和快速GMS算法实时获取摄像机参数进行精确的局部特征提取和匹配。MSORB算法采用B样条函数生成尺度空间来提取不同尺度空间的特征点,具有运算速度快和图像旋转不变性,提高了特征点的数量和检测精度。为了优化匹配结果,提高匹配速度,实验研究提出快速GMS算法即采用四近邻的五宫格运动统计方案进行优化匹配,确保摄像机参数变化后的监控视频与三维虚拟场景实时自动融合,避免人工的繁琐操作和滞后性。(2)在摄像机位姿参数已知情况下,本文分析了二维视频图像在三维虚拟场景中所应该对应的映射区域,并采用改进的Shadow Map算法解决监控视频图像视角和三维虚拟视角之间的可见性映射不一致导致的问题,以确定二维视频图像在三维虚拟场景中的正确的映射区域,使得三维虚拟场景得到正确的监控视频纹理。针对多路摄像机,提出将多路视频与三维场景模型进行拼接融合操作的方法。在基于三维渲染引擎和GPU Shader技术的基础上,实现将实时监控视频图像与三维虚拟场景逐像素的实时融合。本文实验证明了方法的有效性和实用性,实现了大范围视觉监控可视化,有利于监控人员对监控视频情况进行分析和处理,有助于增强视频虚拟环境的应用空间。
姚奕杰[10](2020)在《鱼眼相机的标定与视频增强场景方法的研究》文中研究说明随着虚实融合技术的发展,利用视频图像对三维场景进行增强显示,使得静态的模型能实时反映真实世界的变化,对于安防以及智能交通等领域具有重要意义。鱼眼相机与普通相机相比具有更大的视角,采集到的视频信息也更加丰富,因此被广泛应用于室内场景监控中。由于鱼眼视频中存在着非常大的畸变,目前视频增强场景的算法很难将鱼眼视频与三维模型准确贴合,针对这一问题,本文对现有的视频增强场景算法进行了改进,实现了鱼眼视频与三维模型的准确贴合。在进行视频增强场景之前需要对鱼眼相机进行标定,现有的鱼眼相机标定方法一般需要借助标定板,或者需要把相机拆下来,最后在实验室环境下才能实现标定,需要严格的标定条件以及标定环境,难以实现在不同环境下对鱼眼相机进行标定。为了解决这些问题,本文对鱼眼相机标定方法进行改进,实现了鱼眼相机快速简便的标定。本文的研究内容与成果主要包括:(1)基于遗传算法的鱼眼相机标定算法,该算法通过圆检测算法得到像主点坐标,再利用遗传算法来求解鱼眼图像的畸变系数,通过论证发现鱼眼的球面投影模型可以转换为透视投影模型,所以再将鱼眼图像转为正常的不含畸变的图片,接着利用特征点的世界坐标以及图像坐标根据两步法来进行标定。虽然该方法在精度上低于基于标定板的鱼眼相机标定方法,但是该方法可以不借助标定板来实现鱼眼相机的标定,应用场景更加广泛。(2)鱼眼视频增强场景算法,利用鱼眼相机标定参数,在Open GL三维场景中构建虚拟相机,然后借鉴了Shadow Map算法的思想对鱼眼视频纹理进行映射。在着色器中进行纹理替换之前,先对图像进行畸变校正,把图像坐标进行逆投影得到世界坐标,然后再对世界坐标按照球面投影模型进行重投影,重投影时加入畸变矫正,便得到矫正之后的图像坐标,利用矫正后的坐标从鱼眼图像取出对应的RGB进行纹理替换,使得鱼眼图像与模型贴合的更加准确。
二、视频纹理研究与实现(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、视频纹理研究与实现(论文提纲范文)
(2)大规模场景下海量视频的拼接与动态调度方法(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 三维视频融合和LOD国内外研究现状 |
1.2.1 三维视频融合的研究现状 |
1.2.2 LOD技术研究现状 |
1.3 主要研究内容 |
1.4 论文结构 |
第二章 海量视频拼接与动态调度的相关理论 |
2.1 OSG渲染流程 |
2.1.1 图形渲染管线 |
2.1.2 图形顶点变换 |
2.1.3 图形光栅化和片段化操作 |
2.1.4 视频影像的三维渲染流程 |
2.2 图像拼接的相关理论 |
2.2.1 图像拼接流程 |
2.2.2 SURF配准算法 |
2.2.3 图像融合技术 |
2.3 本章小结 |
第三章 基于像素模式LOD的海量视频动态调度方法 |
3.1 三维GIS下海量视频动态调度的难点 |
3.2 基于像素模式LOD的多码率视频调度方法原理 |
3.2.1 海量视频节点的八叉树划分与视频文件组织结构 |
3.2.2 视频节点多码率LOD模型的构建 |
3.2.3 基于像素LOD的多码率视频内外存调度渲染方法 |
3.3 基于FFmpeg的多码率H.264视频的生成 |
3.3.1 基于限制码率(CRF)模式的多码率视频的生成 |
3.3.2 基于两遍平均码率(2PASS-ABR)模式的多码率视频生成 |
3.3.3 限制码率(CRF)模式与两遍平均码率(2PASS-ABR)模式的区别 |
3.3.4 三维GIS中视频播放的实现 |
3.4 像素模式LOD的多码率视频调度的实现 |
3.4.1 基于八叉树索引的视频数据的构建 |
3.4.2 各LOD层级的多码率视频的生成 |
3.4.3 基于像素模式的视频节点LOD模型的构建 |
3.5 实验结果与分析 |
3.5.1 计算机参数、环境及实验评价标准 |
3.5.2 ABR、2PASS-ABR与3PASS-ABR编码模式的性能对比 |
3.5.3 2PASS-ABR模式与CRF模式编码的性能对比 |
3.5.4 基于像素模式LOD的多码率视频调度 |
3.6 本章小结 |
第四章 大规模场景下视频拼接融合方法 |
4.1 三维模型与视频的融合原理 |
4.1.1 三维模型建模 |
4.1.2 摄像机标定 |
4.1.3 视频图像的拼接与融合 |
4.2 三维GIS场景下视频拼接融合的实现 |
4.2.1 视频监控摄像头的布局 |
4.2.2 视频静帧图像拼接 |
4.2.3 模型晶格变形 |
4.2.4 RTSP流视频接入 |
4.2.5 基于八叉树索引像素LOD的海量视频监控的调度方法 |
4.3 实验结果与分析 |
4.3.1 视频拼接融合实验 |
4.3.2 大规模场景下海量监控视频融合与调度实验 |
4.3.3 三维GIS平台下视频融合的实现 |
4.4 本章小结 |
第五章 总结与展望 |
参考文献 |
致谢 |
攻读硕士期间发表的论文 |
(3)基于学习的视频纹理分析和合成编码(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 研究历史和现状 |
1.2.1 静态纹理内容压缩 |
1.2.2 动态纹理内容分析与合成 |
1.3 论文主要工作及内容安排 |
第二章 数字视频基础知识 |
2.1 视频压缩原理及主要技术 |
2.1.1 视频压缩原理 |
2.1.2 视频压缩主要技术 |
2.2 HEVC简介 |
2.2.1 HEVC编码框架 |
2.2.2 块划分 |
2.2.3 帧内预测 |
2.2.4 帧间预测 |
2.2.5 变换 |
2.2.6 量化 |
2.2.7 熵编码 |
2.3 深度学习基础 |
2.3.1 卷积神经网络 |
2.3.2 生成对抗神经网络 |
2.4 人类视觉系统和质量评价准则 |
2.4.1 人类视觉系统 |
2.4.2 质量评价 |
第三章 基于深度学习的静态纹理高效变换编码 |
3.1 研究简介 |
3.1.1 研究动机 |
3.1.2 主要贡献 |
3.2 基于深度学习的静态纹理高效变换编码框架 |
3.3 网络结构 |
3.3.1 方向信息模块 |
3.3.2 变换模块 |
3.4 网络训练 |
3.4.1 损失函数 |
3.4.2 模型训练 |
3.5 实验结果及其分析 |
3.5.1 实现及实验配置 |
3.5.2 编码性能实验结果及分析 |
3.5.3 验证实验结果及分析 |
3.5.4 实验结果总结 |
3.6 本章小结 |
第四章 基于运动方向直方图的动态纹理的检测技术 |
4.1 动态纹理分析概述 |
4.1.1 研究动机 |
4.1.2 动态纹理检测技术 |
4.1.3 本章贡献 |
4.2 动态纹理检测技术框架及其在编码中的应用 |
4.2.1 动态纹理检测技术框架 |
4.2.2 基于动态纹理检测的编码框架 |
4.3 基于运动方向直方图的动态纹理的检测技术 |
4.4 实验结果 |
4.4.1 动态纹理检测实验结果 |
4.4.2 动态纹理检测在视频编码中的验证 |
4.5 实验结果总结 |
4.6 本章小结 |
第五章 基于动态纹理分析与合成的动态纹理编码 |
5.1 动态纹理分析与合成的动态纹理编码技术概述 |
5.1.1 研究动机 |
5.1.2 现有的动态纹理分析与合成的动态纹理编码技术 |
5.1.3 本章贡献 |
5.2 动态纹理分析与合成的动态纹理编码框架 |
5.3 动态纹理分析与合成的动态纹理编码技术 |
5.3.1 网络结构 |
5.3.2 生成网络 |
5.3.3 判别网络 |
5.3.4 损失函数设计 |
5.4 基于动态纹理分析和合成的编码方案的集成 |
5.5 实验结果及分析 |
5.5.1 数据集 |
5.5.2 网络训练 |
5.5.3 损失函数和网络结构验证 |
5.5.4 压缩性能 |
5.5.5 主观实验 |
5.5.6 实验小结 |
5.6 本章小结 |
第六章 总结与展望 |
6.1 论文总结 |
6.2 未来展望 |
参考文献 |
致谢 |
在读期间发表的学术论文与取得的研究成果 |
(4)基于深度网络的动态纹理长周期生成方法研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 研究现状分析 |
1.2.1 基于参数方法的动态纹理生成 |
1.2.2 基于非参数方法的动态纹理生成 |
1.3 本文主要工作及创新点 |
1.4 论文的组织结构 |
第2章 相关方法及理论介绍 |
2.1 动态纹理视频帧质量评价方法 |
2.1.1 全参考 |
2.1.2 半参考 |
2.1.3 无参考 |
2.2 动态纹理建模及生成基础模型 |
2.2.1 自编码器 |
2.2.2 卷积神经网络 |
2.2.3 循环神经网络 |
2.3 本章小结 |
第3章 基于多尺度卷积自编码器的动态纹理建模 |
3.1 多尺度卷积自编码器模型 |
3.2 模型优化 |
3.2.1 多尺度结构设计 |
3.2.2 损失函数 |
3.3 实验结果及分析 |
3.3.1 实验数据集 |
3.3.2 实验结果对比 |
3.4 本章小结 |
第4章 基于自纠正机制的动态纹理生成 |
4.1 自纠正动态纹理生成模型设计 |
4.2 自纠正方案设计 |
4.3 实验结果及分析 |
4.4 本章小结 |
第5章 总结与展望 |
5.1 本文工作总结 |
5.2 后续工作展望 |
致谢 |
参考文献 |
附录1 攻读硕士学位期间发表的论文 |
附录2 攻读硕士学位期间参加的科研项目 |
硕士学位论文(大摘要) |
(5)基于VVC的视频帧内预测编码技术研究(论文提纲范文)
摘要 |
abstract |
1 绪论 |
1.1 课题研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 视频编码标准的探索历程 |
1.2.2 H.266/VVC研究现状 |
1.3 本文的主要研究和创新内容 |
1.4 本文的章节安排 |
2 多功能视频编码标准H.266/VVC |
2.1 引言 |
2.2 H.266/VVC编码框架 |
2.3 H.266/VVC关键帧内预测技术 |
2.4 实验条件和评价指标 |
2.4.1 客观评价指标 |
2.4.2 标准测试配置 |
2.5 本章小结 |
3 帧内编码块划分算法优化 |
3.1 引言 |
3.2 编码块四叉树及多叉树划分 |
3.2.1 块划分 |
3.2.2 块划分过程及复杂度分析 |
3.3 基于梯度幅值偏差的帧内编码块划分快速决策 |
3.3.1 梯度幅值偏差 |
3.3.2 基于梯度幅值偏差的块划分决策 |
3.3.3 实验结果分析 |
3.4 本章小结 |
4 帧内预测模式抉择算法优化 |
4.1 引言 |
4.2 帧内预测模式选择过程及复杂度分析 |
4.2.1 帧内预测模式抉择过程 |
4.2.2 帧内预测模式抉择复杂度分析 |
4.3 基于梯度方向信息的帧内模式快速抉择算法 |
4.3.1 帧内模式统计分析 |
4.3.2 基于梯度方向信息的模式抉择算法 |
4.3.3 算法实现流程 |
4.3.4 实验结果分析 |
4.4 本章小结 |
5 总结与展望 |
5.1 全文总结 |
5.2 不足与展望 |
致谢 |
参考文献 |
攻读学位期间取得的研究成果 |
(6)基于音频驱动的视频生成设计与实现(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究历史及现状 |
1.2.1 三维人脸动画研究历史及现状 |
1.2.2 基于语音生成人脸图像研究历史与现状 |
1.2.3 基于音频生成高质量视频研究历史与现状 |
1.3 本文主要贡献及创新 |
1.4 本文组织结构 |
第二章 理论基础及相关技术 |
2.1 三维人脸重构算法 |
2.1.1 基于3DMM的三维人脸重构算法 |
2.1.2 基于弱监督学习的三维人脸重构算法 |
2.2 人脸动画生成原理 |
2.2.1 基于图像驱动生成人脸动画 |
2.2.2 基于音频驱动生成人脸动画 |
2.2.3 基于关键点驱动生成人脸动画 |
2.3 深度生成模型 |
2.3.1 生成对抗网络 |
2.3.2 深度卷积生成对抗网络 |
2.4 本章小结 |
第三章 基于弱监督学习的三维人脸重构 |
3.1 基于音频驱动的视频生成总体流程设计 |
3.2 研究思路 |
3.3 BFM2009 介绍 |
3.4 三维人脸重构流程 |
3.5 三维人脸重构模型 |
3.5.1 参数模型 |
3.5.2 网络模型 |
3.5.3 损失函数 |
3.6 实验测试 |
3.6.1 实验数据集 |
3.6.2 训练细节 |
3.6.3 三维人脸重构结果 |
3.7 本章小结 |
第四章 基于音频驱动的人脸图像生成 |
4.1 研究思路 |
4.2 音频到人脸参数映射流程 |
4.3 音频特征提取 |
4.4 音频到人脸参数映射 |
4.4.1 映射网络设计 |
4.4.2 损失函数 |
4.5 人脸图像渲染 |
4.6 实验测试 |
4.6.1 实验数据集 |
4.6.2 音频信息与人脸姿态的相关性测试 |
4.6.3 目标人脸图像生成结果 |
4.7 本章小结 |
第五章 基于音频驱动的视频生成 |
5.1 研究思路 |
5.2 目标视频生成流程 |
5.3 目标口型替换 |
5.4 目标视频生成网络设计 |
5.4.1 生成器 |
5.4.2 判别器 |
5.4.3 损失函数 |
5.5 实验测试 |
5.5.1 实验环境 |
5.5.2 实验数据集 |
5.5.3 训练细节 |
5.5.4 目标视频生成结果 |
5.6 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 未来工作 |
致谢 |
参考文献 |
攻读硕士学位期间取得的成果 |
(7)基于纹理特性的能量差调制视频水印算法(论文提纲范文)
1 融合水印技术的视频编码器架构 |
2 基于纹理特性的能量差调制水印算法 |
2.1 基于残差DCT系数的纹理判定模型 |
2.2 基于能量差调制的水印嵌入算法 |
2.3 基于能量差调制的水印提取算法 |
3 实验结果与分析 |
3.1 纹理门限对视频水印性能的影响分析 |
3.2 水印算法性能比较 |
4 结论 |
(9)面向大范围视觉监控的增强虚拟可视化技术研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 相关技术现状 |
1.2.2 相关技术内容现状 |
1.3 研究内容与章节安排 |
1.3.1 主要研究内容 |
1.3.2 论文组成结构 |
第2章 摄像机在三维场景位姿估计的基本原理 |
2.1 摄像机模型 |
2.2 成像模型过程分析 |
2.2.1 三维虚拟场景的成像过程 |
2.2.2 视频摄像机的成像过程 |
2.2.3 成像一致性分析 |
2.3 摄像机在三维场景中的初始位姿估计 |
2.3.1 摄像机参数线性求解 |
2.3.2 摄像机非线性优化 |
2.4 本章小结 |
第3章 摄像机在三维场景中的实时位姿估计 |
3.1 基于全局特征的图像快速检测 |
3.2 基于局部特征的配准 |
3.2.1 MSORB算法特征点提取 |
3.2.2 GMS优化匹配 |
3.3 摄像机实时位姿估计 |
3.3.1 摄像机标定 |
3.3.2 参数变化类型 |
3.3.3 外参变化 |
3.4 实验结果 |
3.5 本章小结 |
第4章 视频图像与三维场景的融合 |
4.1 融合原理 |
4.1.1 确定映射区域 |
4.1.2 Shadow Map算法 |
4.2 融合算法的实现 |
4.3 多路视频纹理融合 |
4.4 实验结果 |
4.5 本章小结 |
第5章 实际应用及分析 |
5.1 关键技术方案流程 |
5.2 软硬件平台与实验数据 |
5.3 关键技术效果分析 |
5.4 本章小结 |
第6章 结论与展望 |
6.1 本文主要工作 |
6.2 未来研究期望 |
参考文献 |
致谢 |
作者简历及攻读学位期间发表的学术论文与研究成果 |
(10)鱼眼相机的标定与视频增强场景方法的研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 选题背景及研究意义 |
1.1.1 选题背景 |
1.1.2 研究意义 |
1.2 国内外研究现状 |
1.2.1 鱼眼相机标定技术 |
1.2.2 视频增强场景技术 |
1.2.3 研究现状小结 |
1.3 研究目标与研究内容 |
1.3.1 研究目标 |
1.3.2 研究内容 |
1.4 技术路线 |
1.5 论文结构 |
第2章 鱼眼相机成像基本理论 |
2.1 鱼眼相机成像模型 |
2.1.1 体视投影模型 |
2.1.2 正交投影模型 |
2.1.3 等立体角投影模型 |
2.1.4 等距投影模型 |
2.2 鱼眼相机畸变分析 |
2.2.1 畸变产生的原因 |
2.2.2 畸变的分类 |
2.2.3 畸变模型 |
2.3 基于标定板的鱼眼相机标定方法 |
2.3.1 角点检测 |
2.3.2 内外参求解 |
2.3.3 LM算法优化相机参数 |
2.4 实验验证 |
2.5 分析讨论 |
2.6 本章小结 |
第3章 基于遗传算法的鱼眼相机标定方法 |
3.1 实现思路 |
3.2 基于遗传算法的鱼眼相机标定 |
3.2.1 像主点的获取 |
3.2.2 基于遗传算法的畸变系数获取 |
3.2.3 鱼眼图像转为透视投影图像 |
3.2.4 两步法标定与误差分析 |
3.3 实验验证 |
3.4 分析讨论 |
3.5 本章小结 |
第4章 鱼眼相机视频增强场景方法 |
4.1 实现思路 |
4.2 鱼眼视频增强场景算法 |
4.2.1 畸变校正 |
4.2.2 视频增强场景 |
4.3 实验验证 |
4.4 分析讨论 |
4.5 本章小结 |
第5章 原型系统设计与实现 |
5.1 系统实现环境 |
5.2 系统功能模块设计 |
5.3 系统运行实例 |
5.3.1 基于标定板的鱼眼相机标定模块 |
5.3.2 基于遗传算法的鱼眼相机标定模块 |
5.3.3 鱼眼视频增强场景模块 |
5.4 本章小结 |
第6章 结论与展望 |
6.1 研究结论 |
6.2 创新点 |
6.3 研究展望 |
参考文献 |
致谢 |
四、视频纹理研究与实现(论文参考文献)
- [1]基于图上信号处理的动态纹理分析方法研究[D]. 韩微. 哈尔滨工程大学, 2021
- [2]大规模场景下海量视频的拼接与动态调度方法[D]. 代清. 北京邮电大学, 2021(01)
- [3]基于学习的视频纹理分析和合成编码[D]. 杨昆. 中国科学技术大学, 2021(09)
- [4]基于深度网络的动态纹理长周期生成方法研究[D]. 易慧敏. 武汉科技大学, 2021(01)
- [5]基于VVC的视频帧内预测编码技术研究[D]. 陶浩然. 西南科技大学, 2021(08)
- [6]基于音频驱动的视频生成设计与实现[D]. 李雨思. 电子科技大学, 2021(01)
- [7]基于纹理特性的能量差调制视频水印算法[J]. 刘慧超,王志君,梁利平. 湖南大学学报(自然科学版), 2020(10)
- [8]融合视频编码的低复杂度纹理自适应视频加密算法[J]. 刘慧超,王志君,梁利平. 电子科技大学学报, 2020(05)
- [9]面向大范围视觉监控的增强虚拟可视化技术研究[D]. 刘美月. 中国科学院大学(中国科学院大学人工智能学院), 2020(04)
- [10]鱼眼相机的标定与视频增强场景方法的研究[D]. 姚奕杰. 南京师范大学, 2020(03)