数字媒体复习

数字媒体

第一章

  1. 数字媒体包括了以下哪些媒体形式?(多选) (ABCDFGH )
    A.动画 B.互联网 C.图形 D.文字 E.移动 F.音频 G.图象 H.视频

  2. 数字媒体是指以二进制数 的形式记录、处理、 传播、获取过程的 ,这
    些载体包括数字化的文字、图形、图像、声音、视频影像和动画等逻辑媒体、传输、显示逻辑媒体的实物媒体,以及存储、传输、显示逻辑媒体的实物媒体。

  3. 请简述一下数字媒体的分类。

(1) 感觉媒体(perception medium):指直接作用于人的感觉器官,使
人产生直接感觉(视、听、嗅、味、触)的媒体,如声音、文字、图像、
物体的表面、硬度等。
(2) 表示媒体(representation medium):指为了传送感觉媒体而人为
构造出来的一种媒体,借助这一媒体能够更有效地存储感觉媒体或将感
觉媒体从一个地方传送到另一个地方,如声音编码,图像编码、条码等。
(3) 表现媒体(presentation medium):指显示感觉媒体的设备,主要
是进行信息输入和输出的媒体,如键盘、屏幕、鼠标、打印机等。
(4) 存储媒体(storage medium):指用于存储表示媒体的物理介质,如
硬盘、U 盘、光盘等。
(5) 传输媒体(transmission medium):指传输表示媒体的物理介质,
如电缆、光纤等。

  1. 简述数字媒体技术有哪些特点

(1)数字媒体的基本表现特征是数字化,网络化传播和可感知的展示。
(2) 集成媒体形式呈现
(3) 传播渠道的多样性
(4) 趋于个性化的双向交流
(5) 技术与人文艺术的融合

  1. 数字媒体技术主要应用在哪些领域?请选择其中一个领域,谈谈数字媒体技
    术在该领域如何应用。

    • 数字游戏
    • 数字影视
    • 数字广播
    • 数字广告
    • 数字出版

第二章

  1. 冯诺依曼体系
    输入输出设备 计算器 存储器 控制器
  2. 输入输出设备举例

    • 输出设备:显示器,打印机,体感交互设备,
    • 输入设备:鼠标,键盘,扫描器
  3. 手机:数字通信的发展

第一代手机: 模拟的移动电话,由美国摩托罗拉公司最早推出。通话是锁定在一定频率,所以使用可调频电台就可以窃听通话
第二代手机: 通常这些手机使用PHS、 GSM 或者CDMA这些十分成熟的标准,具有稳定的通话质量和合适的待机时间。
第三代手机: 使用第三代移动通信技术。将无线通信与互联网等多媒体通信结合的新一代移动通信系统。它能够处理图像、音乐、视频流等多种媒体形式,提供包括网页浏览、电话会议、电子商务等多种信息服务
第四代手机: 使用第四代移动通信技术。集3G与WLAN于一体,并能够传输高质量视频图像,它的图像传输质量与高清晰度电视不相上下。

4.谈谈 OpenGl 与 DirectX 的区别

- OpenGL 只是图形函数库。DirectX 包含图形, 声音, 输入, 网络等模块。


第三章 音频技术基础

  1. 声音的产生和传播

声音是由于物体的振动而产生的机械振动波,声音的产生首先需要有声源或音源,另一方面,声音的传播离不开介质,这里的介质主要指空气、液体和固体,人耳感觉到从介质传播过来的振动,就听见了声音

  1. 声音的三要素(主观)

    • 响度: 响度又称音强或音量, 表示声音能量的强弱程度, 与声波振幅成正比, 一般用声压( 单位Pa) 或声强计量。 它与基准声音比值的对数值称为声压级, 单位为分贝( dB) 。
    • 音高: 表示人耳对声音曲调高低的主观感受。客观的音调( 单位Hz) , 与代表主观感觉的音高( 单位Mel) 既不相同, 又有联系。
    • 音色: 又称音品, 指声音的感觉特性。 发声体振动的振幅决定了声音的响度, 发声体振动的频率决定了音调的高低, 而发声体材料、 结构的不同又导致其发出声音的音色不同
  2. 影响音色的主观因素

    • 方位感:人耳能够准确的辨别听到的声音来自哪个方向以及大概距离
    • 响度感:人耳对声音响度的“对数式” 听觉特性;人耳对不同频率的声音感受到的听觉响度也不相同
    • 音调感:人耳对音调的“指数式” 听觉特性
    • 音色感:人耳对音色的听觉反应非常灵敏, 具有很强的记忆与辨别能力;特殊的听觉综合性感受
    • 聚焦效应:大脑皮层对其他声音的抑制作用, 使人耳具有专注于某一声音的 “聚焦效应
  3. 影响音色的模/数音频处理因素(客观)

    • 频率范围
    • 动态范围
    • 信号转换
    • 声音还原设备
    • 信噪比
  4. 声音的数字化
    声音/音频模拟信号->采样->量化->编码->声音/音频数字信号

每隔一定时间间隔间断性地在模拟音频的波形上采集幅度值
的过程称为采样。其中每次采样所获得的数据与该时间点的声波
信号相对应,称为采样样本。将这一连串的样本连接起来,就可
以描述一段声波了。

  1. 数字音频的分类
    (1) 按用途分类

    • 语音
    • 音乐
    • 音效
      (2) 按来源分类
    • 数字化声波
    • MIDI 合成
    • 来源于声音素材库
      (3) 按格式分类
    • WAV 文件
    • MIDI 文件
    • MP3 文件
    • Real Audio 文件格式
    • WMA 文件格式
    • AIFF/AU 文件格式
    • CD 音频
    • AAC 格式
    • Ogg Vorbis 格式
    • VQF 文件
  2. 影响数字音频质量的三大参数
    (1) 采样频率
    (2) 量化位数
    (3) 声道数


第四章 图形图像基础

  1. 数字图像

数字图像是指以二维数字方式存储和处理的图像。

数字图像与模拟图像相比,有以下优点:
图像存储:从理论上说,数字图像可以存储无限时长,图像质量也不会随时
间延续而下降。
图像复制:数字图像的复制过程非常简单,并且可以保证复制版本和原版本
完全相同。
后期处理:相较于普通图像,数字图像在加工、处理、印刷等后期处理方面
的优势更为明显 。
图像传输:由于数字图像可用数字计算机或数字电路存储和处理,因此在图
像传输方面拥有传统纸质照片不可比拟的优势。

  1. 数字图像类型

    • 矢量图:
      (1)矢量图的表示方法
      用一系列绘图指令来表示一幅图。 这种方法的本质是用数学(更准确地说是几何学)公式描述一幅图像。
      (2)矢量图的优点:
      A、 它的文件数据量很小;
      B、 图像质量与分辨率无关, 这意味着无论将图像放大或缩小了多少次, 图像总是以显示设备允许的最大清晰度显示。
      (3)矢量图的缺点:
      不易制作色调丰富或色彩变化太多的图像, 绘出来的图像不是很逼真, 同时也不易在不同的软件间交换文件。

    • 位图
      (1)位图的原理:
      通过许多像素点表示一幅图像, 每个像素具有颜色属性
      和位置属性。
      (2)位图的优缺点: 与矢量图正好相反。
      (3)位图的分类:

    • 二值图像( binary image)、
    • 灰度图像(gray-scale image)
    • 索引颜色图像(index color image)
    • 真彩色图像( true color image)

    • 二值图像

    • 二维离散亮度函数——f(x,y)
      x, y说明图像像素的空间坐标
      函数值f 代表了在点(x,y)处像素的灰度值
    • 维矩阵——A[m,n]
      m, n说明图像的宽和高
      矩阵元素a(i, j)的值,表示图像在第 i 行, 第 j 列的像素的灰度值; i,j表示几何位置
    • 只有黑白两种颜色

    • 灰度图像
      在灰度图像中,像素灰度级一般用8 bit表示,所以每个像素都是介于黑色( 0)和白色( 255)之间的256( 28=256)种灰度中的一种。

    • 索引图像
      在索引颜色( 也称为映射颜色) 模式下, 颜色都是预先定义的, 并且可供选用的一组颜色也很有限, 索引颜色的图像最多只能显示256种颜色。

    • 真彩色图像
      每一个像素由红、绿和蓝三个字节组成, 每个字节为8 bit,
      表示0到255之间的不同的亮度值,这三个字节组合可以产生
      1670万种不同的颜色

  2. 模拟图像转换数字图像
    (1)取样,即图像空间坐标的数字化,可理解为我们将连续空间中的模拟图像进行离散化,以二维数组的行数和列数记录每一个离散像素点的位置信息;
    (2)量化,即图像函数值(灰度值)的数字化,可理解为以像素幅值量化存储每一个离散像素点位置的亮度和色彩信息,这样就可以得到最简单的数字图像。
    (3)模拟图像可通过数字转换设备转换为数字图像。模拟视频可以通过视频采集卡转换为数字影像数据。而对于普通平面图像例如照片、幻灯片、艺术图画等,我们通常采用扫描仪按需求转换为不同质量的数字图像。

  3. 彩色模型

    • RGB
      CCD技术直接感知R,G,B三个分量
      是图像成像、显示、打印等设备的基础
    • CMY(青、深红、黄)
      运用在大多数在纸上沉积彩色颜料的设备, 如彩色打印机和复印机
    • CMYK(青、深红、 黄、黑)
      打印中的主要颜色是黑色
      等量的CMY原色产生黑色,但不纯
      在CMY基础上,加入黑色,形成CMYK彩色空间
    • HSI(色调、饱和度、亮度)
      两个特点:
      (1)亮度与图像的彩色信息无关
      (2)H和S分量与人感受颜色的方式是紧密相连的将亮度(I)与色调( H)和饱和度( S)分开避免颜色受到光照明暗(I)等条件的干扰
      仅仅分析反映色彩本质的色调和饱和度
      广泛用于计算机视觉、图像检索和视频检索
    • YIQ
    • Y指亮度(Brightness),即灰度值
    • I和Q指色调,描述色彩及饱和度
    • 用于彩色电视广播,被北美的电视系统所采用(属于NTSC系统)
    • Y分量可提供黑白电视机的所有影像信息
    • YUV
    • Y指亮度,与YIQ的Y相同
    • U和V也指色调,不同于YIQ的I和Q
    • 用于彩色电视广播,被欧洲的电视系统所采用(属于PAL系统)
    • Y分量也可提供黑白电视机的所有影像 信息
    • YCbCr
    • Y指亮度,与YIQ和YUV的Y相同
    • Cb和Cr由U和V调整得到
    • JPEG采用的彩色空间
  4. 数字图像处理技术

    • 彩色图像灰度化
    • 直方图的提取与处理
    • 图像变换
    • 图像增强和复原
    • 图像分割
    • 图像描述
    • 图像识别
    • 图像压缩编码
  5. 数字图像处理的基本步骤
    图像获取->图像滤波与增强->图像复原->彩色图像处理->小波与多分辨率处理->压缩->形态学处理->分割->表示和描述->目标识别

  6. 图像处理流程与技术
    确定图像主题及构图->确定成品图尺寸及画面基调->获取基本的数字图像素材->处理素材->在图片上叠加文字或绘制图形->调整整体效果->输出图像

  7. 常用图像处理技术
    1) 全局处理技术
    a) 亮度/对比度调整。
    b) 色彩平衡调整
    c) 滤镜调整
    d) 蒙板遮蔽选择
    2) 局部处理技术
    a) 克隆
    b) 颜色替换
    c) 裁切
    d) 涂抹
    e) 橡皮擦


第五章 数字视频技术基础

1.电影电视的发展
- 电影的诞生 1895年12月28日至今
- 1839年——法国画家达克拉发明了照相术
- 1888年——法国人玛莱制成了第一架电影摄像机——“连续摄影机”
- 1877年——开始大量生产的赛璐珞片,为电影提供了感光材料
- 1894年——美国科学家爱迪生支撑了放映电影的“电影视镜”
- 1895年——卢米埃尔兄弟第一次正式售票公映电影

  1. 常见的数字视频文件格式
    (1) AVI
    AVI 格式上的限制比较多,只能有一个视频轨道和一个音频轨道(现在有非标准插件可加入最多两个音频轨道),还可以有一些附加轨道,如文字等。AVI格式不提供任何控制功能,其文件的扩展名为.avi。
    (2)WMV
    WMV(Windows Media Video)是微软公司开发的一组数位视频编解码格式的通称,ASF(Advanced Stream Format)是其封装格式,具有“数位版权保护”13功能。WMV格式文件的扩展名为.wmv/.asf、.wmvhd。
    (3)MPEG
    MPEG(Moving Picture Experts Group,运动图像专家组)是一个国际标准组织(IS0)认可的一个媒体封装形式,受到大多数计算机的支持。其储存方式多样,可以适应不同的应用环境。MPEG 的控制功能丰富,可以有多个视频(即角度)、音轨、字幕(位图字幕)等。MPEG 的一个简化版本 3GP 还广泛用于准 3G手机上。MPEG 格式文件的扩展名为.dat(用于 DVD)、.vob、.mpg/.mpeg、.3gp/.3g2(用于手机)。
    (4)MPEG-1
    MPEG-1 是一种 MPEG 多媒体格式,用于压缩和存储音频和视频。 它用于计算机和游戏,分辨率为 352 * 240 像素,帧速率为 25fps。
    (5)MPEG-2
    MPEG-2 也是一种 MPEG 多媒体格式,用于压缩和存储音频和视频。它供广播质量的应用程序使用,并定义了支持添加封闭式字幕和各种语言通道功能的协议。
    (6)DV
    DV(Digital Video,数字视频)通常用于用数字格式捕获和存储视频的设备,如便携式摄像机。有 DV 类型 I 和 DV 类型 II 两种视频文件。DV 类型 I文件包含原始的视频和音频信息,通常小于 DV 类型 II文件,并且与大多数 A/V 设备兼容,如DV便携式摄像机和录音机。DV类型II,除文件包含原始的视频和音频信息外,同时还包含作为 DV 音频副本的单独音轨。 它比 DV 类型I兼容的软件更加广泛,因为大多数使用视频文件的程序都希望使用单独的音轨。
    (7)MKV
    MKV 是 Matroska的一种媒体文件。Matroska是一种新的多媒体封装格式,该格式可把多种不同编码的视频及 16 条(或以上)不同格式的音频和语言不同的字幕封装到一个 Matroska Media 文件内。它也是一种开放源代码的多媒体封装格式。Matroska同时还可以提供非常好的交互功能,而且比 MPEG 更方便、强大。MKV 文件的扩展名为.mkv。
    (8)RM / RMVB
    RM(Real Video,或 Real Media)格式是由 Real Networks 公司开发的一种流14媒体视频文件格式。它通常只能容纳 Real Video 和 Real Audio 编码的媒体。该格式带有一定的交互功能,允许编写脚本以控制播放。RM(尤其是可变比特率的RMVB 格式)文件体积很小,非常受网络下载者的欢迎。该格式文件的扩展名为.rm/.rmvb。
    (9)MOV
    MOV(QuickTime Movie)格式是由苹果公司开发的一种音视频文件格式。由于苹果机在专业图形领域的统治地位,QuickTime 格式基本上成为了电影制作行业的通用格式。1998 年 2 月 11日,IS0 认可 MOV 格式作为 MPEG-4 标准的基础。MOV 可储存的内容相当丰富,除了视频、音频以外还包括图片、文字(文本字幕)等。该格式文件的扩展名为.mov。
    (10)OGG
    OGG Media 是一个完全开放性的多媒体系统计划,OGG 媒体文件(Ogg Media File,OGM)可以支持多视频、音频、字幕(文本字幕)等多种轨道,其文件的扩展名为.ogg。
    (11)MOD
    MOD 格式是 JVC 生产的硬盘摄录机所采用的储存格式名称。

  2. 常见的数字视频编辑方法如下。
    (1)三点编辑(Three-Point Editing)
    通过设置三个编辑点确定来源素材的内容、持续时间以及序列中位置的编辑过程。执行三点编辑时,Final Cut Pro 会自动计算第 4 个编辑点。
    (2)延长编辑(Extend Edit),
    将编辑点移动到时间线上播放头处的编辑方式。
    (3)适配填充编辑(Fit to Fill Edit)
    将片段插入到序列中,并使插入部分的时间长度正好与预定轨道的空间量相匹配的一种编辑方式。
    (4)插入编辑(Insert Edit)
    将片段项插入到时间线上现有的序列中,并使该位置之后的片段(或片段的其余帧)向右移动的编辑方式。插入编辑并不会替换已存在的素材。
    (5)覆盖编辑(Overwrite Edit),
    编辑到序列中的片段替换序列中已有片段的编辑方式。覆盖编辑的序列时长保持不变。
    (6)替换编辑(Replace Edit),
    用另一个同样长度的不同镜头代替序列中现有的镜头。
    (7)举出式编辑(Lift Edit)
    一种素材从时间线上删除后还能留下相应空隙的编辑功能。
    (8)波纹式编辑(Ripple Edit)
    改变序列中片段入点或出点的一种修剪编辑方式,当调整(“波纹”)一个片段的时间长度后,整个序列的长度会随之缩放。
    (9)卷动式编辑(Roll Edit)
    对共享一个编辑点的两个片段都产生影响的19一种编辑方式。出片段的出点和入片段的入点同时改变,但序列的总时间长度保持不变。
    (10)滑动式编辑(Slide Edit)
    将整个片段连同它左右两边的编辑点一起移动的一种编辑方式。被移动片段的时间长度保持不变,但位于它左右两边片段的长度会改变,以适应该片段的新位置。序列及这三个片段的总时间长度不变。
    (11)滑移式编辑(Slip Edit)
    片段的入点和出点的位置同时改变,但标记媒体的位置和时间长度不变的一种编辑方式。
    (12)拆分编辑(Split Edit)
    片段的视频部分长于音频部分或音频部分长于视频部分的一种编辑方式。例如,在片段开头声音比视频长,因此先听到声音,然后才看见视频,也称为 L 剪切。
    (13)叠加编辑(Superimpose Edit)
    将片段放到时间线上播放头所在片段项上方轨道中的编辑方式。如果在时间线和画布中没有设定入点或出点,以前编辑的片段的入点和出点将用来规定入片段的时间长度。叠加编辑用来将字幕和文本重叠到视频上,并创建其他合成效果。
    (14)多机位编辑(Multicam Editing)
    用户可以同时回放和预览从多个机位角度拍摄的镜头,并在它们之间进行实时剪辑的特性。
    (15)离线编辑(Offline Editing),
    以较低分辨率编辑节目的过程,这样可以节省设备成本或节省硬盘空间。在完成编辑后,可以采用较高分辨率重新采集素材,或者生成一个 EDL 以便在其他系统上重新创建该编辑。
    (16)编辑至像(Edit to Tape)
    该命令可让用户对录像带执行帧准确的插入编辑和覆盖编辑。
    (17)打印至视频(PTV,Print to Videos)
    Final Cut Pro 中的一个命令,允许用户将片段或序列发送给视频或音频输出设备, 以便录制到像带上。
    (18)渲染(Render),
    视频和音频应用任何效果,比如转场或滤镜,必须被渲染才能准确地实时回放。一旦渲染序列就能实时回放


第六章 计算机动画技术及应用

  1. 计算机动画的制作过程
    文学剧本->造型设计->故事脚本->背景->声音录制->原画->中间画->测试->上色->检查->画面编辑->后期制作

  2. 数字动画和手工动画的异同

计算机动画相对于手工传统动画上有很多优势。
(1) 更灵活简单。二维动画是对手工传统动画的一个改进,=它不需要通过胶片拍摄和冲印就能预演结果,发现问题即可在计算机上修改,既方便又节省时间。比起传统动画的多个环节由不同部门,不同人员,分别操作,计算机动画可谓简单易行。
(2) 更容易控制。虽然计算机二维动画和传统动画一样都是分层制作然后合成。但是计算机动画在能保证画面质量的同时能编辑的层数远远大于传统动画,这样表现出来的效果和内容自然要丰富绚丽的多。
(3) 更逼真。即使是二维计算机动画,在先进的电脑技术处理下,更简单却复杂多变的电脑着色效果,更容易表现出唯美的动画效果。而三维动画自然是更有立体感,更让人有身临其境的感觉。

  1. 二维三维动画的异同特点
    计算机动画由于制作手段上的不同将其分为两类:二维动画和三维动画。
    • 从制作方法上来对比:
      一般传统的二维动画是通过人工的方法在纸上绘图,扫描进电脑,使用一些相关软件上色后再编辑成为动画图像,而三维动画制作就是指在电脑上使用专业的三维动画软件了进行动画的制作的,其动画效果更佳,有更好的立体效果,并且更生动形象,逐渐受到更多人的认可,应用也越来越广泛。
    • 从制作速度上来对比:
      二维动画制作短片较为有优势,但是制作长片3所需的时间比较长,而东莞三维动画制作正好相反,在短片制作上偏劣势,但长片动画使用三维速度较快。
    • 从制作成本上来对比:
      二维动画的资金投入是保持水平持久的,三维动画的投入成本在前期较多,呈逐渐减少的趋势。
    • 从画面效果上来讲:
      二维动画构图比较简单,适合年龄段偏低的儿童观赏,三维动画构图立体效果明显,给人在视觉上思考的空间大。

第七章 游戏设计技术

  1. 游戏的特点

    • 技术:计算机技术 多媒体技术 图形图像处理 传感器 控制技术
      (1)游戏设计新颖,游戏过程刺激
      (2)游戏成本较低
      (3)游戏模式智能化、自动化
      (4)游戏效果非常逼真
      (5)跨越空间限制的人际交流模式
  2. 游戏开发的流程
    1) 游戏立项

    • 市场调查:目前电子游戏市场日趋成熟,游戏厂商在决定开发新游戏时首先
      要进行市场调研,通过分析 Strategy Analytics、360 手机助手等调研机构发布
      的游戏市场研究报告,判断游戏市场走向。
    • 立项说明:通过市场调查及数据分析,确定拟开发游戏的类型,通过立项说
      明选择该游戏模式的原因及预期。
      2) 撰写策划书
    • 成本估算:游戏策划书中需要包含成本估算。可细分为服务器、客服、社区
      关系专员、开发团队、管理、用户账号管理、办公设备、宽带、网管、宣传
      推广、客户端及其他杂费等的成本估算。
    • 需求分析:在着手开发游戏前,还应撰写需求分析书。
      a.美工需求:内容包括需求图、工作量等。其中工作量需要按天数计算。
      具体内容如下:
      场景:包括游戏地图及小场景设计需求。
      人物:包括玩家角色、重要 NPC、次要 NPC、BOSS 和普通怪物等。
      动画:
      道具:道具建模可交由美工处理,此时应明确是否采用纸娃娃系统等。
      全身像:根据游戏类型不同,提出人物全身像需求。
      静画&CG:游戏中可能出现的静画和 CG 需求,静画常见于文字冒险游戏。
      人物头像:人物头像制作需求,包括人物喜怒哀乐在内的多种表情。
      界面:界面需求,包括主界面、各项子界面、屏幕界面、开头界面、END
      界面、保存和载入界面等。
      动态物件:包括游戏中是否出现火把、光影等。
      卷轴:又称滚动条。根据游戏具体情况制定需求。
      招式图:根据游戏设置决定是否有此需求。
      编辑器图素:提出关卡编辑器、地图编辑器等的制作需求。
      粒子特效:3D 粒子特效的需求。
      宣传画:包括游戏宣传画、海报等方面的制作需求。
      游戏包装:游戏客户端的封面包装制作需求。
      说明书插图:游戏说明书内附插图的制作需求。
      盘片图鉴:游戏客户端盘片图鉴的制作需求。
      官方网站:游戏官方网站的制作需求。
      b.程序需求:撰写程序需求分析书,具体内容如下:
      地图编辑器:指明编辑器的功能需求、数据需求等。
      粒子编辑器:关于粒子编辑器形式和内容的需求。
      内置小游戏:包括何种内置小游戏的需求。
      功能函数:包括游戏中可能出现的各种程序功能、技术参数、数据、碰
      撞检测、AI 等方面的需求。
      系统需求:包括升级系统、道具系统、招式系统等系统导入器的需求。
      c.策划需求:
      策划分工:包括剧本、数值、界面、执行等方面。
      进度控制:撰写项目进度表,权衡所有成员的开发进度。
    • DEMO 展示:此时展示的 DEMO 是前期策划和项目规划的内容。
      3) 项目研发:
      游戏原型设计:制作者需要以最快的速度制作出一个可以执行的游戏程序原
      型,其中应包括基础程序与基础图形。设计者对比电脑实际原型和大脑设想
      原型,理解两者间的差距,经过调整磨合后生成新的设计书,至此游戏开发
      进入正式阶段。
      程序:成员包括技术监督、主程序员和程序员。程序开发工作主要由以下几
      方面组成:
      a.图形引擎:包括游戏场景的管理与渲染、角色的动作管理绘制、特效管理与渲染、光照和材质处理、LOD(Level Object Detail)管理以及图形数据转换工具开发等。
      b.声音引擎:包括音效、语音、背景音乐的播放。
      c.物理引擎:包含游戏世界中的物体之间、物体与场景之间发生碰撞后的
      d.力学模拟,以及发生碰撞后的物体骨骼运动的力学模拟等。
      e.游戏引擎:整合图形、声音和物理引擎,针对某个游戏制作一个游戏系统。其中包含游戏关卡编辑器、角色编辑器等,主要用途是确保场景的调整效果可视化、角色属性及动作修改结果可视化。
      f.人工智能或游戏逻辑:根据需求采用脚本语言开发或通过编辑器完成。游戏 GUI 界面(菜单):用户界面设计
      5.游戏开发工具:包括关卡编辑器、角色编辑器、资源打包管理以及插件工具的开发工作
      6.支持局域网对战的网络引擎开发:解决发包和通讯同步的问题。
      7.支持互联网对战的网络引擎开发:服务器端软件配置管理、服务器程序优化等。

    • 美工:根据工作职能分为原画概念设计师、UI 概念设计师、3D 场景美术师、203D 角色美术师、游戏特效师、游戏动画师、游戏美术总监。
      a.原画设计:负责设计游戏场景建筑、人物形象、插画海报、游戏界面等。
      b.场景制作:
      2.5D 场景的制作工作包括按照场景原画使用 3D 软件制作中、高模场景模型、
      贴图材质调整、斜向 45°灯光渲染处理、后期修图。
      3D 场景的制作工作包括根据场景原画并按照程序开发要求的多边形面数、
      贴图数量以及尺寸来制作场景低模和绘制贴图。
      c.角色制作:
      2.5D 角色的制作工作包括按照角色原画使用 3D 软件进行建模(中、高模)
      以及贴图。
      3D 角色的制作工作包括使用 3D 软件按照原画制作角色的低多边形模型以
      及绘制贴图。
      d.角色动画:为角色进行骨骼蒙皮设置,并为角色制作游戏中常见的待机、
      跑动、跳跃、物理攻击、魔法攻击、被攻击、死亡等一系列动画。
      e.游戏特效:使用 PS、3dsmax、程序引擎特效编辑器来制作游戏中的光效、
      烟火、魔法等特效画面。
      4) 测试
      Demo 版本阶段:包括前期策划、关卡设计、前期美工、后期美工以及
      程序实现 Demo 展示。
      Alpha 版本阶段:内部测试,主要测试和完善各项功能,查找重大 BUG。
      Beta 版本阶段:外部测试,进一步测试和完善各种功能,准备发行游戏。
      Release 版本阶段:游戏发行,项目完成阶段,正式发行游戏。
      Gold Release 版本阶段:开发游戏的补丁包、升级版本以及各种官方插件。
      5) 控制

    • 成本控制:主要控制服务器、客服、场租、人工、设备、宽带、网管、21
      宣传和推广的费用。
    • 市场变化:处理应对发行档期、盗版、竞争对手的情况。
    • 品质:根据制作人员的整体水平,折中决定作品的质量。
    • 突发事件:应对游戏研发过程中的人员、资金突然变动等情况。
  3. 游戏开发需要哪些文书

    • 游戏策划文档
    • 技术设计文档
    • 背景艺术文档
    • 商业计划文档
  4. 游戏开发团队组成:

    • 游戏开发团队主要由策划
    • 程序员
    • 美工
      游戏策划分为系统策划、数值策划、关卡策划、文案策划和界面策划;程序分为引擎、
      物理、AI、网络、声音、工具和界面程序员;美工分为 2D 美工、3D 建模师、纹
      理美工、动画师和界面美工。另外游戏在发布之前还需要由测试人员进行测试,
      小型研发团队中测试人员一般由程序员等兼任。如果游戏音乐没有外包给其他公
      司或者采用现有音乐,那么还需要由作曲人、音效师和配音演员组成

第八章 虚拟现实技术及应用

  1. 定义
    虚拟现实的含义一般有广义和狭义之分。狭义的虚拟现实技术指一种智能的人机界面或高端的人机接口,用户可通过视觉、听觉、触觉、嗅觉和味觉等看到彩色、立体的景象,听到虚拟环境中的声音,感受到虚拟环境反馈的作用力,由此产生一种身临其境的感觉。广义的虚拟现实技术是对虚拟景象或真实世界的模拟实现,通过电子技术模拟局部的客观世界,完美的再现希望使用者感受到的声、光、气、形等信息,并通过多种传感器接收使用者的多种反应,实现虚拟环境→用户反应→环境变化→用户感受的一系列人机交互过程,使用户沉浸在虚拟现实的环境中。
  2. 特点
    • 沉浸性
    • 多感知性:沉浸性来源于对虚拟世界的多感知性,
    • 自主性:自主性是指虚拟环境中的物体依真实世界的自然规律或设计者
      设定的规律运动的程度。
    • 其他特性:除以上方面,影响沉浸感的因素还体现在图像的深度信息,
      图像表现是否与生活经验一致,画面的视野是否与人眼相配,画面跟踪的实时性,
      以及交互设备的约束程度等。
    • 交互性
    • 想象性
  3. 虚拟现实系统的分类

    • 沉浸式虚拟现实系统
      +沉浸式虚拟现实系统具有如下特点:
      1) 高度的沉浸感:
      2) 高度的实时性:
    • 常见的沉浸式虚拟现实系统
      1) 基于头盔式显示器的虚拟现实系统
      2) 投影式虚拟现实系统
      3) 遥在系统
    • 桌面式虚拟现实系统,桌面式虚拟现实系统又称窗口虚拟现实系统,
    • 增强现实式虚拟现实系统
    • 分布式虚拟现实系统
  4. 虚拟现实系统的硬件设备

    • 虚拟世界生成设备
    • 个人计算机
    • 图形工作站
    • 分布式计算机
    • 虚拟世界感知设备
    • 视觉感知设备
    • 听觉感知设备
    • 触觉、力觉感知设备
    • 空间位置跟踪定位设备
    • 磁跟踪设备
    • 超声波跟踪设备
    • 光学跟踪器
    • 机械跟踪系统
    • 面向自然的人机交互设备
    • 空间球
    • 数据手套
    • 数据衣
  5. 虚拟现实系统的软件技术

    • 三维视觉建模
    • 3ds Max
    • Maya
    • Creator
    • Poser
    • 视觉实时动态绘制
    • 基于几何图形
    • 基于图像
    • 三维虚拟声音
    • 三维虚拟声音的特征
    • 心理听觉声学基础
    • 语音识别与语音合成
    • 人机自然交互
    • 手势识别
    • 面部表情识别
    • 眼动跟踪
    • 三维全景
    • 全景技术的特点
    • 全景技术的实现
    • 全景技术的应用

你可能感兴趣的:(数字媒体复习)