三、声音与数字化
我们还记得一个故事吗?当爱迪生发明的电灯泡问世后,曾经让做蜡烛的商人们睡不着觉。而到了20世纪90年代中期,一个被称为MP3的小精灵打破了人们生活的平静,当MP3技术和软件在网络成功应用和传播后,MP3的发展让所有唱片业的老板集体失眠。
MP3是什么?它有这么大的魅力吗?
当IT业界和音乐界正在为MP3而争论、欢呼、思考的时候,又一个叫做MP4的小精灵闯入了人类的生活。
它们来自哪里?它们将去哪里?它们带给了人类什么?
数字化声音已经不知不觉地进入了人类的听觉世界,深深地影响着我们的生活,声音也能数字化吗?数字化的声音是什么样?
让我们在下面的文字中找到答案。
1.声音也能数字化吗?
自从有了电以后,声音就插上了一副神奇的翅膀。它不但跨越了地域的限制,让不同国度、不同地区的人们都可以聆听同一位艺术家的精彩表演,还突破了时间的界限,让那些美妙的、动人的声音流传到若干个年代以后。这种种神奇的结果是怎么产生的呢?
我们在中学物理课中学习到了声音的知识,我们已经知道声音是一种能量,而且是一种机械能。它可以在各种介质中传播,有的介质中传得快,有的传得慢。每种单纯的声音都有其相应的频率和强度的特征。强度具有量的特征,指能量是高是低,频率是时间的特征,每个时间点上有一个强度,如果在很短时间内声音的强度变化过程会产生重复,我们就说声音频率高。反之,如果很长一段时间后声音的强度变化才重复前一段时间的强度变化过程,我们就说声音的频率低。这种变化规律是二维的,我们以时间为横轴,以声音强度为纵轴,就可以把声音表示成一个波形图。图4-6就是这样的一个声音波形图。
图4-6 声音的波形图
我们还知道能量是可以相互转换的。所以,人们早期寻找了一种物质,能将机械能转化为电能,再将电能转换为机械能。当然,这种物质需要足够多而且便宜,以便于大量生产和销售。这种物质,既可以是碳膜,也可以是两片金属薄片组成的电容器,这就组成了早期的声音接收装置“拾音器”和话筒,也形成了“扬声器”这样的还原声音的装置。
话筒中有一个金属线圈,在通电的时候会产生磁场,当声波作用在话筒的碳纤维振膜上使之振动时,粘接在振膜上的音圈在磁路气隙中也作相应的振动,不断地切割磁力线,从而在音圈中产生感应电动势。随着声音强弱不同,振动力度随之变化,产生的电动势大小也不一样,转换成的电能大小也不同。由于声音、磁场、电能都是连续变化的,这样产生的电信号是模拟信号,即连续的信号。我们可以将这种声音放大(扩音),也可以采用磁带或唱片的媒介把声音变成磁信号或者声纹信号记录下来(录音)。
用电容器作振膜的话筒原理稍有不同,当声音的振动带动金属振膜振动,改变了振膜片之间的距离,使电容产生变化。电容的变化最终仍然可以方便地转化为电平高低的变化。这个过程也是连续的,仍然是模拟信号。
声音的输出过程与输入过程正好相反,是将连续的电信号转换为振膜片的振动,从而发出声音的。例如:扬声器(喇叭)就是这样的原理。
上面这些对声音进行的连续处理是最早期的声音处理方式,但从严格意义上说,这还不能算是“处理”,因为这些方式只能完成声音的记录、重放或是音量的调整(放大和减小),它们不能对某一段声音进行编辑,也就是真正意义上的“处理”。而且,由于声音是一种连续的过程,它的存储(录音)也是连续存放的,所以,需要非常大的存储容量。
其实,如果我们透过表面看本质,就会发现:声音虽然是一种能量,但我们要做的不过是将这种能量的所有特征用某种方式记录下来再还原罢了。记录特征,就是记录信息。能不能换一种方法存储和重放声音呢?能!科学家和技术人员经过不断的研究和探索,发明了用编码来表示声音。
计算机中的数据表示采用的是二进制编码,声音信息能不能也采用0、1组成的二进制编码表示呢?科学家们做到了这一点!
用二进制编码表示声音信息,前面的问题就迎刃而解了。由于所有的信息都表示成离散的数据,编辑和修改这些数据就成了一件简单的事情。其次,由于每个数据中的每一位都只有0或1两种可能状态(不像模拟信号,强度变化有一个范围,或者说,有无限种可能状态),数据压缩也就成了一件可行的事情。而且,由于只需要存储两种状态(0和1),对存储介质和存储技术、读写技术的要求都大大降低,使得存储介质的范围扩大,成本下降,存储和记录过程中产生的失真也大大减少了。
声音数字化的过程,实际上就是将模拟信号离散化的过程。所以,只要在声波的时间横轴上取若干个时间点,找出每个点对应的强度值就可以了,这个过程叫做声音的“采样”。图4-7是一张对两个声波采样的示意图,每个小方块表示一个采样点。
图4-7 声音波形的离散点
声音被“离散”了,声音的效果是否也被离散了呢?效果是否会被降低呢?数字化声音的效果有几个重要的因素,如果这几个因素不能很好地保证,对声音的效果确实会产生很大的影响。这几个因素包括了采样频率、量化位数、声道数和压缩比。
声音的“采样”首先要确定它的采样频率,也就是说我们从声波信息中每隔多长时间取一个点,这个间隔周期也被称为取值频率。通常,这个周期值分别为8K、11K、22K和44K(这里,1K=1024),也就是说一秒钟我们要取几万个点。这个数值越大,越接近声波的连续波形,声音的质量就越好。例如,我们常听的CD音乐,它的取样频率是44.1K,声音的质量是很好的。当然,声音的质量和效果还与其他因素有关,例如,与扩音设备(如电路、线路、器件等)和放音设备(如耳机、扬声器、音箱等)的质量有关,从这里出来的声音效果才是我们人耳所听到的。
声音采样的每一个点来要用一个二进制数记录下来,这个二进制数的长度被称为声音的数值量化位数。它表示每取一个声音数值,我们到底要用几位二进制代码来存储。这个数值的位数越多,表示的值也就越精确,声音也就越逼真。所以,这个因素也会影响到声音的效果。在现在的技术条件下,通常为8位、16位和32位。CD音质的量化位数为二进制的16位,即两个字节(byte)。
第三个影响声音效果和质量的因素是“声道数”,即声音播放出来的通道数。因为人类听到的声音不是单一的声音,而是一种“混音”,我们平常称之为立体声。经过数字化处理的声音被存储为声音文件,文件中包含送给几个播放器播放的声音数据。通常的CD是双声道的,即用两个扬声器(喇叭)播放,两个声道中可以播放不同的乐器或声音,也可以播放同一个声音,形成立体声的效果。
采样频率、量化位数和声道数越多,声音的还原就越精确,效果就越好。读者可以通过下面的一个公式算出存放一个声音文件的数据量:
可以看出,这三个参数标准的提高可以提高数字化声音的质量。数据量的上升对处理数字化声音的计算机(处理装置)提出了更高的要求,例如:存储容量、处理速度等,这样就会提高数字化音乐部件和产品的成本和费用。所以,需要对真正实用的数字化声音的质量和成本进行综合考虑。
此外,为了保证数字化声音的效果,所存储的声音文件尺寸较大,大大增加了存储器件容量的压力,也相应增加了设备的成本。为此,人们想到是否可以将数字化语音文件进行压缩以后存储,以减少存储容量,增多存储文件(歌曲)的数量,重放时再进行解压,还原声音的原始效果。由此,开展了信息压缩技术的研究(对于这种信息技术,读者可以参见其他书籍)。声音信息的压缩效果采用了一个参数来表示,这就是“压缩率”,即原始声音文件与压缩后的声音文件的比率。压缩比率越大,声音文件占用的存储空间越小。但是,压缩技术和压缩比选择不适当,也会影响声音的质量,因为在压缩过程中会丢掉一些声音的信息。所以,压缩比率(通常以每秒钟的千字节数Kbps为单位)也是一个重要的影响声音质量的参数。
技术人员和工程师们将声音数字化理论和压缩技术变成了一个个的数字装置,例如我们常说的计算机上配置的“声卡”,即一种声音处理部件,由它们来完成将模拟信号与数字信号相互转换的工作。如果再把声卡的线路集成到更小的部件中,甚至集成在一个小小的半导体芯片上,就可以形成更小的、便携式的数字音乐播放装置。
2.数字音乐与MP3、MP4、MPx……
20世纪80年代,一位名叫Karlheinz Brandenburg的德国青年(见图4-8)开始研究数字音乐的压缩技术,并以此作为自己博士论文的方向。他在博士论文中讨论了这种压缩技术,但当时这篇论文仅仅是提出了一种理论上的可能,和大多数单纯的科学家一样,他从未想过自己的论文会启动一次革命。
后来,Brandenburg进入了德国顶尖的研究机构:“Fraunhofer Institute for Integrated Circuit”,并组成了一个研究MP3技术的小组。当时,这个研究小组所用的计算机不得不花去十余小时才能为长约一分钟的数字音乐文件解码。速度这个难题,他们寄希望于计算机硬件的改进,这个困难不久就因处理器的升级而得以改观,但比这更困难的是如何让音质不因压缩而流失和改变。为此,研究人员长时间地坐在电脑前,戴着专业耳机,一遍又一遍地聆听音乐小段,甚至把某些音乐的段落听上一千遍。而且,另一个烦恼是不同的音乐种类经过压缩后会有不同反应,音乐品质会因此损失多少,研究人员还不能够轻易地做出决断并给出预见。
图4-8 Karlheinz
随着计算机运算速度的飞速提升,Brandenburg的研究小组终于在1995年制定出了MP3的标准。为了让这项新的音乐文件格式标准迅速在互联网中占据一席之地,他们提供了免费的MP3软件下载。他们向各个唱片公司提及了这种未来可能改变世界的技术,但是并没有引起唱片业界的重视,研究小组得到的回答是:“嗯,这是个不错的想法,我们会继续留意它的。”以致在稍后几年,唱片业坐失了MP3市场的机会。
当MP3已经风靡整个世界时,这个被称为“MP3之父”的德国人在回答媒体提问时说道:“1988年有人问我,我的那篇博士论文会有什么影响?我回答,和其他博士论文一样,它会躺在图书馆里,浑身落满灰尘。谁会料到它会变成现在使用者多达数百万人的技术,这简直就像在做梦。”Brandenburg还认为:网络音乐交换及盗版行为泛滥,不过是唱片业“自食恶果”,因为我们早在1995年就已经告诉他们这项技术的前景。
MP3技术可以称为音乐史上划时代的革命性技术,数字音乐格式MP3问世后,很快就成为年轻人喜爱的音乐格式。曾有专业网站统计,以MP3为关键词的搜索一直都是互联网上最热门的搜索点。对MP3的风靡,一面是网络唱片界、唱片业老板们的声讨,一面又是数以千万计的网友和音乐爱好者们的热捧,从来没有一种音乐格式会引起如此大的争议。
现在,又让我们回过头来看看与MP3有关的音频技术的秘密和它们的发展。
在计算机上播放音乐也是人们很早的愿望,当计算机问世后,利用机器主频脉冲产生的不同频率的音频信号就已经开始可以播放乐曲了,但这种乐曲是单调的,发出的只是单纯的、具有高低差异的音。它没有合声,更谈不上具有立体声的效果。所以,这个阶段还不能算作真正的计算机音乐。当音乐的数字化技术产生并普及以后,我们才得到了真正的计算机音乐,也称为电脑音乐。
在20世纪的1988年5月,一个国际性组织诞生了,这个组织建立的目的是为音频、视频的存储和传送制定国际标准。首次会议共有25位专家参加,并将组织名称确定为“移动影像专家组”,它的英文名称为“Motion Picture Expert Group”,也就是我们现在耳熟能详的MPEG。
这个组织在1992年向全世界推出了第一个视频、音频信号的编码标准,被人们称为MPEG-1,它主要应用于VCD和CD影像与音乐。在音频方面,它提出了三个层次的编码方式,分别叫做MPEG-1 Layer 1、MPEG-1 Layer 2和MPEG-1 Layer 3。其中,MPEG-1 Layer 3也就是我们现在通常称呼的MP3,其余两种也分别叫做MP1和MP2,不过没有MP3这么流行罢了。
MPEG标准的音频编码层次越高,它的编码器越复杂,语音的压缩率也越高。对于MP1和MP2,它们的语音压缩率分别为4∶1和6∶1到8∶1,而MP3的压缩率则高达10∶1到12∶1。也就是说,一分钟CD音质的音乐,在未经压缩时需要10MB的存储空间,而经过MP3压缩编码以后只要1MB左右。那么人们会问:减少这么多的部分哪里去了?实际上,MP3压缩技术是将那些不为人类听觉感知的信息给“滤除”掉了,这种“感官编码技术”的依据在于:人们并不是对所有频率的声音都具有同样的敏感度,人耳只能听到一定频段内的声音,其他更高或更低频率的声音对人耳是没有用处的,有的声音信息人耳是感觉不到的。所以,MP3对音频信号采用了“有损压缩”的方式,即把这部分声音去掉,从而使得文件体积大为缩小,但在人耳听起来,却并没有什么失真。从技术上来说,为了降低声音的失真度,MP3采取在编码时先对音频文件进行频谱分析,用过滤器滤掉不敏感的电平和噪音电平,然后,通过量化的方式将剩下的每一位重新排列,最后形成具有较高压缩比的、体积小的MP3文件,而且音质上只有很小的损失。因为MP3只是采用压缩方式编码,在播放前还是要先将这种压缩代码还原才能播放。此外,MP3还有一个很重要的特点,就是不提供版权保护,从而使得这种格式的音乐迅速地在互联网上大量流行和传播,播放软件也随之大量出现并走红,但也随之引发了不少版权纠纷。意大利出生的Leonardo Chiariglione是MPEG的创始人,因为MPEG发布了MP3音频格式,Chiariglione也被人们称为MP3之父(另一个就是前述的德国人Brandenburg),他后来又主持启动了“数码音乐保障行动计划”(Secure Digita Music Initiative:SDMI)致力于解决和协调有关数字音乐版权的问题。
至此,我们必须注意:MP3技术和MP3产品还是有区别的。基于MP3技术(编码标准)形成的声音文件还不过是一个记录声音信息的存储载体,它本身并不能发声,我们还需要两个重要的部件:一个是软件,它将声音的压缩信息解压并识别出来,然后通过第二个硬件部件(含有电路、存储器和耳机等放音部件)将声音播放出来,而软件则存储在(或者说嵌入与固化)这个硬件装置中,我们通常所说的MP3更多的是指这个“数码音频播放装置”。于是,以MP3形式存储的音乐就叫做MP3音乐,能播放MP3音乐的设备就叫做MP3播放器,后者的出现使“随身的音乐”成为可能。
音乐爱好者走到哪都离不开音乐,人类的休闲也随时随地伴随着音乐,随身携带的音乐成为人们的梦想。自从1877年,爱迪生进行了最初的录音记录以来,直到1963年,飞利浦(PHILIPS)公司发明了录音带,从而让音乐随身的梦想逐步变为现实。
我们知道,“随身听(Walkman)”是第一个走进人们生活的电子装置。1979年,在日本索尼(SONY)公司诞生了第一代Walkman,从此,卡带式的随身听走进了人们的生活。到了1982年,索尼和飞利普公司又联手推出了CD音频格式,1984年,世界上第一台便携式的CD型“随身听”诞生在索尼。同时,支持数字音频格式的磁带Walkman也应运而生。当MP3音频格式诞生后,相继诞生了“数字录音机(MD)”、MP3播放器、“网络随身听(NetWork Walkman,见图4-9)”、带存储卡(棒)的MP3,支持MDLP技术的便携播放器等。从而一发不可收拾,以MP3音频标准为基础的随身播放设备层出不穷,形成一个百花争艳的个人数字音乐世界。
MP3迅速成为城市里时尚一族的必配的时尚数码妆饰,其播放器已经不仅仅是一个数码装置了,已经变成了人们的一种时尚饰品。MP3的存储容量也从早期的16MB左右,上升到现在的1GB到4GB,这样大的存储容量给人们带来了极大的应用效果。人们利用它听音乐、学外语、听故事等等,也利用它的大容量存储器件,把MP3作为计算机的一个辅助便携式存储部件,它可比原来的软盘“酷”多了,也比单纯的“优”盘(USB盘)强多了,既可以存储计算机文件,又可以作为数字音乐播放部件,成为一个备受年轻人喜欢的小精灵。现在的MP3设备从功能和性能上已经远远超出了原来MP3播放器的范畴,逐步发展成为集音频播放(甚至包含MP3格式外的音频格式)、录音复读、文本阅读、移动存储、收音机等功能为一体的多媒体掌上设备和数码产品。高端的MP3设备甚至还集成了音频编辑处理、带有无线耳机、视频播放等功能。
图4-9 早期的Walkman
在MP3技术推出不到一年,1994年,国际移动影像专家组MPEG又公布了另一个视频、音频信号的编码标准MPEG-2,它应用于DVD的制作(压缩)、高清晰电视广播(HDTV)和一些对视频编辑有较高要求的地方。这个编码标准能够以较低的采样频率(16kHz,22.05kHz或24kHz)进行文件编码,可以得到体积比原来更小的音频文件,而且,其整体音质的损失却微乎其微。可是,正当MPEG-2技术标准经受评测期间,MPEG组织又发现,如果将这个标准再进行一定改进,抛弃向下的兼容性以及其他一些多余的、不常用的功能,它的编码速度还可以得到大幅度的提高。所以,MPEG-2诞生不到一年,它的音频编码改进版(MPEG-2 AAC)就诞生了,并迅速占领了DVD市场和高清电视领域,也实际代替了前不久的MPEG-2。
MPEG-2 AAC音频编码标准的出现使美国唱片行业联合会马上意识到这种技术将会引发又一次新的音频播放产品的潮流。于是,由美国网络技术公司(GMO)进行开发,美国唱片行业联合会倡导公布了这种新的音频格式,并称它为MP4。
这种新的音乐格式也简称为A2B或AAC(Advanced Audio Coding)技术,它的特点是音质更加完美而压缩比更大(15∶1~20∶1)。而且,它增加了对立体声的完美再现、比特流效果音扫描、多媒体控制、降噪等MP3没有的特性,使得在音频压缩后仍能完美地再现CD的音质,压缩后的文件只有MP3文件的四分之三。而且,MP4技术可以允许内部嵌入用于播放这种音频格式的播放器,使每一首MP4的音乐文件可以直接播放。当然,最重要的还是在这种编码文件中特别加入了用来保护知识产权的编码技术,在MP4乐曲内设置了与作品版权持有者相关的文字、图标等版权说明,既保护了知识产权,又表示了对作曲家和演唱(奏)者的尊重,而且,只有特许用户才可以播放。基于这种技术,还可以独立地调节左右声道的音量大小,与多种彩色图像配合、无限制滚动显示文本、同步播放视频影像以及与互联网网站链接等超强功能。
技术的发展是没有止境的,20世纪末,国际移动影像专家组MPEG又将音频、视频标准提高到MEPG-4,并已成为一种针对DVD的压缩标准,能够将DVD的容量缩小到三分之一,而且包含的声音、图像的质量只受很小的损失。到了21世纪初,MPEG又将音频、视频标准讨论到了MPEG-7,它会引发什么样的意识冲击、音像改进和产品创新呢?我们将拭目以待。
图4-10 数码视频播放器
当MPEG的音频视频标准风靡全球时,其他的音频技术也不断异军突起。例如,微软公司新发布了一种取代原WAV格式的音频压缩文件格式,它的英文名称是“Windows Media Audio”,即“视窗媒体音频”模式:WMA。这种文件格式的推出,使音频文件的存储量比MP3的还小,尽管一首歌曲压缩到很小,但它还能够保持很高的音质。同时,它还支持一种新的信息传送技术:Stream流技术。也就是说,这种技术主要针对在网络上传播的“流动”的媒体信息,这种格式的音频文件在网络上可以一边下载一边收听,从而使得WMA文件在网上广泛流传,迅速走红。有人已经预测WMA会取代MP3,只不过时间的早迟而已
另外一种支持“流”媒体技术的音频文件格式称为RA格式,即:Real Audio格式,这种格式的文件还包括了RAM和RM,曾经在网络上广泛流行,很多音乐网站和网络广播也都使用RA格式。虽然它也支持Stream流技术,但在音频压缩率和音质方面并不十分突出,渐渐出现衰落的势头,已逐步淡出网络音乐领域。但WMA格式既支持“流”技术,而且音质比RA要好,文件又比MP3小。
此外,流行的数字音频格式还有:ACT、ASF、WMV,流行的视频格式还有:DMV、MTV、MVX、SMV等等,构建了一个数字音乐的大家族。
读者朋友,你体会到了数字音乐的魅力吗?你拥有自己的MP3或MP4吗?你想自己装配一个MP3吗?
2005年世界给了它一个称号叫做“数码年”,也就是“数字化装置”的风靡之年,尤其是被称为“数码娱乐”产品进入消费者起居室内的一年,数字化的消费电子产品层出不穷。
下一个是什么呢?
人类的梦想是什么呢?
3.MIDI与计算机作曲
数字音乐有很多格式不同的声音文件,它们无一不是将乐器或人发出的声音记录下来(或先记录后压缩),但是,声音文件的体积始终比较大,对设备的存储能力提出了较高的要求。能不能有一种使声音文件大大“减肥”的方法呢?
我们换一种思维方式,把眼光投向声音文件存储之外,在它周围搜索一下。我们发现,声音文件不过是一个记录声音信息的载体,最终还需要一个软件,将这些信息识别出来,通过硬件设备播放。既然如此,我们又何必一定要记录声音信号本身呢?换一种方式记录声音信号不行吗?人类在不断地探索。
这种思路首先被用在了音乐乐曲上,MIDI则是数字化音乐的代表,很多人听说过MIDI,但真正了解MIDI的人并不多。
我们知道,音乐家在弹钢琴的时候,琴键按下的时候发出一个乐音,琴键放开的时候这个音停止,这个音的高低可以用数字来表示,按下与放开琴键也可以用一个数字来标识。此外,一个乐音还有长短、强弱、颤动、滑动,甚至对于人耳的位置,即靠近左耳还是右耳发音(即左声道还是右声道)等等,这些复杂的信息都可以用数字序列(串)来表示。至于具体发音则是由“音源”来处理,不同的乐器可以发出不同的音色(源)。人们想到为每个实际的音符给一个编码,对于音乐乐曲来说,基本音符的数量是有限的,即只有七个,加上各种音阶、乐器的变化,采用二进制编码的两到三个字节就能够表示非常庞大的信息。例如:一个音符如果采用WAV格式,至少需要用到1000多个字节来描述,而采用两个二进制字节直接表示,则声音代码已经有216个,相应的,在计算机上存放一个声音库,不同编码对应不同的声音,在播放由这些编码组成的文件的时候,再将编码“翻译”成声音库中对应的声音。这样,声音文件的体积就变得很小,对于存储、传送和处理速度都有非常大的好处。而且,存储在计算机上的声音库中的数据可以多次使用、重复使用,它们对应于所有的编码文件。
这种思路开创了音乐史和作曲领域的革命,促进了基于计算机辅助作曲和音乐制作的领域的发展。最初的音乐编码方式就是被称为“迷的”(MIDI)的技术,采用这种技术的音频文件被称为MIDI文件。
MIDI的技术含义是“乐器数字化接口”,即:Musical Instrument Digital Interface的缩写,它是电脑多媒体技术在音频领域中的又一应用。可以把MIDI理解成是一种协议、一种标准或是一种技术,它不是某个硬件设备和一种乐器。硬件接口不过是MIDI的一种媒介罢了。整个MIDI系统包括合成器、电脑音乐软件、音源、电脑、MIDI连线、调音台、数码录音机等周边设备。通过计算机(电脑)将来源于键盘乐器(或者其他乐器)的声音信息转化为数字信息存储起来,然后根据不同的需要进行各种处理。
MIDI的诞生开始并不是出现在计算机里,而是由电子乐器生产厂家为了不同型号的电子乐器的“交流”而产生的。由于MIDI采用的是数字化技术,当然很容易与计算机挂上了关系,并且借助电脑的处理速度和软件的强大功能推动MIDI这样的数字化音乐蓬勃发展。
MIDI乐器的接口有三种,通常称为:MIDI OUT、MIDI IN和MIDI THRU。这些接口可以在任何MIDI乐器(如电子琴、电子吉他、数码钢琴等)上找到。MIDI OUT将乐器中的数字化声音数据向外发送,MIDI IN接收数字化声音数据,而MIDI THRU则是将收到的声音数据再传给另一个MIDI乐器或设备。
MIDI电路可以将MIDI乐器弹奏出的声音或者由计算机软件“做”出的声音转换成一串010101的二进制数据,通过电路部件和声效部件(声卡)输出。
我们来看一个简单的例子,比如记录乐器的声音。让所有乐器发出各种音高不同的声音,把它们都录下来,然后用二进制的三个字节来记录和表示(称为标记)。第一个字节表示乐器的类型,第二个字节表示音的高低,第三个字节表示音符的时值,也就是一个音持续的长度,比如八分音符、四分音符等(这里,我们用一个四分音符作为一拍)。比如把钢琴这个乐器编号为00,把钢琴弹奏的C3音编码为06,再把C3音的八分音符编码为60,那么,这个钢琴弹奏的八分音符的C3音就可以用一串数字“000660”来表示。这其实就是一种信息记录的方式,只不过全是数字而已。
但是问题来了,为什么要把钢琴编码为00呢?能不能编码成99呢?显然,如果每个人都按照自己的想法进行编码就乱套了。这样所编码的MIDI音乐文件就没法在计算机上正常工作,因为我们对同一套对象没有使用同样的翻译标准。想想吧,在你设计的MIDI文件中000660是要调用钢琴的C3音,而这个编码却被另一个人编码成大鼓的D2音,播放时可能会使人听起来目瞪口呆。当然,最后的解决结果是,技术专家和各大厂商共同制定了一套MIDI的标准,即编码和各种声音的对应标准。这样,无论各家如何开发自己的产品,其基本设计必须参照这套MIDI标准,这就是我们常说的“GM标准”(Gerneral MIDI)。
图4-11 MIDI唱片
后来,专家们将不同的乐器排列,将其基本发声规律、音域等全部列出,并用相应的数字来编码,就可以得到几张数字表格。技术上称为:“波表”,电脑音乐界称为:“音色库”。如果所有电脑都采用这套表格,那么MIDI音乐就可以在不同的电脑上正常播放。然而,G-MIDI标准只是一项工业标准,它规定的是一些最基本的规则,而各个厂商各有一套对乐器、音色表达的研究办法以及对不同的音响和音效的理解。因此,这个标准留了很大的余地,允许厂商把自己的研究成果放入MIDI设备中。因为有很多空出来的编码,利用它们可以为不同乐器的各种音色再编码。这样,在G-MIDI标准下就有了MIDI的扩展或者增强标准,例如早期“罗兰”(Roland)公司研发的GS(General Standard)标准,稍后由“雅玛哈”(YAMAHA)公司研发的XG(Extended MIDI)标准等。这些音色表数据有的存储为软件文件格式,有的则与硬件设备(如声效卡)等集成在一起,将这些表固化(存储)在芯片中,使转换速度更快。
音色库软件放在什么地方呢?我们知道,操作系统是一个所有计算机都要配备的软件系统,它可以支持其他任何应用软件,也是其他软件系统的运行平台。为了支持电脑音乐,软件巨头微软公司早已想到了这个问题,它在操作系统中配置了一个简单的波表,而且会自动将它与MIDI文件对应起来,一旦识别出是MIDI格式的音乐文件,就将它翻译成波表中的音符再播放。
世界上有很多不同的音色库。例如,美国某公司建立的西乐音色库可能会包含印第安土著民族的某种乐器的音色,但不一定包含中国民族乐器中葫芦丝的音色。那么人们在制作西方音乐的时候可以采用西乐音色库,而制作中国民族音乐的时候则采用中国民族音乐音色库。可是这样制作出来的MIDI文件都是要在不同电脑上播放的,这就要求所有的电脑上都要有这两种音色库。这可能吗?不可能,因为你不能要求用户先买这两个音色库再买你的音乐,这显然是不现实的。不过,在操作系统中(例如微软公司的Windows系统)已经默认,凡是在微软操作系统环境下的MIDI文件都采用Microsoft的音色库翻译和播放,尽管这个音色库有时对某种乐器来说音色并不十分惬意。目前,计算机音乐领域通常用的音色库,如CREATIVE公司的SoundFont就是最著名的一种,简称为SF2音色。
作为电脑音乐制作,要编辑、存放和播放MIDI音乐,需要有一套软硬件设备。前面已经谈到了MIDI系统包括的设备,读者会问,如果没有如此专业的设备是否就不能制作MIDI音乐了呢?当然不是,我们可以利用自己计算机完成最简单的MIDI音乐制作,它所需要的设备就少得多了。不过,首先必须拥有一套音色库,就是将编码和乐器发出的实际声音对应起来的数据结构(波表),它可以是软件也可以是硬件。其次,我们还需要有一个编辑MIDI文件的软件,专业上称它为“音序器”,也就是说将音乐音符组成编码序列的软件,比如著名的CalkWalk软件。最后,还需要有一个播放器,可以从网络上下载一个免费的MIDI播放软件。当然,如果安装的是Windows,那它会有自带的播放器,就不用费心了。
好,基本条件已经具备了。我们就可以打开CalkWalk这样的软件,把它和系统音色库联系起来(Windows的音色库可以自动关联),然后按照编辑软件的要求,利用键盘和鼠标输入要制作的整个乐谱,按照软件指示标记各个音符的音高和音长的符号,然后把编辑好的文件存储到磁盘上,这个MIDI文件的扩展名是.mid。如果读者觉得用计算机键盘很别扭,找不到乐感,而习惯于操作真实的乐器,那也没关系,可以采用一种MIDI键盘,它的外形和电子琴很像,把它通过MIDI接口连线、数据接口和电脑相连,在这个“电子琴”式键盘上敲出的乐音就直接被MIDI软件获取,并自动组织成电脑能识别的MIDI文件了。
MIDI音乐是计算机音乐的主要制作方式,为广大音乐爱好者、作曲爱好者和配器爱好者提供了实现自己音乐梦想的环境。目前,很多MIDI编辑软件提供了越来越多的功能,所支持的音色库也越来越多、越来越强。而且,还可以支持不同音频文件格式之间的相互转换,例如:可以选择将音乐文件存储成MIDI格式、WAV格式或者MP3等格式。如果是后两种情况,MIDI软件会将波表中编码对应的音色直接取出并放到最后生成的WAV或MP3文件里。也就是说,将音色固化在文件中形成货真价实的WAV或MP3文件,无需在播放时翻译。这样音频文件虽然尺寸大了一点,而音乐却是准确的。
图4-12 MIDI键盘装置
MIDI音乐还可以形成各种乐器的“交响”效果,也就是当几种乐器同时发音的时候,数字化音乐需要采用“通道(Channel)”的概念。即在一个通道里采用一种乐器,在另一个通道里采用另一种乐器,将两个通道同步播放就可以听到两种乐器的混合演奏了。当然,在一个通道内的一个乐器也可以同时发几个音,这样,组成一个和弦就很容易了。通常,一个标准的MIDI具有16个通道。在GM标准里,第10通道还是专门为打击乐设定的。
此外,还有一些与MIDI相似的电脑音乐格式,例如MOD音乐格式,这种以媒体播放器为主的音乐格式在欧美国家相当流行,与MIDI不同的是它将音色包含进了音频文件中。这种电脑音乐非常适合体现个人的作曲风格与音乐意境,是制作轻音乐、摇滚乐的最佳选择,也是计算机作曲者们青睐的系统。
有了MIDI音乐,用计算机作曲和演奏成为可能。事实上,现在很多复杂的乐曲就是在计算机上制作出来的,尤其是计算机动画、计算机游戏中的音乐。甚至一些合唱乐曲、交响乐曲都是从简单的单调乐谱一步一步通过音乐制作软件在计算机上完成的。同时,MIDI音乐也为音乐教学、作曲教学和数码娱乐教学提供了很好的平台,它还把乐曲结果的音效过程通过MIDI系统,一个步骤一个阶段地展示在人们面前,我们可以在每个阶段听到音乐制作的音效结果。目前,MIDI技术和数字化音乐已经成为专业音乐院校中必不可少的专业课程了。
“工欲善其事,必先利其器”。音乐数字化的工具是帮助人们在计算机上进行音乐处理、音乐制作、音乐作曲等强有力的工具,这些不同种类的数字化音乐制作软件既实用又简单,任何只要有音乐兴趣爱好、懂一点音乐知识、和声知识等的读者不妨亲自试一试,你会发现,制作一首可心的曲子也不是那么难哦!
时代真的不一样了!从上面的介绍我们看到,我们可以坐在家里请一位“电脑老师”为我们讲音乐课程,可以亲耳聆听到大师们的作品演奏,可以学习作曲、和声、配器等各种音乐知识,还可以亲自动手完成实际的作业,并把做出的乐曲效果当场就播放出来。这是多么美妙的过程啊!
借助计算机(电脑)和数字化音乐软件,家庭就成为一个数字娱乐环境,人们在音乐方面的梦想都可以开始实现了!自己作曲、配乐、制作音乐CD、制作自己的MP3……读者朋友,让咱们一块进入这个数字化音乐的世界吧!
4.数字音乐的未来
“这山望着那山高”,我们总是在爬到山顶的时候眺望另一座山峰……这是正常的,因为这就是生命的意义。
那么,数字音乐会有怎样的未来呢?或者说,数字音乐应该有怎样的未来呢?科学和进步总是伴随人类的需要而生,当我们在想象和希望时,梦想的那件东西也许已经悄悄在前方等待了!
或许,你会想到让音乐在人们所希望的时候出现,想到房间里的沙发能感觉到人类的情绪?在怒火爆发以前及时奏响《月光曲》,而在惆怅时不妨来一首《十面埋伏》;当失眠的时候,一曲《日出之屋》是什么药也无法代替的良方……一切都在零操作的状态下悄悄完成,将音乐对人的情绪治疗功能发挥到极限。
或许有时,我哼出一段似曾相识的旋律,却想不起是在哪里听到的,音乐搜索引擎却可以为我搜索文档、找到乐曲的出处或相似的乐曲。什么时候能发明出能根据曲调片段搜索音乐的引擎呢?……
对音乐的理解来自灵魂,所以我们应该允许那些不会识谱却喜欢作曲的人们,喜欢自己哼哼小调的人们,突发音乐灵感又想聆听自己的“杰作”的人们,用自由、简单的方式作曲:用口唱出旋律,由电脑记下谱子,再谱上简单的和声。
当我们的思维天马行空的时候,什么也无法阻止我们的想象。再把眼光放远,你会发现更多的东西。
比如,音乐数字化以后,就是一系列代码。既然是代码,用于密文发送如何?双方约好在哪些音节的代码就是含有要传送的内容的代码……能做什么?想想看!
甚至不需要太复杂的改变,将音频文件再作压缩,而且是“无损压缩”。现在网上的音乐虽然很多,却很少有赶上家庭影院的音质(除非它们有很大的体积),再“无损”地还原。可能吗?再让手机播放优美的数字音乐,并能在朋友间相互发送,让数字音乐实现更好的立体声效果,而不需要更多的音箱……
音乐和其他艺术是相通的。如果对人们随机画出的每一幅画,电脑都能根据画面的色调、明度、纯度、线条和构图配出简单的背景音乐,那么无论对于美术还是音乐爱好者来说,不都是非常具有吸引力的么?……
人类的需求是无限的,科技的发展也同样没有止境,信息技术的浪潮推动着数字化社会的革命性进展。我们确信:不久的将来人们将会享受到更随心、更舒适、更自然的数字化音乐!
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。