|
发表于 2008-9-11 13:50:42
|
显示全部楼层
原帖由 小白 于 2008-9-11 13:44 发表 
现在我们可以看清楚一件事: 对模拟声波进行数码化的工作,必须由一个高度统一的,而且精确的时钟来控制取样和重播的频率,使各个时间点保持完全绝对的一致.
不能有任何频率点上的偏差. 如果大家都是按44100赫兹在工作,那么从1/44100秒开始的每个频率点: 2/44100秒,3/44100秒,4/44100秒,5/44100秒 .... 直到44109/44100秒,1秒 .... 数码转换时的每个点,和重播时的每个点,都必须完全一致! 只有这样才能准确地完全解码工作!
同时我们一定注意到了,这个时间点的偏差所引起的扭曲,和数据是完全无关的. 是同样的数据. 只不过在重建声波的时候,由于时间点不一致,才出现扭曲,导致听音的失真.
所以同样的0和1,重放时可以出来不同的声音,关键就在于重放时用于建立声波的各时间点,和录音时(把模拟声波转换为数码时)的各取样点,是否完全一致. 如果不一致,就叫Jitter,就会导致声波的扭曲.
呵呵,就等着你这句话,和数据无关,您怎么确定现在各种各样的音频格式的录制中,不包括时间轴的信息,比如我在每个频率点记录了:2/44100秒:振幅,3/44100秒:振幅,4/44100秒:振幅,5/44100秒:振幅 .... 。在声音采样过程中的数据中就包含了时间信息的。前提是确认了某种音频格式的存储存在这种缺陷,才无法精确还原。 |
|