TUTORIAL : ไฮเรซ ออดิโอ (High-Res. Audio) คืออะไร.? (ตอนที่ 2: ไฮเรซฯ บนคอมพิวเตอร์)

5259READ
0
SHARE

ไฮเรซ ออดิโอ (High-Res. Audio) คืออะไร.? 
(ตอนที่ 2: High-Res Audio บนคอมพิวเตอร์)


ในตอนที่ 1 ผมได้อธิบายความหมายของ High-Res. Audio ในแง่ของ "resolution" หรือความละเอียดของตัวสัญญาณไปแล้ว รวมถึงได้แนะนำวิธีการพิจารณาว่าสัญญาณเสียงแบบไหนเป็นแบบ High-Res. และแบบไหนเป็นแบบ Low-Res. ด้วย ใครยังไม่ได้อ่านแนะนำให้ย้อนกลับไปอ่านตอนแรกก่อน จากลิ้งค์นี้

ในตอนที่ 2 นี้ เราจะมาพูดถึง High-Res. Audio ที่อยู่ในรูปของสัญญาณเสียง กับ High-Res. Audio ที่อยู่ในรูปของไฟล์คอมพิวเตอร์กัน

High-Res. Audio
ที่อยู่ในรูปของสัญญาณเสียง

"ไฮเรซฯ ออดิโอ" เป็นสัญญาณเสียงที่อยู่ในรูปของสัญญาณดิจิตัล มีอยู่ด้วยกัน 3 รูปแบบ คือ 

1: สัญญาณ PCM (Pulse-Code Modulation)
2: สัญญาณ DSD (Direct Stream Digital)
3: สัญญาณ DXD (Digital Extream Definition)


สนับสนุนความรู้โดย


PCM (Pulse-Code Modulation)

ในตอนที่ 1 ผมได้เอ่ยถึง CD กับสัญญาณ PCM (Pulse-Code Modulation) ไปแล้วนิดหน่อย ซึ่ง PCM นี้ก็คือรูปแบบของสัญญาณดิจิตัลที่ใช้แทนค่าสัญญาณอะนาลอกเพื่อกำหนดใช้ในการบรรจุลงบนแผ่น CD เพลงตามมาตรฐาน Redbook ที่ Sony กับ Philips ร่วมกันร่างขึ้นมา ซึ่งทุกแผ่น CD จะประกอบด้วยสัญญาณเสียงดิจิตัล PCM ที่เป็นระบบเสียง Mono หรือ Stereo โดยมีสเปคฯ ของ bit-depth อยู่ที่ 16-bit และมีอัตราแซมปลิ้งสัญญาณ (sampling frequency) อยู่ที่ระดับ 44.1kHz ซึ่งค่า "bit-depth" กับ "sampling frequency" เป็นตัวแสดง resolution ของสัญญาณเสียง

ส่วนสัญญาณเสียง PCM ที่อยู่ในระดับ High-Res. Audio จะมีค่า bit-depth และค่า sampling frequency "สูงกว่า" มาตรฐาน CD แต่ไม่ได้มีการระบุกำหนดไว้ตายตัวที่ค่าใดค่าหนึ่ง เพียงแต่มีการกำหนดไว้รวมๆ ว่า สัญญาณดิจิตัล PCM ที่มี bit-depth สูงกว่า 16-bit ขึ้นไป และ/หรือ มีอัตรา sampling frequency สูงกว่า 44.1kHz ขึ้นไป ให้นับว่าเป็นสัญญาณ High-Res. Audio (รายละเอียดเพิ่มเติมอยู่ในบทความตอนที่หนึ่ง)

DSD (Direct Stream Digital)

นอกจากสัญญาณ PCM แล้ว หลังปี 2000 ทางค่าย Sony ได้มีการนำเสนอสัญญาณเสียงดิจิตัลออกมาอีกประเภทหนึ่ง ชื่อว่า DSD (Direct Stream Digital) ซึ่งเป็นสัญญาณเสียงแบบดิจิตัลที่มีสเปคฯ และรูปแบบการเข้ารหัส (encode) และถอดรหัส (decode) ที่ต่างไปจากรูปแบบที่ใช้กับสัญญาณ PCM โดยที่สัญญาณ DSD จะกำหนดใช้อัตรา bit-depth คงที่อยู่ที่ 1-bit ไปโดยตลอดทุกระดับความละเอียด แต่จะปรับเพิ่มในส่วนของ sampling frequency ขึ้นไปเรื่อยๆ ทีละระดับ โดยเริ่มต้นจาก 2.8MHz และจะเพิ่มเป็นสองเท่าในแต่ละระดับขึ้นไปดังนี้

ในปัจจุบัน วงการ High-Res. Audio ได้นับรวมเอาสัญญาณเสียงประเภท DSD เข้ามาอยู่ในกลุ่มด้วย โดยมักจะใช้ชื่อเรียกย่อๆ อีกแบบหนึ่งว่า DSD64 หมายถึง สัญญาณ DSD ที่ใช้ sampling frequency "สูงกว่า" มาตรฐานของ CD จำนวน 64 เท่า (44.1kHz x 6 = 2.8MHz) ซึ่งบางทีก็ใช้ชื่อเรียกว่า DSD2.8 ก็มี หรืออย่าง DSD128 ก็มีความหมายเดียวกับ DSD5.6 อย่างนี้เป็นต้น

โดยสเปคฯ แล้ว สัญญาณ DSD มีความละเอียด (resolution) สูงกว่ามาตรฐาน CD อย่างมาก แม้กระทั่งสัญญาณ DSD ที่ระดับต่ำที่สุดคือ DSD2.8 ก็ยังมีความละเอียดของเนื้อสัญญาณสูงกว่ามาตรฐาน CD ถึง 4 เท่า


ดูเพิ่มเติม


 

DXD (Digital Extreme Definition)

ที่มา : เนื่องจากสัญญาณเสียงดิจิตัลที่บันทึกมาเป็นสัญญาณ DSD ที่ใช้ bit-depth ที่ 1-bit ไม่เหมาะกับการนำไป edit ในขั้นตอนการทำมาสเตอริ่ง บริษัท Merging Audio ผู้ผลิตอุปกรณ์ในวงการสตูดิโอได้ทำการออกแบบระบบเสียงขึ้นมารูปแบบหนึ่งเพื่อใช้ในการ edit สัญญาณ DSD โดยเฉพาะ ชื่อว่า DSD-Wide ซึ่งเป็นรูปแบบของระบบเสียงที่มี bit-depth เท่ากับ 8-bit กับ sampling frequency ที่ระดับ 2.8224MHz จึงทำให้สามารถ edit สัญญาณ DSD ในสตูดิโอได้ และหลังจาก edit แล้วก็ทำการแปลงกลับมาเป็นสัญญาณ DSD ปกติ

นอกจากฟอร์แม็ต DSD-Wide แล้ว ยังมีระบบเสียงอีกฟอร์แม็ตหนึ่งที่ถูกใช้ในการทำ editing/mastering สำหรับสัญญาณ DSD ในสตูดิโอ นั่นคือฟอร์แม็ต DXD ซึ่งเป็นสัญญาณ PCM ที่มี bit-depth เท่ากับ 24-bit และใช้ความถี่แซมปลิ้งที่ระดับ 352.8kHz ซึ่งในช่วงหลังๆ ทางสตูดิโอที่ทำไฟล์ไฮเรซฯ ในปัจจุบันจะหันมาใช้ฟอร์แม็ต DXD นี้มากขึ้น เพราะสะดวกต่อการแปลงกลับไปกลับมาระหว่าง PCM กับ DSD ได้โดยไม่สูญเสียรายละเอียดของสัญญาณ ปัจจุบัน ฟอร์แม็ต DXD ก็ได้ถูกจัดเข้ากลุ่ม High-Res. Audio เรียบร้อยแล้ว โดยที่ DXD มีอัตราบิตเรตอยู่ที่ระดับ 8.4672MHz สูงกว่า DSD64 อยู่ 3 เท่า

ค่ายเพลง 2L ได้ทำการบันทึกเสียงเป็นไฟล์ DXD เอาไว้เป็นตัวอย่างให้ทดลองฟัง ที่นี่ แต่ภาค DAC ของคุณต้องรองรับการแปลงสัญญาณที่ใช้ sampling frequency ที่ระดับ 352.8MHz ได้ด้วย

สัญญาณเสียง High-Res. Audio
บนคอมพิวเตอร์

เมื่อรูปแบบการเล่นเพลงเปลี่ยนแพลทฟอร์มจากการเล่นผ่านเครื่องเล่นแผ่น (disc-base player) มาเป็นเล่นผ่านคอมพิวเตอร์ และเล่นผ่านระบบเน็ทเวิร์ค (ทั้งแบบใช้สาย และแบบไร้สาย) จึงต้องมีการนำเอาสัญญาณเสียงเพลงเข้าไปเกี่ยวข้องกับคอมพิวเตอร์ ทั้งในส่วนของการจัดเก็บ (storage) และการเล่น (playback)

แต่เนื่องจากระบบปฏิบัติการณ์ของคอมพิวเตอร์ทุกรูปแบบ ไม่ว่าจะเป็น Windows ของไมโครซอฟท์, OS X ของแอ๊ปเปิ้ล และ Linux ของค่ายอิสระ ต่างก็ไม่รู้จักทั้งสัญญาณ PCM และสัญญาณ DSD เมื่อจะนำสัญญาณ PCM หรือ DSD เข้าสู่คอมพิวเตอร์จึงต้องทำการแปลงสัญญาณเสียงทั้งสองรูปแบบให้เป็นไฟล์ฟอร์แม็ตที่คอมพิวเตอร์รู้จักซะก่อน

เมื่อปี 1991 บริษัท Microsoft กับบริษัท IBM สองยักษ์ใหญ่ของวงการคอมพิวเตอร์ได้ร่วมมือกันทำให้สัญญาณเสียงเป็นข้อมูลที่คอมพิวเตอร์มองเห็นและสามารถ edit ได้ อาทิ ปรับเปลี่ยนข้อมูลเฉพาะ (metadata) และสามารถเปลี่ยนแปลงขนาดของข้อมูลได้ ซึ่งกลยุทธที่ Microsoft กับ IBM นำมาใช้คือออกแบบไฟล์คอมพิวเตอร์ขึ้นมารูปแบบหนึ่ง ให้ชื่อว่า WAV file (หรือ WAVE file) ซึ่งมีลักษณะเป็น container audio format ชนิดหนึ่ง พูดง่ายๆ ไฟล์ WAV ก็คล้ายกับซองหรือกล่องใส่เอกสารนั่นเอง เอาไว้บรรจุข้อมูลมัลติมีเดียต่างๆ อาทิ สัญญาณเสียงหรือสัญญาณภาพวิดีโอเพื่อให้สัญญาณเสียงและวิดีโอเหล่านั้นสามารถจัดเก็บบนเมมโมรี่ของคอมพิวเตอร์และส่งผ่านไป-มาในคอมพิวเตอร์ได้

แต่ก่อนที่ Microsoft กับ IBM จะคิดค้นไฟล์ WAV ออกมานั้น ทางค่าย Apple ได้คิดค้น container audio format ของตัวเองขึ้นมาใช้ก่อนแล้วตั้งแต่ปี 1988 ให้ชื่อว่าไฟล์ AIFF (Audio Interchange File Format) เพื่อให้นักดนตรีและซาวนด์เอนจิเนียร์ในห้องอัดใช้ในการทำเพลง 

สรุปคือ สัญญาณเสียงดิจิตัลทุกรูปแบบ ไม่ว่าจะเป็นสัญญาณ PCM หรือสัญญาณ DSD เมื่อจะนำเข้าสู่คอมพิวเตอร์ จะต้องถูกแปลงให้อยู่ในรูปของไฟล์ ออดิโอ (ไฟล์เสียง) รูปแบบใดรูปแบบหนึ่งที่คอมพิวเตอร์รู้จักซะก่อน มิฉนั้น คอมพิวเตอร์จะมองไม่เห็นสัญญาณนั้น


สนับสนุนความรู้โดย

 


ไฟล์เพลงบนคอมพิวเตอร์รูปแบบต่างๆ

ปัจจุบันมีไฟล์ ออดิโอ (ไฟล์เสียง) บนคอมพิวเตอร์อยู่จำนวนมากมาย แต่ที่นิยมนำมาใช้ในวงการเครื่องเสียงกันอย่างแพร่หลายมีอยู่ไม่กี่ฟอร์แม็ต ระดับยอดนิยมจริงๆ ก็มี WAV, AIFF, FLAC, ALAC, DSF, DIFF, AAC และ MP3 ซึ่งความแตกต่างระหว่างรูปแบบ (หรือ ฟอร์แม็ต) ต่างๆ เหล่านี้สามารถแบ่งออกได้เป็น 2 ประเภทใหญ่ คือ

1: ไฟล์เสียงแบบ Uncompressed audio formats กับ
2: ไฟล์เสียงแบบ Compressed audio formats

     ไฟล์เสียงแบบ
Uncompressed audio formats
 

คือรูปแบบของกล่องหรือไฟล์เสียงที่ใช้ในการ “บรรจุ” สัญญาณ PCM เข้าไปตรงๆ โดยไม่มีการลดทอนขนาดของสัญญาณเดิมเลย มีอยู่ 2 ฟอร์แม็ต คือ WAV ที่ค่าย Microsoft กับ IBM คิดค้นขึ้นมา กับฟอร์แม็ต AIFF ที่ค่าย Apples คิดค้นขึ้นมา

ความหมายของคำว่า “Uncompressed” ก็คือเป็นการบรรจุสัญญาณ PCM เข้าไปในฟอร์แม็ต WAV หรือ AIFF โดยไม่มีการเปลี่ยนแปลงสัญญาณดั้งเดิมเลย สมมุติว่าคุณทำการริปสัญญาณ PCM จากแผ่นซีดีที่มีข้อมูลเพลงอยู่ 500MB ออกมาเป็นไฟล์ WAV คุณก็จะได้ไฟล์ WAV ที่มีขนาดข้อมูล 500MB ออกมาเท่ากับต้นฉบับทุกอย่าง รวมถึงคุณสมบัติพื้นฐานของตัวสัญญาณ PCM ที่บรรจุอยู่ในไฟล์ WAV ก็จะยังคงเป็น 16bit/44.1kHz เหมือนกับตอนที่อยู่บนแผ่นซีดีทุกประการด้วย

แม้ว่า WAV กับ AIFF จะถูกคิดค้นมาจากต่างค่ายกัน แต่คุณก็สามารถนำไฟล์เสียงทั้งสองไปใช้งานบนคอมพิวเตอร์พีซีที่ใช้ระบบปฏิบัติการณ์ Windows และบนคอมพิวเตอร์ Mac ที่ใช้ระบบปฏิบัติการณ์ OS X ได้ทั้งคู่      

  ไฟล์เสียงแบบ 
Compressed audio formats
 

ช่วงที่มีการคิดค้นไฟล์เสียงสำหรับคอมพิวเตอร์ออกมานั้น ยุคสมัยนั้นหน่วยความจำหรือ memory ที่ใช้เก็บข้อมูลบนคอมพิวเตอร์ยังมีราคาสูงมาก การเอาสัญญาณเสียงเข้าไปเก็บไว้ (store) บนเมมโมรี่ของคอมพิวเตอร์ตรงๆ แบบ Uncompressed จะทำให้เปลืองพื้นที่เก็บมาก ก่อให้เกิดความไม่คุ้มค่า จึงได้มีการคิดค้นเทคนิคในการ “ลดขนาด” (ภาษาคำพูดง่ายๆ เรียกว่า 'การบีบอัด') ข้อมูลสัญญาณเสียงให้เล็กลงก่อนจะทำการจัดเก็บเป็นไฟล์ฟอร์แม็ตต่างๆ ต่อไป

ไฟล์เสียง Compressed audio formats มีอยู่ 2 รูปแบบ คือ

1: แบบ Lossless compressed audio formats กับ
2: 
แบบ Lossy compressed audio formats

ไฟล์เสียงแบบ
Lossless compressed audio formats

เป็นรูปแบบของไฟล์ฟอร์แม็ตที่ใช้พื้นที่ในการจัดเก็บสัญญาณเสียง “น้อยกว่า” การเก็บแบบ Uncompressed โดยอาศัยเทคนิคชั้นสูงในการบีบอัดข้อมูลซึ่งมีผลทำให้ขนาดข้อมูลเล็กลง แต่ไม่ทำให้ข้อมูลเดิมสูญเสียไป ไฟล์ฟอร์แม็ตที่ใช้เทคนิคในการบีบอัดสัญญาณแบบ Lossless ลักษณะนี้ก็มีฟอร์แม็ต FLAC, WavPack, Monkey's Audio และ ALAC ที่นิยมใช้แพร่หลายอยู่ในวงการเครื่องเสียงปัจจุบันก็มี FLAC กับ ALAC ส่วน WavPack กับ Monkey's Audio ไม่ค่อยเห็นแล้ว

ไฟล์ฟอร์แม็ต FLAC กับ ALAC มีประสิทธิภาพในการบีบอัดข้อมูลได้หลายระดับ สัดส่วนในการบีบอัดสัญญาณสูงสุดสามารถทำได้ถึง 2:1 หมายความว่า ถ้าคุณทำการริปสัญญาณ PCM จากแผ่นซีดีที่มีข้อมูลเพลงอยู่ 500MB ออกมาเป็นไฟล์ FLAC หรือ ALAC คุณก็จะได้ไฟล์ FLAC หรือ ALAC ที่มีขนาดข้อมูลแค่ 250MB เท่านั้น เล็กลงไปครึ่งหนึ่ง ทำให้ประหยัดพื้นที่ในการจัดเก็บไปได้มาก และเมื่อนำไฟล์ FLAC หรือ ALAC ที่ผ่านการบีบอัดนี้ไปเล่นกับเครื่องเล่นไฟล์เพลง โปรแกรมเพลเยอร์บนคอมพิวเตอร์จะทำการ “ระเบิด” (render) ไฟล์ FLAC หรือ ALAC นั้นออกมาเป็นสัญญาณเสียง PCM ที่มีขนาด “เท่ากับ” ต้นฉบับทุกประการ      

ไฟล์เสียงแบบ
Lossy compressed audio formats  

เป็นรูปแบบของไฟล์ฟอร์แม็ตที่ออกแบบมาด้วยจุดประสงค์เพื่อประหยัดพื้นที่จัดเก็บ และเพื่อให้ได้ขนาดของไฟล์ที่เล็กมากพอที่จะสามารถส่งผ่านไปบนอินเตอร์เน็ตและสตรีมไปบนระบบเน็ทเวิร์คได้ง่ายๆ (ใช้แบนด์วิธไม่เยอะ) ใช้พื้นที่ในการจัดเก็บสัญญาณน้อยที่สุด เพราะสัญญาณต้นฉบับจะถูกบีบอัดให้มีขนาดที่เล็กลงอย่างมาก รูปแบบไฟล์เสียงที่นิยมใช้ในวงการเพลงทุกวันนี้มีอยู่ 2 ฟอร์แม็ต คือ MP3 กับ AAC 

MP3 ย่อมาจาก MPEG-1 หรือ MPEG-2 Layer III เพราะคิดค้นขึ้นมาโดยกลุ่ม Moving Picture Experts Group (MPEG) เป็นไฟล์ฟอร์แม็ตที่มีประสิทธิภาพในการบีบอัดสูงมาก สามารถลดขนาดของข้อมูลสัญญาณได้หลายระดับ ถ้าบีบอัดด้วยอัตราสูงสุด จะสามารถบีบอัดสัญญาณต้นฉบับลงไปได้มากถึง 75-95% เลยทีเดียว ยกตัวอย่างเช่น ถ้าใช้ MP3 บีบอัดสัญญาณ PCM จากแผ่นซีดีที่มีบิตเรตเท่ากับ 1,411,200 bits/s จะได้ออกมาเป็นไฟล์ MP3 ที่มีบิตเรตเท่ากับ 128,000 bits/s เท่านั้นเอง คิดเป็นเปอร์เซ็นต์ก็แค่ประมาณ 9% ของต้นฉบับซีดี.!

ส่วน AAC หรือ Advanced Audio Coding เป็นไฟล์ฟอร์แม็ตแบบบีบอัดที่พัฒนาต่อเนื่องมาจากความสำเร็จของไฟล์ MP3 โดยที่ AAC ถูกสร้างขึ้นมาด้วยเทคโนโลยีการบีบอัดที่เหนือชั้นกว่า MP3 จึงทำให้ AAC ให้เสียงที่มีคุณภาพสูงกว่า MP3 ที่มีขนาดไฟล์เท่าๆ กัน และ AAC ยังมีฟอร์แม็ตที่แยกย่อยลงไปอีกหลายตัว อาทิ High Efficiency Advanced Audio Coding (HE-AAC) ซึ่งเป็นมาตรฐานส่วนหนึ่งอยู่ใน MPEG-4 Audio ถูกใช้ในการออกอากาศทางสถานีวิทยุดิจิตัล DAB+ และถูกใช้เป็นมาตรฐานระบบเสียง DVB-H สำหรับการส่งออกอากาศทีวีบนอุปกรณ์พกพา (Mobile Television) 

ทั้งหมดนี้คือรูปแบบของสัญญาณเสียงที่เป็น High-Res Audio และรูปแบบของไฟล์ฟอร์แม็ตที่เป็น High-Res Audio เมื่อเข้าไปอยู่บนคอมพิวเตอร์ /


 : บทความต่อเนื่อง :

- ไฮเรซฯ ออดิโอ (High-Res Audio) คืออะไร.? (ตอนที่ 1 : Resolution)
- วิธีเล่นไฟล์ไฮเรซฯ ด้วยเครื่องเสียงพกพา (Portable Audio)
- วิธีเล่นไฟล์ไฮเรซฯ ด้วยคอมพิวเตอร์ (Home Audio / Computer)
- วิธีเล่นไฟล์ไฮเรซฯ ด้วยระบบเน็ทเวิร์ค (Home Audio / Home Network)