สื่อผสมในรูปแบบดิจิตัล (digital multimedia)
Digital Multimedia
บทนำ
ในขั้นตอนของการเริ่มต้นจัดตั้งระบบออกอากาศสำหรับเครื่องรับโทรทัศน์ประเภทพกพา เราจะดูเสมือนว่าเต็มไปด้วยกองเอกสารวิชาการต่างๆจำนวนมากมาย ที่เกี่ยวข้องกับการขนส่งเนื้อหารายการทีวีที่เคยเห็นเป็นของจอภาพขนาดใหญ่ไปยังจอภาพของอุปกรณ์ประเภทพกพาเคลื่อนที่ได้ แต่ทว่าอย่างไรก็ดีบางสิ่งอาจเป็นปัญหาหรือสิ่งที่อาจเกิดขึ้นหลายอย่างก็ไม่เป็นไปตามที่คาดหวังทั้งหมด นี่ก็ไม่ได้เป็นเรื่องที่แตกต่างจากกรณีของการทำให้เครื่อง โทรศัพท์มือถือสามารถเข้าไปใช้งานในหน้าเว็บไซด์ด้วยวิธีการเชื่อมต่อแบบไร้สายผ่านรูปแบบที่เรียกว่า WAB กรณีที่ว่านี้ปัจจุบันที่ยอมรับกันว่าเป็นเรื่องทีมีความยุ่งยากและซับซ้อนต่อโลกของวงการอุปกรณ์แบบพกพา ที่มีหน้าจอภาพขนาดเล็ก และยังมีคุณสมบัติทำงานโต้ตอบกับผู้ใช้งานได้ สามารถสร้างสรรค์การใช้งานที่แตกต่างจากความสัมพันธ์ลักษณะการใช้งานบนจอภาพขนาดใหญ่แบบติดตั้งประจำที่บ้านแบบของเดิม
ในโลกของสัญญาณวิดีโอแบบดิจิตอลเต็มไปด้วยเรื่องน่าตื่นเต้นน่าสนใจ มันเป็นเรื่องที่เกี่ยวข้องกับการจัดส่งสัญญาณวิดีโอไปยังอุปกรณ์ทีแตกต่างกันหลายประเภท ตั้งแต่อุปกรณ์พกพาที่มีจอภาพขนาดเล็กจิ๋วไปจนกระทั่งบนจอภาพยนตร์ขนาดยักษ์เท่าตึกหลายชั้น ยังมีเรื่องที่แตกต่างกันที่ตัวอุปกรณ์เช่น เครื่องรับแบบความชัดเจนสูงและ แบบชัดเจนปกติ หรือบนเครื่องคอมพิวเตอร์พกพาที่เป็นแบบ notebook tablet นอกจากนี้ยังมีระบบที่การส่งสัญญาณแบบใช้คลื่นภาคพื้นดิน การใช้เครื่องรับ ผ่านดาวเทียม หรืออาจเป็นการรับจากวิธีการเดินสายไปตามบ้าน (cable TV) แต่ถ้าในกรณีที่เป็นการแบ่งแยกที่ระบบของเครือข่ายที่มีทั้งประเภท DVB-H , IP TV , 3G เป็นต้น ทั้งหมดนี้สามารถทำให้เป็นไปได้ด้วยเรื่องของการกำหนดมาตรฐานและเทคโนโลยีของการเข้ารหัสสัญญาณภาพและเสียง เพื่อนำไปสู่ กระบวนการแพร่สัญญาณไปถึงผู้ใช้ และกระบวนการรับชมนำภาพและเสียงมาใช้งาน
แต่อย่างไรก็ดีกฎเกณฑ์ขั้นพื้นฐานของระบบการส่งสัญญาณแบบดิจิตอลเป็นเรื่องที่ทำความเข้าใจได้โดยง่าย สิ่งเหล่านี้เป็นเรื่องของภาพนิ่งหรือภาพเคลื่อนไหว (อันนี้แหละคือวิดีโอ) และสัญญาณเสียงอีกหนึ่งหรือหลายช่องก็ได้ ทั้งภาพและเสียงจะอยู่ในรูปของการใช้วิธีการบีบอัดข้อมูล ด้วยการเข้ารหัสและให้เป็นไปตามมาตรฐานสำหรับการแพร่กระจายคลื่น ทั้งหมดนี้ทำให้เราสามารถทำความเข้าใจถึงเรื่องของการรับชมโทรทัศน์แบบพกพารวมไปถึงเทคโนโลยีทีเกี่ยวข้อง
เราจะเริ่มการเดินทางเข้าสู่โลกของโทรทัศน์แบบพกพา ด้วยการทำความรู้จักกับรูปแบบของประเภทสื่อที่อยู่ในรูปแบบดิจิตอล หัวข้อของการบีบอัดสัญญาณภาพและเสียงถือว่าจำเป็นและเป็นเหตุผลเดียวที่เราจำเป็นต้องนำมาถกประเด็นในที่นี้ เนื่องจากบนเครือข่ายของระบบโทรศัพท์มือถือย่อมมีคุณสมบัติและรูปแบบที่เฉพาะของมัน คุณภาพที่ได้จากหน้าจอภาพย่อมถูกตัดสินโดยคุณสมบัติเหล่านี้
ดิจิตอลวิดีโอที่อยู่บนหน้าเว็บของเครื่องคอมพิวเตอร์ หรือการรับชมทีวีออกอากาศผ่านเครือข่ายตามปกติย่อมเป็นความแตกต่างกันที่รายละเอียดของการสร้างภาพและที่เทคนิควิธีการเข้ารหัส เมื่อเรามีเป้าหมายเช่นนี้การทำความเข้าใจกับรูปแบบของสื่อผสมด้วยรูปแบบพื้นฐานที่แตกต่างกันย่อมเป็นเรื่องสำคัญ คุณสมบัติของเครือข่ายโทรศัพท์มือถือด้านความเร็วของการส่งข้อมูลถือว่าต่ำมาก ถ้าเปรียบเทียบกับการส่งข้อมูลสัญญาณภาพโทรทัศน์ที่มีความชัดเจนปกติ ดังนั้นเราจำเป็นต้องเลือกใช้การเข้ารหัสภาพและเสียงทีมีประสิทธิภาพมากกว่าเดิมเป็นแบบ MPEG-4 ที่ตัวอุปกรณ์เครื่องโทรศัพท์เองก็ยังมีข้อจำกัดเรื่องของพลังงานที่ได้จากแบตเตอรี่ ขนาดของหน่วยความจำและหน่วยประมวลผลที่มีจำกัดทั้งเรื่องขอเองความเร็วและขนาดความจุของข้อมูล
ภาพ
ภาพคือองค์ประกอบขั้นต้นของสื่อผสม ตัวภาพเองย่อมถูกกำหนดโดยความเข้ม สี และขนาด สำหรับตัวอย่างเช่นบนจอภาพขนาด VGA มีขนาดอยู่ที่ 640 x 480 จุด และขนาดของไฟล์ภาพจะขึ้นอยู่กับจำนวนของ byte ที่ใช้สำหรับนำเสนอข้อมูลของแต่ละจุดสร้างภาพ ลองดูตามตัวอย่างสมมุติให้แต่ละจุดภาพถูกบรรจุด้วยข้อมูลจำนวน 3 byte ดังนั้นขนาดข้อมูลของทั้งภาพย่อมมีจำนวนทั้งหมดเป็น 640 x 480 x 3 = 921600 bytes หรือ 921 KB หรือ 0.92 mega bytes
ขนาดของภาพ
รายละเอียดของภาพในแต่ละวงการ:Communications , Computer , Broadcast
ประเภทของรูปแบบภาพแต่ละชนิดที่ใช้นำเสนอสัญญาณวิดีโอ มีสิ่งที่แตกต่างกันตามรายละเอียดของการสร้างภาพ เริ่มตั้งแต่ประเภทที่มีรายละเอียดต่ำๆเช่นแบบ CIF (Common Intermediate Format) ถูกนำมาใช้งานเพื่อการประชุมทางไกลด้วยวงจรเชื่อมต่อที่ความเร็วต่ำด้วยเครือข่ายชนิด ISDN (64-128 Kbps) ที่รายละเอียดของภาพขนาดนี้ไม่สามารถสร้างภาพให้เต็มหน้าจอได้ ขนาดของภาพแบบ CIF มีขนาดอยู่ที่ 352 x 240 แปลความหมายก็คือภาพที่มีองค์ประกอบด้วยจำนวน 240 เส้น และแต่ละเส้นมีจุดภาพจำนวน 352 จุด นอกจากนี้ยังมีรูปแบบภาพที่ขนาดเล็กลงไปอีกเรียกว่า QCIF ที่นำไปใช้งานที่การติดต่อด้วยสัญญาณความเร็วต่ำหรืออาจอยู่บนหน้าเว็บก็ได้ มีขนาดภาพอยู่ที่ 178 x 144 จุด
การแพร่กระจายคลื่นสัญญาณโทรทัศน์แบบอนาลอกจะตั้งอยู่บนระบบพื้นฐานสามระบบดังนี้คือ PAL , NTSC , SECAM เท่านั้น ความแตกต่างที่สำคัญคือการส่งสัญญาณภาพที่ระดับ 525 เส้น 60 ภาพต่อวินาทีในระบบ NTSC และการส่งสัญญาณภาพ 625 เส้น 50 ภาพต่อวินาทีของระบบ PAL , SECAM แต่ถ้าคิดเฉพาะจำนวนเส้นที่ใช้เพื่อการสร้างภาพแท้จริงเท่านั้น มันย่อมมีตัวเลขจุดสร้างภาพน้อยกว่าจำนวนแรกที่เห็นจากข้างต้น (480 NTSC , 576 PAL)
การนำเสนอภาพในระบบโทรทัศน์แบบดิจิตอลในยุคเริ่มแรก ย่อมเป็นไปตามมาตรฐานของ MPEG – 1 และมีชื่อเรียกว่า SIF (Source Input Format) จำนวนค่าตัวเลขของ SIF ในระบบ NTSC อยู่ที่ 360 x 240 (จุดสร้างภาพจริงอยู่ที่ 352 x 240) สำหรับระบบ PAL มีค่าเป็น 360 x 288 (จุดสร้างภาพจริงอยู่ที่ 352 x 288) รายละเอียดจุดสร้างภาพเหล่านี้ใช้สำหรับกับระบบของ VCD ด้วยเหมือนกัน จะเห็นได้ว่าตัวเลขของ SIF ในระบบ PAL มีค่าตรงกับค่าตัวเลขของ CIF ที่ใช้ในระบบของโทรคมนาคมด้วยเช่นกัน
สำหรับในอุตสาหกรรมคอมพิวเตอร์ จอภาพมอนิเตอร์จะเริ่มต้นจากระดับพื้นฐานในยุคแรกๆ เริ่มต้นที่ระดับ VGA (640 x 480) สำหรับในปัจจุบันนี้ใช้งานกันที่ระดับสูงกว่านั้นมากเช่นแบบ XGA (1024 x 768) หรือแบบ SXGA (1280 x 960) ยังมีแบบที่อาจพบได้บ่อยๆที่มีชื่อว่า QVGA (Quarter VGA)จะมีค่ารายละเอียดของภาพอยู่ที่ 320 x 240 แต่นี่เป็นรูปแบบภาพที่ถูกนำไปใช้กับจอภาพของโทรศัพท์มือถือ ถึงแม้ว่ายังมีอีกสองรูปแบบที่นิยมนำมาใช้กันคือแบบ VGA และ CIF ก็ตาม ทั้งนี้ขึ้นอยู่กับการเลือกนำไปใช้ของเครือข่ายผู้ให้บริการ สำหรับรูปแบบภาพขนาด QVGA ในบางครั้งถูกเรียกว่า SIF (Standard Interchange Format) เนื่องจากมีการนำไปใช้ทั้งในแวดวงคอมพิวเตอร์และวงการสื่อสารโทรคมนาคม
สำหรับรูปแบบการนำเสนอภาพที่รายละเอียดภาพมากขึ้น ก็จะมีจำนวนของจุดสร้างภาพสูงขึ้นตามไปด้วย และนอกจากนี้ยังมีความแตกต่างกันที่อัตราส่วนทางแนวตั้งต่อทางแนวนอนของภาพว่าเป็นอัตราส่วนเท่าใด (aspect ratios) เช่น 4:3 , 16:9 ขึ้นอยู่กับการนำไปใช้งานด้านไหน โดยทั่วไปแล้วบนจอภาพขนาดเล็กก็สามารถแสดงภาพที่มีรายละเอียดภาพได้น้อยตามไปด้วย นี่เป็นเหตุผลให้กล้องถ่ายภาพด้านหน้าของโทรศัพท์มือถือไม่จำเป็นต้องมีรายละเอียดสูงมากนัก (VGA) เพราะมันถูกออกแบบเพื่อใช้งานเพื่อรองรับระบบโทรศัพท์ที่มองเห็นคู่สนทนากันได้เท่านั้น (video call) นี่ดูเหมือนจะแตกต่างจากกล้องด้านหลังเป็นอันมากที่อาจมีรายละเอียดได้มากกว่า 8M. pixels
ตารางรูปแบบการแสดงภาพตามปกติ
Broadcast Domain
|
Computer Display/Mobile
|
Communications
| ||||||
Format
|
Pixels
|
Aspect
|
Format
|
Pixels
|
Aspect
|
Format
|
Pixels
|
Aspect
|
SIF(PAL)
|
352x288
|
4:3
|
QVGA
|
320x240
|
4:3
|
CIF
|
352x288
|
1.2:1
|
SIF(NTSC)
|
352x240
|
4:3
|
CGA
|
320x200
|
4:3
|
QCIF
|
176x144
|
1.2:1
|
480i(SDTV NTSC)
|
704x480
|
4:3or16:9
|
VGA
|
640x480
|
4:3
|
4CIF
|
704x576
|
1.2:1
|
480p
|
704x480
|
4:3or16:9
|
WQVGA
|
400x240
|
5:3
|
16CIF
|
1408x1152
|
1.2:1
|
720p(HDTV)
|
1280x720
|
16:9
|
WVGA
|
768x480
|
8:5
|
SQCIF
|
128x96
|
1.33:1
|
1080i,1080p
(HDTV)
|
1920x1080
|
16:9
|
SVGA
|
800x600
|
4:3
|
Web
720X
|
720x540
|
4:3
|
QSIF
|
176x144
|
4:3
|
XGA
|
1024x
768
|
4:3
|
Web
720H
|
720x400
|
16:9
|
Cinema 2K
|
1998x1080
|
1.85:1
|
WSXGA
|
1280x720
|
16:9
|
Web360x
|
360x270
|
4:3
|
Cinema 4K
|
3996x
2160
|
1.85:1
|
SXGA
|
1280x
1024
|
5:4
|
Web360
HD
|
360x203
|
16:9
|
Academy 2K
|
1828x
1332
|
1.37:1
|
WXGA
|
1368x766
|
16:9
|
Web640x
|
640x480
|
4:3
|
Academy 4K
|
3656x
2664
|
1.37:1
|
UXGA
|
1600x
1200
|
4:3
|
Web640
HD
|
480x270
|
16:9
|
หมายเหตุ
เรื่องที่เกี่ยวข้องกันระหว่างรายละเอียดของภาพและจำนวนจุดสร้างภาพที่มีความเหมาะสมว่าควรเป็นเท่าใดจึงจะเป็นการแสดงภาพที่คมชัดมีคุณภาพ จะขึ้นอยู่กับว่าจำนวนจุดต่อนิ้วบนจอภาพ ตัวอย่างเช่นภาพที่เกิดจากสื่อประเภทความคมชัดสูงขนาด 1920 x 1080 (HD) จะให้ความคมชัดสูงได้ดีบนจอโทรทัศน์ขนาดตั้งแต่ 30 – 50 นิ้ว
แต่ไม่สามารถให้คุณภาพที่เทียบเท่ากันได้เลยบนจอภาพยนตร์ขนาดใหญ่ที่ฉายตามโรง เนื่องจากมันจะมีจำนวนจุดภาพต่อนิ้วต่ำและทำให้ภาพที่ปรากฏบนจอภาพดูหยาบ ระบบฉายภาพในโรงหนังแบบดิจิตอลมักใช้รายละเอียดระดับ 4K ที่ให้ระดับความคมชัดสูงสุดอยู่ที่ (4096x3112) และมีจำนวนจุดภาพ 12 ล้านจุดในหนึ่งภาพ ในขณะที่ระบบ HD มีจำนวนจุดภาพ 2 ล้านจุดต่อภาพเท่านั้นเอง
การบีบอัดสัญญาณภาพ
ในทางปฏิบัติแล้วการส่งสัญญาณภาพที่ปราศจากการบีบอัดแล้วในทางปฏิบัติแทบจะไม่มีความเป็นไปได้เลย ด้วยเหตุที่ข้อมูลมีปริมาณมหาศาลทำให้ต้องใช้เวลาในการส่งนานมาก สำหรับการใช้งานบนอินเตอร์เน็ทและอีเมล์ขนาดข้อมูลของภาพ ยังจำเป็นต้องปรับลดให้มีขนาดเล็กลงกว่าขนาดตามปกติอีก มันมีหลายวิธีเพื่อทำการลดขนาดของข้อมูลดังนี้
- เปลี่ยนขนาดของภาพให้เหมาะสมกับเครื่องรับ
- ลดจำนวนข้อมูลของแต่ละจุดภาพลง
- ใช้วิธีบีบอัดข้อมูล
เนื่องจากมีรูปแบบของภาพที่หลากหลาย ดังนั้นย่อมมีวิธีการบีบอัดที่แตกต่างกันทั้งอัตราส่วนหรือเทคนิคการทำงานที่นำมาใช้ และยังปรับเปลี่ยนไปตามคุณภาพที่ต้องการ สถานที่นำไปใช้งานเช่นใช้เพื่อการจัดเก็บบันทึกข้อมูล ขนาดของจอภาพ เป็นต้น
JPEG Format
รูปแบบของข้อมูลภาพแบบ JPEG เป็นรูปแบบภาพชนิดที่พบเห็นกันได้บ่อยมากที่สุดชนิดหนึ่ง วิธีการทำงานเข้ารหัสทำได้ด้วยการจัดแบ่งภาพออกเป็นส่วนย่อยๆหลายส่วนมีชื่อเรียกส่วนต่างเหล่านี้ว่าเป็น macro blocks ที่แต่ละส่วนประกอบด้วยจุดสร้างภาพขนาด 8 x 8 pixel แล้วนำไปผ่านกระบวนการทางคณิตศาสตร์ที่เรียกว่า Discrete Cosine Transformation หรือมีชื่อย่อสั้นๆว่า DCT ที่มีประสิทธิภาพในการละทิ้งข้อมูลที่ไม่จำเป็นจากการสแกนภาพแบบซิกแซก (ด้วยการเลือกข้อมูลที่เป็นส่วนความถี่ต่ำก่อนแล้วตามด้วยข้อมูลที่มีความถี่สูงกว่า) ก่อให้เกิดการลดขนาดของข้อมูลลง การลดขนาดของข้อมูลขึ้นอยู่กับว่าเราต้องการให้มีประสิทธิภาพมากขึ้นเราก็จำเป็นต้องยอมให้เกิดการสูญเสียข้อมูลมากตามไปด้วย
กระบวนการบีบอัดสัญญาณภาพด้วยวิธีการแบบ DCT ตั้งอยู่บนพื้นฐานของข้อเท็จจริงที่ว่าดวงตาของมนุษย์ไม่สามารถรับรู้รายละเอียดภาพที่สูงมากนัก นี่เองที่ย่อมเป็นการง่ายที่จะละทิ้งข้อมูลที่ไม่จำเป็นแต่ไม่ก่อให้เกิดผลกระทบต่อคุณภาพของการมองเห็นภาพที่ถูกบีบอัดสัญญาณ โดยทั่วไปแล้วการบีบอัดสัญญาณสามารถกระทำได้ที่อัตราส่วน 20 : 1 โดยปราศจากการสูญเสียคุณภาพของภาพ การบีบอัดข้อมูลแบบนี้มีชื่อเรียกอีกชื่อว่า lossy เพราะว่าเนื่องจากข้อมูลที่เป็นความถี่สูงถูกกำจัดทิ้งออกไปโดยไม่สามารถกู้คืนมาได้อีก ด้วยเหตุนี้การทำงานในสตูดิโอและการตัดต่อจึงยังจำเป็นต้องจัดเก็บข้อมูลภาพแบบที่ไม่มีการบีบอัด (raw file) ข้อมูลภาพแบบ JPEG จะถูกบันทึกด้วยการใช้ชื่อแล้วตามด้วยนามสกุล . jpg
GIF Format
มาจากตัวย่อของคำว่า Graphical Interchange Format ได้ถูกพัฒนาและนำมาใช้งานตั้งแต่ปี 1980 โดยบริษัท Compuserve และได้รับการยอมรับให้เป็นมาตรฐานสำหรับการจัดเก็บและการส่งสัญญาณภาพตั้งแต่นั้นมา มันเป็นการบีบอัดภาพชนิดที่ไม่สูญเสียข้อมูลด้วยการใช้เทคนิคที่เรียกว่า LZW โดยมีประสิทธิภาพอยู่ที่การจำกัดข้อมูลของสีให้เหลือเพียง 16 หรือ 256 สีเท่านั้น มันให้ผลดีเมื่อนำมาใช้งานที่เกี่ยวข้องกับการร่างหรือวาดภาพต้นแบบ นอกจากนี้ยังรองรับการใช้งานแบบภาพโปร่งใสและภาพเคลื่อนไหวได้ด้วย ข้อมูลภาพแบบนี้จะถูกจัดเก็บและบันทึกด้วยนามสกุล . gif
BMP Format
มาจากตัวย่อของคำว่า Bitmapped Graphics Format ได้รับการกำหนดโดยบริษัท Microsoft ตามปกติมักใช้ในสภาพแวดล้อมของระบบปฏิบัติการแบบ Window การลดข้อมูลของภาพทำได้ด้วยการจำกัดข้อมูลของสีเป็น 1 , 4 , 8 , 16 bit ข้อมูลภาพแบบนี้มีนามสกุลต่อท้ายเป็น . bmp
VIDEO
เมื่อเป็นภาพเคลื่อนไหว ย่อมจำเป็นที่จะต้องมีการลำเลียงข้อมูลของภาพแบบต่อเนื่อง ด้วยเหตุนี้ทำให้เราจำเป็นต้องทำความเข้าใจกับเรื่องของวิดีโอเสียก่อน เรื่องของภาพเคลื่อนไหวตั้งอยู่บนพื้นฐานของกฎเกณฑ์ที่เกี่ยวข้องกับการรับรู้และจดจำภาพได้ของดวงตามนุษย์ ที่ไม่สามารถสังเกตการณ์เปลี่ยนแปลงฉากแบบรวดเร็วได้ทัน ด้วยการนำคุณสมบัติของการมองเห็นภาพแบบนี้มาใช้ ทำให้การส่งภาพที่มีการจัดลำดับไว้แล้ว เกิดเป็นภาพเคลื่อนไหวที่ต่อเนื่องกันตามความรู้สึกของผู้ชมทั้งที่ความจริงแล้วคือการจัดส่งเรียงกันไปทีละภาพเท่านั้น การฉายภาพเคลื่อนไหวมีหน่วยนับเป็นเฟรมต่อวินาที เช่นการฉายภาพยนตร์จะฉายที่ 24 เฟรมโดยแต่ละภาพจะทำการฉายสองครั้งรวมเป็น 48 เฟรมต่อวินาที และก่อให้เกิดภาพที่เคลื่อนไหวต่อเนื่องกันไป
Scanning
คำว่า “เฟรม” มาจากกล้องถ่ายรูปซึ่งเป็นการจับภาพเป็นชุดต่อเนื่องกันไป และเรียกแต่ละภาพว่าเป็นหนึ่งเฟรม มันถูกถ่ายทอดมายังรูปแบบของวิดีโอ ที่อาจมีเสียงเพิ่มเข้าไปหนึ่งหรือสองช่องเสียงประกอบกันด้วย แต่ละเฟรมนำเสนอภาพเพียงหนึ่งภาพ และในกรณีของภาพเคลื่อนไหวคือการจัดส่งภาพจำนวน 25 หรือ 30 เฟรมต่อวินาที (ขึ้นอยู่กับแต่ละระบบ)
ในขั้นตอนแรกของการสร้างสัญญาณวิดีโอจากภาพใดๆ ต้องเริ่มต้นที่การสแกนภาพเสียก่อนโดยตัวกล้องจะทำการวัดข้อมูลความเข้มและสีในแต่ละภาพด้วยการสแกนเป็นเส้นทางแนวนอน จำนวนเส้นที่เรียงลำดับกันไปหลายๆเส้นตั้งแต่ต้นจนหมดที่ขอบด้านล่างย่อมเป็นภาพหนึ่งภาพ
ในกรณีที่เป็นรูปแบบของสัญญาณแบบอนาลอก กระบวนการสแกนจะก่อให้เกิดอนุกรมของระดับสัญญาณ (เป็นขนาดของสัญญาณต่อฐานเวลา) นำเสนอการเปลี่ยนแปลงของภาพจากระดับความสว่างมากสุดไปถึงระดับมืดสุด กระบวนการจะสร้างรูปคลื่นของเส้นที่เป็นจุดภาพทางแนวนอนแต่ละเส้นต่อกันไปจนกระทั่งจุดของภาพทุกเส้นถูกสแกนจนหมด แล้วถูกเปลี่ยนให้เป็นสัญญาณภาพแบบอนาลอกจนหมดเฟรม แต่ละเฟรมถูกกำหนดไว้ล่วงหน้าว่ามีจำนวนเส้นเป็นเท่าใด โดยที่แต่ละเส้นและแต่ละเฟรมถูกแบ่งแยกด้วยสัญญาณที่มีรูปคลื่นชนิดหนึ่งเรียกว่า blanking pulse การสแกนจำเป็นต้องกระทำซ้ำๆกันหลายครั้งต่อวินาทีเพื่อก่อให้เกิดเป็นภาพเคลื่อนไหวต่อเนื่องกัน
Interlace and Progressive Scanning
เมื่อภาพถูกสแกนที่ระดับ 25 – 30 เฟรมต่อวินาที แล้วนำมาฉายต่อเนื่องกันจะก่อให้เกิดการมองเห็นเป็นภาพกระพริบเนื่องจากมีเวลาที่เป็นช่องว่างของแต่ละเฟรม (ประมาณ 40 m .sec) สำหรับการสแกนภาพที่ 25 เฟรม (fps) ในขณะที่การทำให้ปราศจากการกระพริบของภาพจำเป็นต้องทำการเปลี่ยนภาพที่ระดับไม่เกิน 20 m .sec ดังนั้นวิธีการที่นำมาจากอุตสาหกรรมภาพยนตร์จึงถูกนำมาใช้ ด้วยวิธีการฉายภาพแต่ละเฟรมสองครั้ง เพื่อให้ลดอาการภาพกระพริบ ในยุคของสัญญาณแบบอนาลอกแล้วถือว่าเป็นเรื่องที่ค่อนข้างยุ่งยากพอสมควรทีเดียว เนื่องจากยังไม่มีมีวิธีการใดๆเพื่อใช้เก็บภาพอีกเฟรมไว้ได้ จนกระทั่งมีวิธีการทางกลไกแบบใหม่ที่เรียกว่า interlace scanning ด้วยการจัดแบ่งให้เป็นการสแกนภาพเพียงครึ่งหนึ่งของจำนวนเส้นสร้างภาพทั้งหมดของแต่ละเฟรม มีชื่อเรียกว่าเป็นหนึ่ง field โดยที่ฟิลด์แรกถูกกำหนดให้แสดงภาพเส้นที่เป็นเลขคี่ของการสแกน ส่วนฟิลด์ที่เหลือทำการแสดงด้วยเส้นที่เป็นเลขคู่ การสแกนแบบ interlace ยังคงใช้อยู่ทุกวันนี้แม้กระทั่งในการส่งสัญญาณภาพระบบดิจิตอลก็ตาม การสแกนแบบ interlace ไม่เหมาะกับการนำไปใช้บนจอภาพเครื่องคอมพิวเตอร์หรือบนจอโทรศัพท์มือถือ เนื่องจากมีความจำเป็นต้องแสดงภาพที่เป็นตัวหนังสือที่อาจมีขนาดเล็กและก่อให้เกิดอาการภาพกระพริบ ดังนั้นมีความจำเป็นต้องใช้การสแกนแบบ progressive ที่ให้คุณภาพดีกว่ากัน บนเครื่องตัดต่อวิดีโอแบบนอนลิเนียร์ก็เช่นเดียวกันที่จำเป็นต้องใช้วิธีการสแกนภาพแบบนี้
Color
ดวงตาของมนุษย์รับรู้แสงด้วยวิธีการผสมสีจำนวนสามสีเข้าด้วยกัน ประกอบด้วยสีแดง สีเขียว และสีน้ำเงิน (RGB) นี่ถือว่าเป็นเรื่องดีต่อการนำเสนอสัญญาณภาพ และยิ่งสะดวกมากขึ้นเมื่อมันถูกแยกออกเป็นสัญญาณส่องสว่างและสัญญาณสี นี่เป็นการช่วยเหลือให้เครื่องรับโทรทัศน์แบบขาวดำที่ต้องการเฉพาะสัญญาณส่องสว่างเท่านั้น การทับซ้อนเช่นนี้ถูกกระทำได้โดยง่ายด้วยการนำเสนอสัญญาณส่องสว่างให้แทนค่าด้วย Y และสัญญาณสีด้วย U หรือ B – Y และ V หรือ R – Y จากในอดีตที่ผ่านมาขณะที่เครื่องรับโทรทัศน์ชนิดขาวดำต้องการเพียงสัญญาณส่องสว่างเท่านั้น (Y) และเพื่อให้มีการใช้งานร่วมกันได้การส่งสัญญาณจะใช้วิธีการส่งโดยแยกสัญญาณทั้งสองออกแล้วส่งไปพร้อมกัน ทำให้เครื่องรับแบบขาวดำแสดงภาพเฉพาะสัญญาณส่องสว่าง ในขณะที่เครื่องรับโทรทัศน์แบบสีใช้ทั้งสัญญาณส่องสว่างและสัญญาณสีประกอบกัน
ด้วยเหตุที่ดวงตามนุษย์รับรู้รายละเอียดของสีได้ต่ำกว่ารายละเอียดของภาพขาวดำ ดังนั้นช่องของสัญญาณสีเพื่อใช้ออกอากาศก็ไม่ต้องมีค่าสูงมากเท่ากับสัญญาณส่องสว่าง ดังตัวอย่างในกรณีของระบบ PAL ช่องในการส่งสัญญาณส่องสว่างอยู่ที่ 5.5 MHz ในขณะที่ช่องของการส่งสัญญาณสี U , V ถูกส่งด้วยช่องสัญญาณขนาด 1.5 MHz เท่านั้น ในทำนองเดียวกันของระบบ NTSC ช่องของสัญญาณสีทีเรียกว่า I , Q จะส่งออกด้วยช่องสัญญาณขนาด 1.3 MHz , 400 KHz ตามลำดับ และสัญญาณส่องสว่างถูกส่งด้วยช่องสัญญาณขนาด 4.2 MHz
Analog TV Signal Format
สัญญาณวิดีโอแบบอนาลอกย่อมประกอบด้วยสีทั้งสามสีคือ แดง เขียว และน้ำเงินซึ่งอาจจะถูกนำพาไปด้วยสายเคเบิลสามเส้นในกรณีที่เป็นการเชื่อมต่อกันระยะใกล้ รูปแบบการเชื่อมต่อแบบนี้เรียกกันว่าแบบ Component และจอภาพของเครื่องคอมพิวเตอร์นิยมใช้วิธีการเชื่อมต่อแบบนี้ แต่ถ้าในระบบของทีวีจะใช้การเชื่อมต่อแบบ YUV สาเหตุเพราะเนื่องจากการใช้งานร่วมกับอุปกรณ์ที่เป็นแบบขาวดำได้
Composite Video
ถ้าเป็นการเชื่อมต่อสัญญาณวิดีโอที่อุปกรณ์มีระยะห่างไกลกันแล้ว การใช้สายเคเบิลถึงสามเส้นดูจะเป็นการสิ้นเปลืองเกินไปดังนั้นการใช้วิธีการเชื่อมต่อแบบคอมโพสิทน่าจะเป็นทางเลือกที่เหมาะสมกว่ากัน วิธีการเชื่อมต่อทำได้ด้วยการนำเอาสัญญาณสีรวมเข้ากับสัญญาณส่องสว่าง (modulation) ทั้งนี้วิธีการผสมสัญญาณจะขึ้นอยู่กับระบบทีวีนั้นๆ เช่นระบบ NTSC ใช้วิธีการแบบ QAM (Quadrature Amplitude Modulation) แต่ถ้าเป็นของระบบ PAL , SECAM จะใช้วิธีการแบบ FM (Frequency Modulation) เป็นต้น
สัญญาณวิดีโอแบบ S – Video จะเป็นการเชื่อมต่อชนิดที่แยกสายเคเบิลสัญญาณส่องสว่างออกจากสายเคเบิลสัญญาณสีเพื่อป้องกันการรบกวนระหว่างกัน นิยมใช้งานกับอุปกรณ์วิดีโอตามบ้านที่ต้องการให้ได้รับคุณภาพสูง
Digital TV Formats
สัญญาณวิดีโอแบบอนาลอกสามารถทำให้เป็นสัญญาณแบบดิจิตอลด้วยการนำเอาไปสุ่มหาระดับค่าด้วยความถี่ (Sampling) ทีสูงเป็นอย่างน้อยสองเท่าของย่านความถี่สัญญาณใช้งาน (Nyquist rate) การสุ่ม ระดับค่าของสัญญาณจะกระทำกับสัญญาณแบบ Component อันประกอบด้วยสัญญาณทั้งสามคือ Y , U , V สำหรับอัตราความถี่ของการสุ่มสัญญาณภาพหรือสัญญาณส่องสว่าง (Luminance) อยู่ที 13.5 MHz ในขณะที่อัตราการสุ่มสัญญาณสี (Chominance) ที 6.75 MHz (2x3.375 MHz) ซึ่งหลังจากสุ่มระดับแล้วต้องนำมารวมกันอีกที (เพื่อก่อให้เกิดสัญญาณภาพแบบดิจิตอลต่อเนื่องกันไป) ความถี่ของการสุ่มสัญญาณสีจะกระทำที่อัตราต่ำกว่าการสุ่มสัญญาณส่องสว่าง โดยผลของคุณภาพการมองเห็นภาพที่ได้รับยังคงเป็นปกติ ด้วยเหตุนี้เองการเข้ารหัสสัญญาณสีของ U , V จะมีอัตราจำนวนข้อมูลเพียงครึ่งเดียวของสัญญาณส่องสว่าง และมักจะเห็นรูปลักษณ์จนคุ้นเคยกันดีดังนี้ YUV 4 : 2 : 2 หมายความว่าทุกการสุ่มสี่ครั้งของสัญญาณส่องสว่าง (Y) จะมีการสุ่มของสัญญาณสีทั้งสองจำนวนสองครั้ง (U , V) หรือเรียกอีกอย่างได้ว่าอัตราการสุ่มของสัญญาณสีเป็นครึ่งหนึ่งของสัญญาณส่องสว่าง
ยังมีวิธีการลดข้อมูลลงได้อีกหลายแบบ เช่นด้วยวิธีการสุ่มสัญญาณสีเพียงครั้งละหนึ่งสีสลับกันไป วิธีการแบบนี้เรียกว่าระบบ 4 : 2 : 0 หรือวิธีการสุ่มสัญญาณส่องสว่างสี่ครั้งแล้วสุ่มสัญญาณสีเพียงครั้งเดียวที่เรียกว่าระบบ 4 : 1 : 1 แต่ในทางกลับกันถ้าต้องการคุณภาพสูงสุดเช่นในห้องสตูดิโอและห้องตัดต่อหรือใช้งานด้านการพิมพ์ อัตราการสุ่มจะเป็นระบบ 4 : 4 : 4
ในระบบโทรทัศน์ที่มีความชัดเจนตามปกติทีใช้วิธีการสแกนแบบแทรกสอด (interlace scan) จะทำการสแกนเส้นภาพทางแนวนอนแต่ละเส้นด้วยอัตราการสุ่มสัญญาณภาพส่องสว่าง (Y) จำนวน 720 ครั้งและมีอัตราการสุ่มสัญญาณสีทั้งสอง (Cr , Cb)จำนวน 360 ครั้ง โดยที่การสุ่มระดับค่าของอุปกรณ์ประเภท professional จะนำเสนอด้วยขนาดข้อมูลของภาพจำนวน 10 bit
นอกจากนี้ยังมีความแตกต่างกันอีกระหว่างจำนวนจุดภาพทั้งหมดและจำนวนจุดกำเนิดภาพแท้จริงที่ใช้บรรจุข้อมูลของภาพวิดีโอ (active area) ในวิดีโอแบบดิจิตอลช่องว่างที่พอจะหาได้จากการสแกนเส้นแนวนอนที่ไม่ก่อให้เกิดภาพ (non active area) และช่องว่างที่ใช้แบ่งภาพแต่ละเฟรมจะถูกนำมาใช้บรรจุข้อมูลของเสียงแบบสเตอริโอได้และข้อมูลอื่นที่จำเป็นเข้าไป
SDI Video
การเปลี่ยนสัญญาณวิดีโอจากแบบอนาลอกไปสู่รูปแบบสัญญาณดิจิตอลด้วยการสุ่มระดับค่ายังเป็นข้อมูลแบบที่ยังไม่ได้ถูกบีบอัด ข้อมูลภาพและเสียงแบบนี้จะถูกใช้งานภายในสถานีโทรทัศน์หรือหน่วยงานที่ผลิตรายการเอง และใช้วิธีการเชื่อมต่อสัญญาณระหว่างอุปกรณ์แบบอนุกรมที่เรียกว่าการเชื่อมต่อแบบ SDI (serial digital interface) โดยมีหน่วยงานด้านวิศวกรรมภาพยนตร์และโทรทัศน์ที่ชื่อว่า SMPTE (The Society of Motion Picture) เป็นผู้กำหนดมาตรฐานมีทั้งชนิด SDI และ SDI – HD สัญญาณวิดีโอแบบนี้ใช้เป็นมาตรฐานสำหรับการประมวลผลหลายอย่างเช่น การนำไปเข้ารหัส การบีบอัดและการจัดเก็บบันทึก นอกจากนี้มันยังสามารถบรรจุข้อมูลอื่นๆพ่วงไปกับมันได้อีก (embedded)
Video format
|
SMPTE standard
|
Bit rate
| |
480i , 576i(SD-SDI)
480p , 576p
1080i , 720p(HD-SDI)
1080p (Dual-Link SDI)
|
SMPTE 259M
SMPTE 344M
SMPTE 292M
SMPTE 272M
|
270 Mbps
540 Mbps
1.485 Gbps
2.970 Gbps
|
Video Bit Rate Reduction
SDI วิดีโอที่ใช้งานแบบมืออาชีพตามห้องสตูดิโอและระบบให้บริการออกอากาศหรืออุปกรณ์วิดีโอที่รองรับตามมาตรฐานความคมชัดปกติ (SD) มีมาตรฐานอัตราการส่งข้อมูลที่ 270 Mbps แต่อย่างไรก็ดีในการเชื่อมต่อที่ระยะไกลและการแพร่กระจายคลื่นเพื่อออกอากาศไปยังผู้รับชมตามบ้าน มีความจำเป็นต้องลดระดับอัตราของข้อมูล (Bit Rate) ในขณะเดียวกันก็ต้องรักษาระดับคุณภาพไว้ด้วย ในกรณีนี้มีอยู่สองวิธีที่จะลดระดับอัตราข้อมูลด้วยวิธีการลดขนาดของภาพลง (Scaling) และวิธีการบีบอัดข้อมูล (Compression)
บทความนี้ยังไม่จบครับมีต่ออีก
ความคิดเห็น
แสดงความคิดเห็น