สื่อผสมในรูปแบบดิจิตัล (digital multimedia)

   
Digital  Multimedia
บทนำ
                ในขั้นตอนของการเริ่มต้นจัดตั้งระบบออกอากาศสำหรับเครื่องรับโทรทัศน์ประเภทพกพา  เราจะดูเสมือนว่าเต็มไปด้วยกองเอกสารวิชาการต่างๆจำนวนมากมาย     ที่เกี่ยวข้องกับการขนส่งเนื้อหารายการทีวีที่เคยเห็นเป็นของจอภาพขนาดใหญ่ไปยังจอภาพของอุปกรณ์ประเภทพกพาเคลื่อนที่ได้   แต่ทว่าอย่างไรก็ดีบางสิ่งอาจเป็นปัญหาหรือสิ่งที่อาจเกิดขึ้นหลายอย่างก็ไม่เป็นไปตามที่คาดหวังทั้งหมด    นี่ก็ไม่ได้เป็นเรื่องที่แตกต่างจากกรณีของการทำให้เครื่อง  โทรศัพท์มือถือสามารถเข้าไปใช้งานในหน้าเว็บไซด์ด้วยวิธีการเชื่อมต่อแบบไร้สายผ่านรูปแบบที่เรียกว่า  WAB กรณีที่ว่านี้ปัจจุบันที่ยอมรับกันว่าเป็นเรื่องทีมีความยุ่งยากและซับซ้อนต่อโลกของวงการอุปกรณ์แบบพกพา  ที่มีหน้าจอภาพขนาดเล็ก  และยังมีคุณสมบัติทำงานโต้ตอบกับผู้ใช้งานได้    สามารถสร้างสรรค์การใช้งานที่แตกต่างจากความสัมพันธ์ลักษณะการใช้งานบนจอภาพขนาดใหญ่แบบติดตั้งประจำที่บ้านแบบของเดิม
ในโลกของสัญญาณวิดีโอแบบดิจิตอลเต็มไปด้วยเรื่องน่าตื่นเต้นน่าสนใจ  มันเป็นเรื่องที่เกี่ยวข้องกับการจัดส่งสัญญาณวิดีโอไปยังอุปกรณ์ทีแตกต่างกันหลายประเภท   ตั้งแต่อุปกรณ์พกพาที่มีจอภาพขนาดเล็กจิ๋วไปจนกระทั่งบนจอภาพยนตร์ขนาดยักษ์เท่าตึกหลายชั้น    ยังมีเรื่องที่แตกต่างกันที่ตัวอุปกรณ์เช่น  เครื่องรับแบบความชัดเจนสูงและ แบบชัดเจนปกติ    หรือบนเครื่องคอมพิวเตอร์พกพาที่เป็นแบบ notebook   tablet    นอกจากนี้ยังมีระบบที่การส่งสัญญาณแบบใช้คลื่นภาคพื้นดิน    การใช้เครื่องรับ ผ่านดาวเทียม    หรืออาจเป็นการรับจากวิธีการเดินสายไปตามบ้าน (cable TV)    แต่ถ้าในกรณีที่เป็นการแบ่งแยกที่ระบบของเครือข่ายที่มีทั้งประเภท  DVB-H  ,  IP  TV  ,  3G  เป็นต้น   ทั้งหมดนี้สามารถทำให้เป็นไปได้ด้วยเรื่องของการกำหนดมาตรฐานและเทคโนโลยีของการเข้ารหัสสัญญาณภาพและเสียง     เพื่อนำไปสู่ กระบวนการแพร่สัญญาณไปถึงผู้ใช้    และกระบวนการรับชมนำภาพและเสียงมาใช้งาน
             แต่อย่างไรก็ดีกฎเกณฑ์ขั้นพื้นฐานของระบบการส่งสัญญาณแบบดิจิตอลเป็นเรื่องที่ทำความเข้าใจได้โดยง่าย   สิ่งเหล่านี้เป็นเรื่องของภาพนิ่งหรือภาพเคลื่อนไหว (อันนี้แหละคือวิดีโอ) และสัญญาณเสียงอีกหนึ่งหรือหลายช่องก็ได้   ทั้งภาพและเสียงจะอยู่ในรูปของการใช้วิธีการบีบอัดข้อมูล     ด้วยการเข้ารหัสและให้เป็นไปตามมาตรฐานสำหรับการแพร่กระจายคลื่น     ทั้งหมดนี้ทำให้เราสามารถทำความเข้าใจถึงเรื่องของการรับชมโทรทัศน์แบบพกพารวมไปถึงเทคโนโลยีทีเกี่ยวข้อง
                เราจะเริ่มการเดินทางเข้าสู่โลกของโทรทัศน์แบบพกพา    ด้วยการทำความรู้จักกับรูปแบบของประเภทสื่อที่อยู่ในรูปแบบดิจิตอล     หัวข้อของการบีบอัดสัญญาณภาพและเสียงถือว่าจำเป็นและเป็นเหตุผลเดียวที่เราจำเป็นต้องนำมาถกประเด็นในที่นี้      เนื่องจากบนเครือข่ายของระบบโทรศัพท์มือถือย่อมมีคุณสมบัติและรูปแบบที่เฉพาะของมัน    คุณภาพที่ได้จากหน้าจอภาพย่อมถูกตัดสินโดยคุณสมบัติเหล่านี้
                  ดิจิตอลวิดีโอที่อยู่บนหน้าเว็บของเครื่องคอมพิวเตอร์    หรือการรับชมทีวีออกอากาศผ่านเครือข่ายตามปกติย่อมเป็นความแตกต่างกันที่รายละเอียดของการสร้างภาพและที่เทคนิควิธีการเข้ารหัส    เมื่อเรามีเป้าหมายเช่นนี้การทำความเข้าใจกับรูปแบบของสื่อผสมด้วยรูปแบบพื้นฐานที่แตกต่างกันย่อมเป็นเรื่องสำคัญ    คุณสมบัติของเครือข่ายโทรศัพท์มือถือด้านความเร็วของการส่งข้อมูลถือว่าต่ำมาก   ถ้าเปรียบเทียบกับการส่งข้อมูลสัญญาณภาพโทรทัศน์ที่มีความชัดเจนปกติ     ดังนั้นเราจำเป็นต้องเลือกใช้การเข้ารหัสภาพและเสียงทีมีประสิทธิภาพมากกว่าเดิมเป็นแบบ  MPEG-4       ที่ตัวอุปกรณ์เครื่องโทรศัพท์เองก็ยังมีข้อจำกัดเรื่องของพลังงานที่ได้จากแบตเตอรี่      ขนาดของหน่วยความจำและหน่วยประมวลผลที่มีจำกัดทั้งเรื่องขอเองความเร็วและขนาดความจุของข้อมูล 

ภาพ

                ภาพคือองค์ประกอบขั้นต้นของสื่อผสม    ตัวภาพเองย่อมถูกกำหนดโดยความเข้ม  สี  และขนาด  สำหรับตัวอย่างเช่นบนจอภาพขนาด VGA  มีขนาดอยู่ที่  640 x 480 จุด  และขนาดของไฟล์ภาพจะขึ้นอยู่กับจำนวนของ byte ที่ใช้สำหรับนำเสนอข้อมูลของแต่ละจุดสร้างภาพ   ลองดูตามตัวอย่างสมมุติให้แต่ละจุดภาพถูกบรรจุด้วยข้อมูลจำนวน 3 byte    ดังนั้นขนาดข้อมูลของทั้งภาพย่อมมีจำนวนทั้งหมดเป็น          640 x 480 x 3 = 921600 bytes   หรือ 921 KB   หรือ 0.92 mega bytes
                ในทำนองเดียวกันบนจอภาพขนาด XGA มีขนาดอยู่ที่ 1024 x 768 จุด ย่อมมีขนาดของไฟล์ภาพอยู่ที่   1024 x 768 x 3  =  2359.2 KB   หรือ 2.4 MB
ขนาดของภาพ
                ภาพถูกนำเสนอโดยจุดเล็กๆหลายจุดรวมกันเป็นหนึ่งภาพ  และจำนวนจุดของภาพย่อมเป็นเหตุให้ต่อเนื่องไปถึงขนาดของไฟล์ภาพ  ในการส่งภาพที่ขนาดความคมชัดตามปกติ (CCIR 601 or ITU BT.601)  ภาพถูกนำเสนอที่ขนาด  720 x 576 pixels ในระบบ PAL     แต่ถ้าระบบ NTSC อยู่ที่ 720 x 480 pixels หรือประมาณ 300 K pixels    แต่ถ้าภาพเดียวกันนี้ถูกนำเสนอบนจอภาพของระบบทีวีพกพาจะอยู่ที่ 352 x 240 และมีข้อมูลที่จำเป็นต้องใช้เพียง 82 K pixels   แต่ถ้าเป็นการส่งข้อมูลภาพแบบ HDTV เพื่อออกอากาศด้วยขนาด 1920 x 1080 pixels   ก็จำเป็นต้องใช้ข้อมูลภาพขนาด 2M pixels    สำหรับการแสดงภาพบนหน้าจอ ตามปกติ   ขนาดของจอและรายละเอียดของภาพสามารถนำเสนอด้วยจำนวนของจุดสร้างภาพที่แตกต่างกัน  และมันย่อมมีผลโดยตรงกับคุณภาพของภาพด้วย
รายละเอียดของภาพในแต่ละวงการ:Communications , Computer , Broadcast
                ประเภทของรูปแบบภาพแต่ละชนิดที่ใช้นำเสนอสัญญาณวิดีโอ  มีสิ่งที่แตกต่างกันตามรายละเอียดของการสร้างภาพ   เริ่มตั้งแต่ประเภทที่มีรายละเอียดต่ำๆเช่นแบบ CIF (Common Intermediate Format) ถูกนำมาใช้งานเพื่อการประชุมทางไกลด้วยวงจรเชื่อมต่อที่ความเร็วต่ำด้วยเครือข่ายชนิด ISDN (64-128 Kbps) ที่รายละเอียดของภาพขนาดนี้ไม่สามารถสร้างภาพให้เต็มหน้าจอได้  ขนาดของภาพแบบ CIF มีขนาดอยู่ที่  352 x 240   แปลความหมายก็คือภาพที่มีองค์ประกอบด้วยจำนวน 240  เส้น  และแต่ละเส้นมีจุดภาพจำนวน  352 จุด    นอกจากนี้ยังมีรูปแบบภาพที่ขนาดเล็กลงไปอีกเรียกว่า  QCIF  ที่นำไปใช้งานที่การติดต่อด้วยสัญญาณความเร็วต่ำหรืออาจอยู่บนหน้าเว็บก็ได้  มีขนาดภาพอยู่ที่ 178 x 144 จุด
การแพร่กระจายคลื่นสัญญาณโทรทัศน์แบบอนาลอกจะตั้งอยู่บนระบบพื้นฐานสามระบบดังนี้คือ PAL , NTSC , SECAM เท่านั้น   ความแตกต่างที่สำคัญคือการส่งสัญญาณภาพที่ระดับ 525 เส้น 60 ภาพต่อวินาทีในระบบ NTSC   และการส่งสัญญาณภาพ 625 เส้น 50 ภาพต่อวินาทีของระบบ PAL , SECAM แต่ถ้าคิดเฉพาะจำนวนเส้นที่ใช้เพื่อการสร้างภาพแท้จริงเท่านั้น   มันย่อมมีตัวเลขจุดสร้างภาพน้อยกว่าจำนวนแรกที่เห็นจากข้างต้น (480 NTSC , 576 PAL)
                การนำเสนอภาพในระบบโทรทัศน์แบบดิจิตอลในยุคเริ่มแรก  ย่อมเป็นไปตามมาตรฐานของ MPEG – 1   และมีชื่อเรียกว่า SIF (Source Input Format)   จำนวนค่าตัวเลขของ SIF ในระบบ NTSC อยู่ที่ 360 x 240  (จุดสร้างภาพจริงอยู่ที่ 352 x 240)   สำหรับระบบ PAL มีค่าเป็น 360 x 288 (จุดสร้างภาพจริงอยู่ที่ 352 x 288)  รายละเอียดจุดสร้างภาพเหล่านี้ใช้สำหรับกับระบบของ VCD ด้วยเหมือนกัน   จะเห็นได้ว่าตัวเลขของ SIF ในระบบ PAL  มีค่าตรงกับค่าตัวเลขของ CIF  ที่ใช้ในระบบของโทรคมนาคมด้วยเช่นกัน
สำหรับในอุตสาหกรรมคอมพิวเตอร์ จอภาพมอนิเตอร์จะเริ่มต้นจากระดับพื้นฐานในยุคแรกๆ  เริ่มต้นที่ระดับ VGA  (640 x 480)   สำหรับในปัจจุบันนี้ใช้งานกันที่ระดับสูงกว่านั้นมากเช่นแบบ XGA (1024 x 768)  หรือแบบ SXGA (1280 x 960)   ยังมีแบบที่อาจพบได้บ่อยๆที่มีชื่อว่า QVGA (Quarter VGA)จะมีค่ารายละเอียดของภาพอยู่ที่ 320 x 240  แต่นี่เป็นรูปแบบภาพที่ถูกนำไปใช้กับจอภาพของโทรศัพท์มือถือ   ถึงแม้ว่ายังมีอีกสองรูปแบบที่นิยมนำมาใช้กันคือแบบ VGA และ CIF ก็ตาม  ทั้งนี้ขึ้นอยู่กับการเลือกนำไปใช้ของเครือข่ายผู้ให้บริการ   สำหรับรูปแบบภาพขนาด QVGA ในบางครั้งถูกเรียกว่า SIF (Standard Interchange Format)  เนื่องจากมีการนำไปใช้ทั้งในแวดวงคอมพิวเตอร์และวงการสื่อสารโทรคมนาคม
สำหรับรูปแบบการนำเสนอภาพที่รายละเอียดภาพมากขึ้น ก็จะมีจำนวนของจุดสร้างภาพสูงขึ้นตามไปด้วย   และนอกจากนี้ยังมีความแตกต่างกันที่อัตราส่วนทางแนวตั้งต่อทางแนวนอนของภาพว่าเป็นอัตราส่วนเท่าใด (aspect ratios)  เช่น 4:3 , 16:9    ขึ้นอยู่กับการนำไปใช้งานด้านไหน โดยทั่วไปแล้วบนจอภาพขนาดเล็กก็สามารถแสดงภาพที่มีรายละเอียดภาพได้น้อยตามไปด้วย  นี่เป็นเหตุผลให้กล้องถ่ายภาพด้านหน้าของโทรศัพท์มือถือไม่จำเป็นต้องมีรายละเอียดสูงมากนัก (VGA)   เพราะมันถูกออกแบบเพื่อใช้งานเพื่อรองรับระบบโทรศัพท์ที่มองเห็นคู่สนทนากันได้เท่านั้น (video call)  นี่ดูเหมือนจะแตกต่างจากกล้องด้านหลังเป็นอันมากที่อาจมีรายละเอียดได้มากกว่า 8M. pixels 

ตารางรูปแบบการแสดงภาพตามปกติ
Broadcast Domain
Computer Display/Mobile
Communications
Format
Pixels
Aspect
Format
Pixels
Aspect
Format
Pixels
Aspect
SIF(PAL)
352x288
4:3
QVGA
320x240
4:3
CIF
352x288
1.2:1
SIF(NTSC)
352x240
4:3
CGA
320x200
4:3
QCIF
176x144
1.2:1
480i(SDTV NTSC)
704x480
4:3or16:9
VGA
640x480
4:3
4CIF
704x576
1.2:1
480p
704x480
4:3or16:9
WQVGA
400x240
5:3
16CIF
1408x1152
1.2:1
720p(HDTV)
1280x720
16:9
WVGA
768x480
8:5
SQCIF
128x96
1.33:1
1080i,1080p
(HDTV)
1920x1080
16:9
SVGA
800x600
4:3
Web
720X
720x540
4:3
QSIF
176x144
4:3
XGA
1024x
768
4:3
Web
720H
720x400
16:9
Cinema 2K
1998x1080
1.85:1
WSXGA
1280x720
16:9
Web360x
360x270
4:3
Cinema 4K
3996x
2160
1.85:1
SXGA
1280x
1024
5:4
Web360
HD
360x203
16:9
Academy 2K
1828x
1332
1.37:1
WXGA
1368x766
16:9
Web640x
640x480
4:3
Academy 4K
3656x
2664
1.37:1
UXGA
1600x
1200
4:3
Web640
HD
480x270
16:9
หมายเหตุ
                เรื่องที่เกี่ยวข้องกันระหว่างรายละเอียดของภาพและจำนวนจุดสร้างภาพที่มีความเหมาะสมว่าควรเป็นเท่าใดจึงจะเป็นการแสดงภาพที่คมชัดมีคุณภาพ  จะขึ้นอยู่กับว่าจำนวนจุดต่อนิ้วบนจอภาพ  ตัวอย่างเช่นภาพที่เกิดจากสื่อประเภทความคมชัดสูงขนาด 1920 x 1080 (HD)  จะให้ความคมชัดสูงได้ดีบนจอโทรทัศน์ขนาดตั้งแต่ 30 – 50 นิ้ว   
 แต่ไม่สามารถให้คุณภาพที่เทียบเท่ากันได้เลยบนจอภาพยนตร์ขนาดใหญ่ที่ฉายตามโรง  เนื่องจากมันจะมีจำนวนจุดภาพต่อนิ้วต่ำและทำให้ภาพที่ปรากฏบนจอภาพดูหยาบ   ระบบฉายภาพในโรงหนังแบบดิจิตอลมักใช้รายละเอียดระดับ 4K  ที่ให้ระดับความคมชัดสูงสุดอยู่ที่ (4096x3112) และมีจำนวนจุดภาพ 12 ล้านจุดในหนึ่งภาพ    ในขณะที่ระบบ HD มีจำนวนจุดภาพ 2 ล้านจุดต่อภาพเท่านั้นเอง      
   
การบีบอัดสัญญาณภาพ
                ในทางปฏิบัติแล้วการส่งสัญญาณภาพที่ปราศจากการบีบอัดแล้วในทางปฏิบัติแทบจะไม่มีความเป็นไปได้เลย    ด้วยเหตุที่ข้อมูลมีปริมาณมหาศาลทำให้ต้องใช้เวลาในการส่งนานมาก   สำหรับการใช้งานบนอินเตอร์เน็ทและอีเมล์ขนาดข้อมูลของภาพ  ยังจำเป็นต้องปรับลดให้มีขนาดเล็กลงกว่าขนาดตามปกติอีก มันมีหลายวิธีเพื่อทำการลดขนาดของข้อมูลดังนี้
-          เปลี่ยนขนาดของภาพให้เหมาะสมกับเครื่องรับ
-          ลดจำนวนข้อมูลของแต่ละจุดภาพลง
-          ใช้วิธีบีบอัดข้อมูล
เนื่องจากมีรูปแบบของภาพที่หลากหลาย  ดังนั้นย่อมมีวิธีการบีบอัดที่แตกต่างกันทั้งอัตราส่วนหรือเทคนิคการทำงานที่นำมาใช้   และยังปรับเปลี่ยนไปตามคุณภาพที่ต้องการ สถานที่นำไปใช้งานเช่นใช้เพื่อการจัดเก็บบันทึกข้อมูล ขนาดของจอภาพ  เป็นต้น
JPEG  Format
รูปแบบของข้อมูลภาพแบบ JPEG   เป็นรูปแบบภาพชนิดที่พบเห็นกันได้บ่อยมากที่สุดชนิดหนึ่ง  วิธีการทำงานเข้ารหัสทำได้ด้วยการจัดแบ่งภาพออกเป็นส่วนย่อยๆหลายส่วนมีชื่อเรียกส่วนต่างเหล่านี้ว่าเป็น  macro blocks ที่แต่ละส่วนประกอบด้วยจุดสร้างภาพขนาด 8 x 8 pixel  แล้วนำไปผ่านกระบวนการทางคณิตศาสตร์ที่เรียกว่า Discrete Cosine Transformation หรือมีชื่อย่อสั้นๆว่า DCT  ที่มีประสิทธิภาพในการละทิ้งข้อมูลที่ไม่จำเป็นจากการสแกนภาพแบบซิกแซก  (ด้วยการเลือกข้อมูลที่เป็นส่วนความถี่ต่ำก่อนแล้วตามด้วยข้อมูลที่มีความถี่สูงกว่า)  ก่อให้เกิดการลดขนาดของข้อมูลลง  การลดขนาดของข้อมูลขึ้นอยู่กับว่าเราต้องการให้มีประสิทธิภาพมากขึ้นเราก็จำเป็นต้องยอมให้เกิดการสูญเสียข้อมูลมากตามไปด้วย
                กระบวนการบีบอัดสัญญาณภาพด้วยวิธีการแบบ DCT ตั้งอยู่บนพื้นฐานของข้อเท็จจริงที่ว่าดวงตาของมนุษย์ไม่สามารถรับรู้รายละเอียดภาพที่สูงมากนัก  นี่เองที่ย่อมเป็นการง่ายที่จะละทิ้งข้อมูลที่ไม่จำเป็นแต่ไม่ก่อให้เกิดผลกระทบต่อคุณภาพของการมองเห็นภาพที่ถูกบีบอัดสัญญาณ  โดยทั่วไปแล้วการบีบอัดสัญญาณสามารถกระทำได้ที่อัตราส่วน 20 : 1 โดยปราศจากการสูญเสียคุณภาพของภาพ   การบีบอัดข้อมูลแบบนี้มีชื่อเรียกอีกชื่อว่า lossy   เพราะว่าเนื่องจากข้อมูลที่เป็นความถี่สูงถูกกำจัดทิ้งออกไปโดยไม่สามารถกู้คืนมาได้อีก   ด้วยเหตุนี้การทำงานในสตูดิโอและการตัดต่อจึงยังจำเป็นต้องจัดเก็บข้อมูลภาพแบบที่ไม่มีการบีบอัด (raw file)    ข้อมูลภาพแบบ JPEG จะถูกบันทึกด้วยการใช้ชื่อแล้วตามด้วยนามสกุล . jpg
            GIF Format
                มาจากตัวย่อของคำว่า Graphical Interchange Format ได้ถูกพัฒนาและนำมาใช้งานตั้งแต่ปี 1980 โดยบริษัท Compuserve   และได้รับการยอมรับให้เป็นมาตรฐานสำหรับการจัดเก็บและการส่งสัญญาณภาพตั้งแต่นั้นมา   มันเป็นการบีบอัดภาพชนิดที่ไม่สูญเสียข้อมูลด้วยการใช้เทคนิคที่เรียกว่า LZW โดยมีประสิทธิภาพอยู่ที่การจำกัดข้อมูลของสีให้เหลือเพียง 16  หรือ 256  สีเท่านั้น   มันให้ผลดีเมื่อนำมาใช้งานที่เกี่ยวข้องกับการร่างหรือวาดภาพต้นแบบ   นอกจากนี้ยังรองรับการใช้งานแบบภาพโปร่งใสและภาพเคลื่อนไหวได้ด้วย    ข้อมูลภาพแบบนี้จะถูกจัดเก็บและบันทึกด้วยนามสกุล . gif
                BMP Format
                มาจากตัวย่อของคำว่า Bitmapped Graphics Format    ได้รับการกำหนดโดยบริษัท Microsoft  ตามปกติมักใช้ในสภาพแวดล้อมของระบบปฏิบัติการแบบ Window    การลดข้อมูลของภาพทำได้ด้วยการจำกัดข้อมูลของสีเป็น 1 , 4 , 8 , 16 bit   ข้อมูลภาพแบบนี้มีนามสกุลต่อท้ายเป็น . bmp
VIDEO
                เมื่อเป็นภาพเคลื่อนไหว  ย่อมจำเป็นที่จะต้องมีการลำเลียงข้อมูลของภาพแบบต่อเนื่อง ด้วยเหตุนี้ทำให้เราจำเป็นต้องทำความเข้าใจกับเรื่องของวิดีโอเสียก่อน   เรื่องของภาพเคลื่อนไหวตั้งอยู่บนพื้นฐานของกฎเกณฑ์ที่เกี่ยวข้องกับการรับรู้และจดจำภาพได้ของดวงตามนุษย์ ที่ไม่สามารถสังเกตการณ์เปลี่ยนแปลงฉากแบบรวดเร็วได้ทัน  ด้วยการนำคุณสมบัติของการมองเห็นภาพแบบนี้มาใช้   ทำให้การส่งภาพที่มีการจัดลำดับไว้แล้ว เกิดเป็นภาพเคลื่อนไหวที่ต่อเนื่องกันตามความรู้สึกของผู้ชมทั้งที่ความจริงแล้วคือการจัดส่งเรียงกันไปทีละภาพเท่านั้น    การฉายภาพเคลื่อนไหวมีหน่วยนับเป็นเฟรมต่อวินาที   เช่นการฉายภาพยนตร์จะฉายที่ 24 เฟรมโดยแต่ละภาพจะทำการฉายสองครั้งรวมเป็น 48 เฟรมต่อวินาที และก่อให้เกิดภาพที่เคลื่อนไหวต่อเนื่องกันไป
Scanning
                คำว่า “เฟรม” มาจากกล้องถ่ายรูปซึ่งเป็นการจับภาพเป็นชุดต่อเนื่องกันไป  และเรียกแต่ละภาพว่าเป็นหนึ่งเฟรม   มันถูกถ่ายทอดมายังรูปแบบของวิดีโอ   ที่อาจมีเสียงเพิ่มเข้าไปหนึ่งหรือสองช่องเสียงประกอบกันด้วย  แต่ละเฟรมนำเสนอภาพเพียงหนึ่งภาพ     และในกรณีของภาพเคลื่อนไหวคือการจัดส่งภาพจำนวน 25 หรือ 30 เฟรมต่อวินาที (ขึ้นอยู่กับแต่ละระบบ)
                ในขั้นตอนแรกของการสร้างสัญญาณวิดีโอจากภาพใดๆ  ต้องเริ่มต้นที่การสแกนภาพเสียก่อนโดยตัวกล้องจะทำการวัดข้อมูลความเข้มและสีในแต่ละภาพด้วยการสแกนเป็นเส้นทางแนวนอน  จำนวนเส้นที่เรียงลำดับกันไปหลายๆเส้นตั้งแต่ต้นจนหมดที่ขอบด้านล่างย่อมเป็นภาพหนึ่งภาพ
ในกรณีที่เป็นรูปแบบของสัญญาณแบบอนาลอก กระบวนการสแกนจะก่อให้เกิดอนุกรมของระดับสัญญาณ (เป็นขนาดของสัญญาณต่อฐานเวลา)   นำเสนอการเปลี่ยนแปลงของภาพจากระดับความสว่างมากสุดไปถึงระดับมืดสุด   กระบวนการจะสร้างรูปคลื่นของเส้นที่เป็นจุดภาพทางแนวนอนแต่ละเส้นต่อกันไปจนกระทั่งจุดของภาพทุกเส้นถูกสแกนจนหมด  แล้วถูกเปลี่ยนให้เป็นสัญญาณภาพแบบอนาลอกจนหมดเฟรม    แต่ละเฟรมถูกกำหนดไว้ล่วงหน้าว่ามีจำนวนเส้นเป็นเท่าใด  โดยที่แต่ละเส้นและแต่ละเฟรมถูกแบ่งแยกด้วยสัญญาณที่มีรูปคลื่นชนิดหนึ่งเรียกว่า blanking pulse   การสแกนจำเป็นต้องกระทำซ้ำๆกันหลายครั้งต่อวินาทีเพื่อก่อให้เกิดเป็นภาพเคลื่อนไหวต่อเนื่องกัน
Interlace and Progressive Scanning
       เมื่อภาพถูกสแกนที่ระดับ 25 – 30 เฟรมต่อวินาที  แล้วนำมาฉายต่อเนื่องกันจะก่อให้เกิดการมองเห็นเป็นภาพกระพริบเนื่องจากมีเวลาที่เป็นช่องว่างของแต่ละเฟรม (ประมาณ 40 m.sec) สำหรับการสแกนภาพที่ 25 เฟรม (fps)  ในขณะที่การทำให้ปราศจากการกระพริบของภาพจำเป็นต้องทำการเปลี่ยนภาพที่ระดับไม่เกิน 20 m.sec  ดังนั้นวิธีการที่นำมาจากอุตสาหกรรมภาพยนตร์จึงถูกนำมาใช้    ด้วยวิธีการฉายภาพแต่ละเฟรมสองครั้ง  เพื่อให้ลดอาการภาพกระพริบ  ในยุคของสัญญาณแบบอนาลอกแล้วถือว่าเป็นเรื่องที่ค่อนข้างยุ่งยากพอสมควรทีเดียว เนื่องจากยังไม่มีมีวิธีการใดๆเพื่อใช้เก็บภาพอีกเฟรมไว้ได้   จนกระทั่งมีวิธีการทางกลไกแบบใหม่ที่เรียกว่า interlace scanning   ด้วยการจัดแบ่งให้เป็นการสแกนภาพเพียงครึ่งหนึ่งของจำนวนเส้นสร้างภาพทั้งหมดของแต่ละเฟรม   มีชื่อเรียกว่าเป็นหนึ่ง field  โดยที่ฟิลด์แรกถูกกำหนดให้แสดงภาพเส้นที่เป็นเลขคี่ของการสแกน  ส่วนฟิลด์ที่เหลือทำการแสดงด้วยเส้นที่เป็นเลขคู่ การสแกนแบบ interlace ยังคงใช้อยู่ทุกวันนี้แม้กระทั่งในการส่งสัญญาณภาพระบบดิจิตอลก็ตาม การสแกนแบบ interlace ไม่เหมาะกับการนำไปใช้บนจอภาพเครื่องคอมพิวเตอร์หรือบนจอโทรศัพท์มือถือ   เนื่องจากมีความจำเป็นต้องแสดงภาพที่เป็นตัวหนังสือที่อาจมีขนาดเล็กและก่อให้เกิดอาการภาพกระพริบ ดังนั้นมีความจำเป็นต้องใช้การสแกนแบบ progressive ที่ให้คุณภาพดีกว่ากัน  บนเครื่องตัดต่อวิดีโอแบบนอนลิเนียร์ก็เช่นเดียวกันที่จำเป็นต้องใช้วิธีการสแกนภาพแบบนี้
Color
                ดวงตาของมนุษย์รับรู้แสงด้วยวิธีการผสมสีจำนวนสามสีเข้าด้วยกัน ประกอบด้วยสีแดง สีเขียว และสีน้ำเงิน (RGB) นี่ถือว่าเป็นเรื่องดีต่อการนำเสนอสัญญาณภาพ  และยิ่งสะดวกมากขึ้นเมื่อมันถูกแยกออกเป็นสัญญาณส่องสว่างและสัญญาณสี นี่เป็นการช่วยเหลือให้เครื่องรับโทรทัศน์แบบขาวดำที่ต้องการเฉพาะสัญญาณส่องสว่างเท่านั้น   การทับซ้อนเช่นนี้ถูกกระทำได้โดยง่ายด้วยการนำเสนอสัญญาณส่องสว่างให้แทนค่าด้วย Y และสัญญาณสีด้วย U  หรือ B – Y และ V หรือ R – Y    จากในอดีตที่ผ่านมาขณะที่เครื่องรับโทรทัศน์ชนิดขาวดำต้องการเพียงสัญญาณส่องสว่างเท่านั้น (Y)   และเพื่อให้มีการใช้งานร่วมกันได้การส่งสัญญาณจะใช้วิธีการส่งโดยแยกสัญญาณทั้งสองออกแล้วส่งไปพร้อมกัน   ทำให้เครื่องรับแบบขาวดำแสดงภาพเฉพาะสัญญาณส่องสว่าง  ในขณะที่เครื่องรับโทรทัศน์แบบสีใช้ทั้งสัญญาณส่องสว่างและสัญญาณสีประกอบกัน
ด้วยเหตุที่ดวงตามนุษย์รับรู้รายละเอียดของสีได้ต่ำกว่ารายละเอียดของภาพขาวดำ ดังนั้นช่องของสัญญาณสีเพื่อใช้ออกอากาศก็ไม่ต้องมีค่าสูงมากเท่ากับสัญญาณส่องสว่าง   ดังตัวอย่างในกรณีของระบบ PAL ช่องในการส่งสัญญาณส่องสว่างอยู่ที่ 5.5 MHz ในขณะที่ช่องของการส่งสัญญาณสี U , V ถูกส่งด้วยช่องสัญญาณขนาด 1.5 MHz เท่านั้น    ในทำนองเดียวกันของระบบ NTSC       ช่องของสัญญาณสีทีเรียกว่า I , Q จะส่งออกด้วยช่องสัญญาณขนาด 1.3 MHz , 400 KHz ตามลำดับ และสัญญาณส่องสว่างถูกส่งด้วยช่องสัญญาณขนาด 4.2 MHz
Analog  TV  Signal  Format
                สัญญาณวิดีโอแบบอนาลอกย่อมประกอบด้วยสีทั้งสามสีคือ แดง เขียว และน้ำเงินซึ่งอาจจะถูกนำพาไปด้วยสายเคเบิลสามเส้นในกรณีที่เป็นการเชื่อมต่อกันระยะใกล้  รูปแบบการเชื่อมต่อแบบนี้เรียกกันว่าแบบ Component และจอภาพของเครื่องคอมพิวเตอร์นิยมใช้วิธีการเชื่อมต่อแบบนี้  แต่ถ้าในระบบของทีวีจะใช้การเชื่อมต่อแบบ YUV สาเหตุเพราะเนื่องจากการใช้งานร่วมกับอุปกรณ์ที่เป็นแบบขาวดำได้
                Composite  Video
                ถ้าเป็นการเชื่อมต่อสัญญาณวิดีโอที่อุปกรณ์มีระยะห่างไกลกันแล้ว  การใช้สายเคเบิลถึงสามเส้นดูจะเป็นการสิ้นเปลืองเกินไปดังนั้นการใช้วิธีการเชื่อมต่อแบบคอมโพสิทน่าจะเป็นทางเลือกที่เหมาะสมกว่ากัน    วิธีการเชื่อมต่อทำได้ด้วยการนำเอาสัญญาณสีรวมเข้ากับสัญญาณส่องสว่าง (modulation)   ทั้งนี้วิธีการผสมสัญญาณจะขึ้นอยู่กับระบบทีวีนั้นๆ  เช่นระบบ NTSC ใช้วิธีการแบบ QAM (Quadrature Amplitude Modulation) แต่ถ้าเป็นของระบบ PAL , SECAM จะใช้วิธีการแบบ FM (Frequency Modulation) เป็นต้น
สัญญาณวิดีโอแบบ S – Video จะเป็นการเชื่อมต่อชนิดที่แยกสายเคเบิลสัญญาณส่องสว่างออกจากสายเคเบิลสัญญาณสีเพื่อป้องกันการรบกวนระหว่างกัน  นิยมใช้งานกับอุปกรณ์วิดีโอตามบ้านที่ต้องการให้ได้รับคุณภาพสูง
Digital  TV  Formats
                  สัญญาณวิดีโอแบบอนาลอกสามารถทำให้เป็นสัญญาณแบบดิจิตอลด้วยการนำเอาไปสุ่มหาระดับค่าด้วยความถี่ (Sampling) ทีสูงเป็นอย่างน้อยสองเท่าของย่านความถี่สัญญาณใช้งาน (Nyquist rate)  การสุ่ม ระดับค่าของสัญญาณจะกระทำกับสัญญาณแบบ Component อันประกอบด้วยสัญญาณทั้งสามคือ Y , U , V สำหรับอัตราความถี่ของการสุ่มสัญญาณภาพหรือสัญญาณส่องสว่าง (Luminance) อยู่ที 13.5 MHz ในขณะที่อัตราการสุ่มสัญญาณสี (Chominance) ที 6.75 MHz  (2x3.375 MHz) ซึ่งหลังจากสุ่มระดับแล้วต้องนำมารวมกันอีกที (เพื่อก่อให้เกิดสัญญาณภาพแบบดิจิตอลต่อเนื่องกันไป) ความถี่ของการสุ่มสัญญาณสีจะกระทำที่อัตราต่ำกว่าการสุ่มสัญญาณส่องสว่าง  โดยผลของคุณภาพการมองเห็นภาพที่ได้รับยังคงเป็นปกติ  ด้วยเหตุนี้เองการเข้ารหัสสัญญาณสีของ U , V  จะมีอัตราจำนวนข้อมูลเพียงครึ่งเดียวของสัญญาณส่องสว่าง และมักจะเห็นรูปลักษณ์จนคุ้นเคยกันดีดังนี้ YUV 4 : 2 : 2  หมายความว่าทุกการสุ่มสี่ครั้งของสัญญาณส่องสว่าง (Y)  จะมีการสุ่มของสัญญาณสีทั้งสองจำนวนสองครั้ง (U , V)  หรือเรียกอีกอย่างได้ว่าอัตราการสุ่มของสัญญาณสีเป็นครึ่งหนึ่งของสัญญาณส่องสว่าง
ยังมีวิธีการลดข้อมูลลงได้อีกหลายแบบ เช่นด้วยวิธีการสุ่มสัญญาณสีเพียงครั้งละหนึ่งสีสลับกันไป  วิธีการแบบนี้เรียกว่าระบบ 4 : 2 : 0  หรือวิธีการสุ่มสัญญาณส่องสว่างสี่ครั้งแล้วสุ่มสัญญาณสีเพียงครั้งเดียวที่เรียกว่าระบบ 4 : 1 : 1  แต่ในทางกลับกันถ้าต้องการคุณภาพสูงสุดเช่นในห้องสตูดิโอและห้องตัดต่อหรือใช้งานด้านการพิมพ์ อัตราการสุ่มจะเป็นระบบ 4 : 4 : 4
                ในระบบโทรทัศน์ที่มีความชัดเจนตามปกติทีใช้วิธีการสแกนแบบแทรกสอด (interlace scan) จะทำการสแกนเส้นภาพทางแนวนอนแต่ละเส้นด้วยอัตราการสุ่มสัญญาณภาพส่องสว่าง (Y)  จำนวน 720 ครั้งและมีอัตราการสุ่มสัญญาณสีทั้งสอง (Cr , Cb)จำนวน 360 ครั้ง  โดยที่การสุ่มระดับค่าของอุปกรณ์ประเภท professional จะนำเสนอด้วยขนาดข้อมูลของภาพจำนวน 10 bit
                นอกจากนี้ยังมีความแตกต่างกันอีกระหว่างจำนวนจุดภาพทั้งหมดและจำนวนจุดกำเนิดภาพแท้จริงที่ใช้บรรจุข้อมูลของภาพวิดีโอ (active area)   ในวิดีโอแบบดิจิตอลช่องว่างที่พอจะหาได้จากการสแกนเส้นแนวนอนที่ไม่ก่อให้เกิดภาพ (non active area) และช่องว่างที่ใช้แบ่งภาพแต่ละเฟรมจะถูกนำมาใช้บรรจุข้อมูลของเสียงแบบสเตอริโอได้และข้อมูลอื่นที่จำเป็นเข้าไป
 
SDI Video
                การเปลี่ยนสัญญาณวิดีโอจากแบบอนาลอกไปสู่รูปแบบสัญญาณดิจิตอลด้วยการสุ่มระดับค่ายังเป็นข้อมูลแบบที่ยังไม่ได้ถูกบีบอัด ข้อมูลภาพและเสียงแบบนี้จะถูกใช้งานภายในสถานีโทรทัศน์หรือหน่วยงานที่ผลิตรายการเอง และใช้วิธีการเชื่อมต่อสัญญาณระหว่างอุปกรณ์แบบอนุกรมที่เรียกว่าการเชื่อมต่อแบบ SDI (serial digital interface)  โดยมีหน่วยงานด้านวิศวกรรมภาพยนตร์และโทรทัศน์ที่ชื่อว่า SMPTE (The Society of Motion Picture)  เป็นผู้กำหนดมาตรฐานมีทั้งชนิด SDI และ SDI – HD  สัญญาณวิดีโอแบบนี้ใช้เป็นมาตรฐานสำหรับการประมวลผลหลายอย่างเช่น  การนำไปเข้ารหัส  การบีบอัดและการจัดเก็บบันทึก นอกจากนี้มันยังสามารถบรรจุข้อมูลอื่นๆพ่วงไปกับมันได้อีก (embedded)
Video format
SMPTE standard
Bit rate

480i , 576i(SD-SDI)
480p , 576p
1080i , 720p(HD-SDI)
1080p (Dual-Link SDI)
SMPTE 259M
SMPTE 344M
SMPTE 292M
SMPTE 272M
270 Mbps
540 Mbps
1.485 Gbps
2.970 Gbps


Video Bit Rate Reduction
                SDI วิดีโอที่ใช้งานแบบมืออาชีพตามห้องสตูดิโอและระบบให้บริการออกอากาศหรืออุปกรณ์วิดีโอที่รองรับตามมาตรฐานความคมชัดปกติ (SD) มีมาตรฐานอัตราการส่งข้อมูลที่ 270 Mbps  แต่อย่างไรก็ดีในการเชื่อมต่อที่ระยะไกลและการแพร่กระจายคลื่นเพื่อออกอากาศไปยังผู้รับชมตามบ้าน มีความจำเป็นต้องลดระดับอัตราของข้อมูล (Bit Rate) ในขณะเดียวกันก็ต้องรักษาระดับคุณภาพไว้ด้วย ในกรณีนี้มีอยู่สองวิธีที่จะลดระดับอัตราข้อมูลด้วยวิธีการลดขนาดของภาพลง (Scaling) และวิธีการบีบอัดข้อมูล (Compression)
                 บทความนี้ยังไม่จบครับมีต่ออีก

ความคิดเห็น

โพสต์ยอดนิยมจากบล็อกนี้

Automation solution

การจัดแสงไฟสำหรับการถ่ายวิดีโอ (Video Lighting Technique)

การถ่ายทอดสดนอกสถานที่(Outside Broadcasting)