หลักการบันทึกภาพวีดีโอ ที่ใช้กันมาตลอดนั้น อธิบายง่ายๆก็คือ เราจะบันทึก
สัญญาณภาพขาวดำเป็นพื้นหลังก่อน แล้วก็เอา
สัญญาณสี วาดทับลงไปอีกที
สมมุติเฟรมภาพขนาด Full HD 1920*1080 ละกัน
- สัญญาณความสว่าง(=ขาวดำ) จะมีขนาดเต็ม 1920*1080 พิกเซล
- แต่...สัญญาณสีนั้น จะบันทึกที่ความละเอียดประมาณ 960*540 พิกเซล เท่านั้นเองครับ (4:2:0 subsampling)
ไม่ได้บันทึกครบทั้ง 3 แม่สี RGB ในทุกๆพิกเซลแต่อย่างใดช็อกกันเลยสิท่า...
ถ้ายังช็อกไม่พอ ขอซ้ำดาบสอง ด้วยการบอกว่า เทคนิคนี้...
ใช้กันมาตั้งแต่ยุควีดีโออนาล็อกแล้วละครับอะนาล็อกเทปทุกฟอร์แมท จะบันทึกสัญญาณ luma ที่ความถี่ระดับหลาย MHz แต่จะบันทึกสัญญาณ chroma ที่ความถี่ต่ำกว่ามากๆ อย่างเทป vhs นี่ ลงไปถึงระดับไม่กี่ร้อย kHz เลยด้วยซ้ำ ถ้าผมจำไม่ผิดนะ
(อาการสีเหลือบๆ เหลื่อมๆ เละๆ ที่เห็นเวลาเราดูวีดีโอเทปสมัยก่อนนั่นแหละครับ เกิดจากข้อจำกัดตรงนี้แหละ
)
ถ้าถามว่า ทำได้ยังไง? แล้วตาคนเราแยกไม่ออกเหรอ?
นั่นแหละครับคำตอบ...
ก็เพราะตาคนเราแยกไม่(ค่อย)ออกอยู่แล้ว ว่าภาพนี้ รายละเอียดของสีสันเต็ม 100% หรือว่าไม่ครบ หายไป 50%
เมื่อสายตามนุษย์แยกแยะไม่ออกอยู่แล้ว ก็ไม่รู้จะไปบันทึกข้อมูลละเอียดยุบยับขนาดนั้นทำไม?
โยนทิ้งไปซะตั้งแต่ก่อนจะ encoding เลยดีกว่า ลดภาระฮาร์ดแวร์ไปได้เกือบครึ่งๆด้วย
ดังนั้น โดยทั่วไป จึงไม่นิยมการบันทึกเป็นสัญญาณ RGB เต็มๆ ตรงๆ ทุกพิกเซล ยกเว้นกรณีทุ่มทุนสร้างเต็มที่ บันทึกมาเป็น RAW ดิบๆตรงๆเลย อันนั้นก็อีกเรื่อง
ซึ่งถ้าไม่ใช่งานที่จำเป็นจริงๆ อย่างเช่นเอาไปทำ chromakey/แก้สีกันอย่างหนักหนาสาหัส ก็คงไม่ต้องทำขนาดนั้นก็ได้
กรณีที่เราอาจต้องพิจารณาในขั้นตอนการตัดต่อ เท่าที่นึกออก ก็คงมีแค่ 2 ประเด็น
1.ตอนที่ต้องมีการแปลงไฟล์/render เกิดขึ้น ซึ่งเราควรจะหลีกเลี่ยงการเปลี่ยน chroma subsampling โดยไม่จำเป็น 4:1:1<->4:2:2<->4:2:0 อะไรจำพวกนี้
2.แปลงขึ้น เช่น 4:2:0>>4:4:4 ไฟล์ใหญ่ขึ้นโดยไม่จำเป็น แต่ถ้าแปลงลง 4:2:2>>4:2:0 ก็จะเสียรายละเอียดอันพึงมีไป
ว่าๆไป ก็ทำนองเดียวกับการตั้ง sampling rate ของไฟล์เสียงนั่นแหละครับ แปลงไปแปลงมา 48kHz>>44.1kHz>>22.1kHz>>48kHz โดยไม่จำเป็น เสียงก็จะ "เละ"กันหมดพอดี