HDR เทียบกับ Ultra HD เทียบกับ 4K: นี่คือความแตกต่าง
HDR, Ultra HD, 4K & Co คุณอาจเคยเจอชื่อเหล่านี้มาก่อน ค้นหาความแตกต่างในเคล็ดลับที่ใช้งานได้จริง
Ultra HD, 4K และ 8K: ความแตกต่างคืออะไร
จริง ๆ แล้วคำว่า "ความละเอียด 4K" มาจากพื้นที่โรงภาพยนตร์และอธิบายความละเอียด 4096 × 2160 พิกเซล อย่างไรก็ตามโดยทั่วไปแล้วจะใช้อัตราส่วนภาพ 16: 9 สำหรับทีวีผู้ผลิตจึงใช้ "4K" ในการกำหนดโทรทัศน์สำหรับความละเอียด 3840 × 2160 พิกเซล
- "UHD" ย่อมาจาก "Ultra High Definition" ความแตกต่างเกิดขึ้นระหว่าง UHD-1 และ UHD-2 UHD-1 ยังใช้ความละเอียด 3840 × 2160 พิกเซล โรงภาพยนตร์คลาสสิค 4K (4096 × 2160 พิกเซล) เรียกอีกอย่างว่า "DCI 4K" หรือเพียงแค่ "4K" "DCI" ย่อมาจาก "Digital Cinema Initiatives" 3840 × 2160 พิกเซลเรียกว่า "UHD 4K" หรือ "UHDTV1" ชื่ออื่นจะเป็น "2160p / i" หรือ "QFHD (High Full High Definition)" เพราะครึ่งหนึ่งของความกว้างและความยาวของความละเอียดจะกลับกลายเป็นความละเอียด Full HD แบบคลาสสิก เป็นผลให้ Full HD นั้นใหญ่เพียงหนึ่งในสี่
- นอกเหนือจาก UHD-1 แล้วยังมี UHD-2 ซึ่งอธิบายความละเอียด 7680 × 4320 พิกเซลและมักเรียกว่า "8K UHD" หรือ "UHDTV2"
HDR คืออะไร
"HDR" ย่อมาจาก "High Dynamic Range" และอธิบายถึงเทคโนโลยีที่สามารถสร้างความแตกต่างและความแตกต่างของความสว่างได้อย่างละเอียด
- ที่นี่ภาพหลายภาพที่มีการเปิดรับแสงที่แตกต่างกันจะถูกถ่ายในคราวเดียว ดังนั้นจึงไม่มีพื้นที่ที่เปิดรับแสงมากเกินไปหรือมืดเกินไปในภาพ
- SDR ทั่วไปใช้ความลึกของสี 8 บิตในขณะที่ HDR ใช้ความลึกของสี 10 บิต ซึ่งหมายความว่าภาพ HDR ไม่เพียง แต่จะมีความคมชัดที่ดีกว่าอย่างมาก แต่มักจะปรากฏจริงมากกว่าภาพคลาสสิก
ในเคล็ดลับการปฏิบัติถัดไปคุณจะได้เรียนรู้วิธีสร้างโมเดล 3 มิติได้อย่างง่ายดายด้วยตัวเอง