รีวิว iPhone 16 Pro Max รุ่นใหม่ มีอะไรใหม่นะ?

อีกหนึ่งรีวิวที่หลาย ๆ คนถามเข้ามากันเยอะมาก นั่นคือ รีวิวของ iPhone 16 Pro Max วันนี้เราได้เครื่องมาเป็นที่เรียบร้อยแล้ว วันนี้เราจะมารีวิวประสบการณ์การใช้งาน จับข้อสังเกตต่าง ๆ รวมไปถึงตอบคำถามที่สำคัญว่า iPhone รุ่นนี้เหมาะกับใคร

ปล. รีวิวนี้อาจจะไม่เหมาะกับติ่ง iPhone เพราะจุดที่ Nonsense มีเพียบ

ปล. ข้อมูลที่อยู่ในรีวิวนี้ส่วนที่เป็นประสบการณ์ อ้างอิงจากการใช้งานและความคิดเห็นส่วนตัวเท่านั้น ทุกคนมีความเห็นที่แตกต่างกันได้ แต่อย่าดราม่าค๊าาาา

แกะกล่อง

ตัวกล่องของ Apple ในช่วงนี้ตั้งแต่นางบอกว่านางรักษ์โลก ก็เริ่มทำกล่องเล็กลงเรื่อย ๆ เพื่อลดน้ำหนักในการขนส่ง มาเป็นกล่องกระดาษที่ด้านหน้ามีรูปของตัวเครื่องอยู่ เดาได้เลยนะว่า เครื่องที่เอามารีวิวในวันนี้เป็นสีอะไร

ด้านหลังเป็นพวกข้อมูลต่าง ๆ นั่นนี่ แต่เราจะเห็นได้ว่า เครื่องที่เราเอามารีวิวเป็น iPhone 16 Pro Max ความจุ 1 TB สี Black Titanium

ข้างกล้องเหมือนเดิมคือมีการพิมพ์ลงไปว่า iPhone และด้านหัวท้ายของกล่องจะพิมพ์ Logo Apple เข้าไป

สิ่งที่เราชอบ และอยากให้เจ้าอื่น ๆ ทำตามบ้างคือการใช้เป็นที่ดึงแบบ Apple ทำให้เราไม่ต้องใช้เครื่องมืออะไรการแกะเลย

เปิดกล่องมา เราจะพบกับตัวเครื่องที่วางหันหลังนอนอยู่ในกล่อง เรียกว่าเปิดฝามาจะได้พบกับความสวยงามของตัวเครื่องสี Black Titanium เลยทีเดียว

เมื่อเอาตัวเครื่องออก เราจะพบกับพวก Paperworks ต่าง ๆ ซึ่งตามที่สื่อต่างประเทศรายงานเลยว่า รอบนี้ Apple เลิกแถม Sticker Apple แล้วนะ ก็เสียดายกันเป็นแถว ทำให้เกิดคำถามว่าต่อไป Apple จะเอาอะไรออกอีก เราว่า Paperworks แล้วให้มาเป็น QR Code ไปสแกนเอาแน่ ๆ ฝ่ายกฏหมายกำหมัดแล้วนะตอนนี้ถ้าทำจริง

ด้านล่างของ Paperworks เราจะเจอกับสาย USB Type-C to Type-C มาเป็นสายถักสีขาวสวยเริ่ดเลย และเข็มสำหรับจิ้มซิมออก เราว่ารอบหน้าสงสัยเข็มน่าจะหายไปอีกอันแหละ หมดละในกล่องมีเท่านี้เลย เป็นการแกะกล่องที่แห้งมาก เพราะน้องเขาไม่มีอะไร ไม่มีรายละเอียดอะไรที่สร้าง Experience ที่ดีหรือสนุกเลย รักษ์โลกอยู่ไม่ว่างแหละ

Display ระดับโปร?

แน่นอนว่า รุ่น Pro ขนาดนี้ หน้าจอต้องจัดเต็มอย่างแน่นอน ด้วยสเปกเท่ากับ iPhone 15 Pro Series บนหน้าจอแบบ Super Retina XDR ที่ไส้ในใช้เป็น Panel แบบ OLED ที่ให้ Contrast Ratio ระดับ 2,000,000:1 พร้อมทั้งรองรับการแสดงผลบนขอบเขตสีแบบ P3 และสามารถแสดงผล HDR ได้ในระดับ Dolby Vision ทำให้เราสามารถแสดงผลได้คล้ายกับหน้าจอที่ใช้ทำงานจริงบน Post เลยทีเดียว

ถ้าเอาออกไปใช้งานข้างนอกก็ไม่ต้องกลัวเรื่องความสว่าง เขามาในระดับ 1,000 nits สำหรับการแสดงผลทั่วไป และ 1,600 nits สำหรับการแสดงผลแบบ HDR ระดับเดียวกับที่ให้มาใน iPad Pro M4 ซึ่งเราบอกได้เลยว่า มันโคตรสว่างมาก ๆ เพียงพอกับการใช้งานแน่ ๆ ขนาดเราเอา iPad Pro M4 ไปใช้กลางแดดก็ยังสบาย ๆ มองเห็นของบนหน้าจอเลย

สำหรับขนาดหน้าจอ เป็นขนาดใหม่ล่า มาพร้อมกับ 2 ขนาดคือ 6.3 และ 6.9 นิ้วสำหรับ iPhone 16 Pro และ iPhone 16 Pro Max ตามลำดับ ส่วนวันนี้ที่เราเอามารีวิวให้อ่านกันจะเป็น Pro Max ที่มีขนาดใหญ่สุด ดูจากเราถือแล้วก็คือ มันใหญ่มากจริง ๆ เกือบเท่า Tablet สมัยก่อนแล้วนะ

เราคิดว่าอีกจุดที่ทำให้เรารู้สึกว่าหน้าจอของ iPhone 16 Pro Max มันเต็มตามากกว่ารุ่นก่อน ๆ ที่เราเคยทดสอบมา น่าจะเป็นเพราะ Apple สามารถลดขอบของหน้าจอได้ ทำให้เราได้หน้าจอที่มีขอบบางมาก ๆ เวลาดู Content ต่าง ๆ มันเลยรู้สึกเต็มตา พร้อมทั้งรองรับ HDR เต็มรูปแบบ เวลาดูหนังผ่าน Apple TV+ หรือบริการ Streaming อื่น ๆ ที่รองรับ HDR มันได้ภาพที่ทั้งสีสันสมจริง และเต็มตามาก ๆ

Sound Quality

ภาพแล้วก็ต้องเสียงด้วย ตอนแรกไม่ได้คิดอะไร จนระหว่างที่จะทดสอบประสบการณ์การเล่นเกม AAA อย่าง Resident Evil 4 เราพบว่าการแสดงผลของเสียงแบบ Surround มันทำได้ดีมาก ๆ เราถือโทรศัพท์เล่นเกมปกติเลย แต่เราสามารถได้รับเสียง Surround ได้ดีอย่างไม่น่าเชื่อ เลยทดลองเปิด Master of the Air บน Apple TV+ บนฉากที่เครื่องบินพึ่งขึ้นไปภาพตัดมาที่ข้างล่าง มันได้ยินเสียงเครื่องบินเหมือนอยู่ข้างบนหัวเราจริง ๆ ทำให้เราตกใจมาก ๆ ว่าโทรศัพท์ทำได้ขนาดนี้เลยเหรอเนี่ย

คุณภาพเสียงที่ได้ เทียบกับ iPhone 14 Pro เครื่องเก่าเราพบว่า เสียงที่ได้จาก iPhone 16 Pro Max มีความใส ชัดเคลียร์มากกว่า เสียงพูดเมื่อเราดู Content มันฟังรู้เรื่องมากกว่า เสียยงเบสต่าง ๆ ก็ลงได้ลึกกว่า มีน้ำหนักมากกว่าอย่างเห็นได้ชัด เราไม่แน่ใจว่ามันเกิดจากการพัฒนาลำโพงให้ดีขึ้นจนเห็นผลขนาดนี้ หรือการที่ขนาดของเครื่องที่เราเอามาเปรียบเทียบมันต่างกันเยอะจึงส่งผลกับเรื่องของเสียง แต่ถ้าใครเอา iPhone 16 Pro Max มาใช้ในการ Comsume Media ทั้งหลาย น่าจะชอบใจเลยทีเดียว

แต่ถามว่า เทียบกับ iPad Pro M4 ของเราได้มั้ย บอกเลยว่าไม่ได้ ยังไง iPad มันได้เปรียบเรื่องขนาด Driver และขนาดตัวเครื่องที่ใหญ่กว่าทำให้สามารถออกแบบเรื่องการจัดการเสียงได้ง่ายกว่า ส่งผลโดยตรงต่อเครื่องคุณภาพมหาศาลมาก ๆ ถ้าใครมี iPad Pro M4 แล้วพกอยู่แล้ว และต้องการ iPhone มาดูหนังก็ไม่ต้องอะ ใช้ iPad Pro เครื่องเดิมดูไปแหละ

Camera Control ใหม่ล่า คุมกล้องได้ดั่งใจ?

ของเล่นใหม่ที่ใส่เข้ามาใน iPhone 16 ทั้งตัวธรรมดาและ Pro คือ Camera Control ที่หลาย ๆ คนคิดว่ามันเป็นปุ่มที่สามารถกดลงไปธรรมดา แต่จริง ๆ แล้วมันเก่งกว่านั้น มันมี Force Sensor ที่สามารถทำให้เครื่องรับรู้แรงกดได้ ทำให้มันเป็นปุ่มที่สามารถสั่งงานได้มากกว่าแค่การกดเท่านั้น พร้อมทั้งยังใส่ Haptic Engine เหมือนที่ใส่ใน Trackpad ของ Macbook ทำให้เวลาเรากดลงไปมันจะมีการตอบสนองกลับมา ทำให้เรารู้ว่า เรากดลงไปแล้วจริง ๆ

สิ่งที่ Apple Demo ให้ดู ณ วันที่เปิดตัวคือการใช้งานกับ Camera App ของตัวเอง ที่เมื่อเรากดลงไปลึก ๆ มันจะเป็นการถ่ายภาพ หรือถ้าเรากดค้างไว้มันจะเริ่มถ่ายวีดีโอให้เรา สุดท้ายหากถ้าเราอยู่ใน Lock Screen เราจะสามารถเข้ากล้องได้อย่างรวดเร็ว

เมื่อเราอยู่ในกล้องเราสามารถใช้นิ้วเลื่อนซ้ายขวาเพื่อปรับค่าบางอย่างได้ เช่นเราสามารถซูมเข้าออกโดยการใช้นิ้วลากไปบน Camera Control

และเราสามารถกดที่ Camera Control เบา ๆ 2 ครั้งเพื่อเปลี่ยนการตั้งค่าต่าง ๆ เช่น Exposure หรือความสว่าง หากเรารู้สึกว่าภาพมันมืดไป เราก็สามารถเลื่อนเพื่อปรับความสว่างได้ หรือจะเป็นเรื่องของการเปลี่ยนตัวกล้องก็ได้เหมือนกัน

Enhancing your app experience with the Camera Control | Apple Developer Documentation
Provide direct access to your camera app’s features to help people quickly capture the perfect shot.

ความสนุกสำหรับ Developer อย่างพวกเราคือ Apple นางไม่ได้งกทำปุ่มมาใช้คนเดียว เราสามารถเข้าถึง Feature ต่าง ๆ เมื่อผู้ใช้กดปุ่ม Camera Control ได้ด้วย เท่าที่เราลองเล่น มันทำให้เราสามารถเพิ่ม Custom Control เองได้ด้วย เช่น App ของเราอาจจะเป็น App สำหรับอัดเสียง เราสามารถเขียน Custom Control ที่เมื่อกดแล้วจะเริ่มอัดเสียง เราอาจจะต้องรอนักพัฒนาสร้างสรรค์ App จาก API เหล่านี้ มันเปิดความเป็นไปได้ในหลาย ๆ อย่างได้เยอะมาก ๆ รอดูเลยว่านักพัฒนาจะสร้างอะไรออกมาให้เราได้เล่นกันสนุก ๆ

ตัวอย่างเช่น Instagram ที่ตอนนี้เราสามารถเข้าไปตั้งค่าได้ว่า เมื่อเรากด Camera Control มันจะเด้งเข้ามาใน Instagram แล้วเข้าหน้าสร้าง Story ทำให้เราสามารถถ่าย Story ได้ทันใจมากกว่าเดิม นี่แหละ Use Case ที่ดี !

ทุกอย่างมันดูน่าสนุกมาก ๆ แต่การใช้งานจริงมันอีกเรื่อง เราเริ่มเจอปัญหาการใช้งานเนื่องจากจำแหน่งของ Camera Control มันยากต่อการใช้งานมาก ๆ เราพยายามลองถือทั้งแนวตั้งและแนวนอน ด้วยมือซ้ายและขวา หมุนยังไง เรารู้สึกว่า Camera Control มันอยู่ผิดตำแหน่งมาก ๆ

เช่น เราถือแนวตั้งมือขวา เราเอานิ้วโป้งแตะอยู่ที่ Camera Control เพื่อให้สามารถกด Shutter ได้ แต่พอเราจะเลื่อนเพื่อควบคุม มันต้องงอนิ้วโป้งเยอะมาก ๆ จนทำให้เรารู้สึกไม่ปลอดภัยในการจับถือเท่าไหร่ กลัวหล่นมาก ๆ และพอมันต้องงอนิ้วเยอะทำให้บางทีเราเลื่อนไม่โดน มันก็ไม่ไปอีก เรียกว่าถ้าต้องถ่ายวีดีโอไปด้วยปรับไปด้วย ภาพสั่นแน่นอน

มาที่แนวนอนกันบ้าง อันนี้บังคับเลยว่า เราจะต้องถือได้ด้วยมือขวาเท่านั้น ถ้าเราถือด้วยมือซ้าย กล้องหลังมันจะต้องหันมาทางเรา แล้วเอ่อ จะถ่ายยังไง ในแนวนอนหากเราถือด้วยมือเดียว เราะต้องเอานิ้วชี้ไปวางบน Camera Control เอาแบบภาพด้านบน ซึ่งบอกเลยว่า หากถ่ายวีดีโอสัก 2-3 นาที น่าจะมีเมื่อยไม่มากก็น้อย

ถามว่าแล้วจะมีมุมไหนมั้ยที่สามารถใช้งาน Camera Control ได้พอโอเค สำหรับแนวตั้ง เราจำเป็นต้องถือด้วยมือซ้าย ใช้นิ้วโป้งประคองเครื่อง และนิ้วกลางอ้อมไปกดและสามารถเลื่อนใช้งานได้อย่างง่ายดาย เอาจริง ๆ นาน ๆ ทีเราจะเจออุปกรณ์ที่คนถนัดซ้ายใช้งานได้มากกว่า

สำหรับแนวนอน เราพยายามหาแล้วแต่มันไม่ได้จริง ๆ ยังไงก็ต้องใช้ 2 มือเหมือนเดิม แย่กว่านั้นคือ มันกดยากกว่าการใช้ปุ่มบนหน้าจอซะอีก

เราอยากแนะนำว่า หาก Apple ทำแบบ Sony Xperia โดยการเลื่อน Camera Control ลงมาอีกเท่าตัว ทำให้ในแนวนอน เราสามารถจับตัวเครื่องเป็นสี่มุม เพื่อความนิ่งสำหรับการถ่ายวีดีโอ ในขณะที่เรายังสามารถเลื่อนเพื่อควบคุมการทำงานได้อยู่ แต่มันก็ยังไม่ได้ทำให้มันสามารถใช้งานได้ทั้งแนวนอนและตั้ง โดยที่ทั้งกด และเลื่อนควบคุมได้อย่างสะดวกเท่าที่ควร แต่เราต้องหมายเหตุไว้ก่อนนะว่า ประสบการณ์แย่ ๆ นี้เราได้จากรุ่น Pro Max นะ ถ้ารุ่น Pro หรือรุ่นธรรมดาที่หน้าจอเล็กกว่า อาจจะไม่มีปัญหานี้ก็เป็นได้ หรือไม่ก็เวลา Apple Design ออกมา เขาอ้างอิงจากขนาดมือคนบ้านเขาที่ใหญ่กว่าหรือไม่เราก็ไม่ทราบได้เหมือนกัน

ทำให้สุดท้ายเรารู้สึกว่า Apple พยายาม Reinvent the wheel โดยการสร้างปุ่ม Camera Control เข้ามาทำในสิ่งที่ไม่ได้ช่วยให้การทำงานสะดวกขึ้นมากเท่าไหร่ เผลอ ๆ สร้างความชิบหายในการทำงานมากเข้าไปอีก แต่โอเค มันดูมี Gimmick นาน ๆ ทีช่วงนี้ Apple จะได้ Wow Factor บ้าง ก็ขอให้คะแนนความพยายาม แต่ยังอ่อนหัดละกัน หวังว่าจะได้รับการปรับปรุงในเรื่องของตำแหน่งให้เหมือนกับ Sony Xperia ในรุ่นหน้าละกันเนอะ

กล้องระดับโปร ? เหมือนพกเลนส์ Prime 7 ตัว

ตัวกล้องอันเป็นส่วนสำคัญมาก ๆ ในรุ่น Pro ก็ได้รับการอัพเกรดขนานใหญ่พอตัว มาพร้อมกับกล้อง 3 ตัวเหมือนเดิม คือ Ultra-Wide, Normal และ Telephoto โดยทั้งสามตัว เขามีการเคลือบสารป้องกันการสะท้อน ช่วยลดแสงสะท้อนที่เข้ามาในกล้อง (Flare) และอาการ Ghosting

เริ่มจาก Ultra-Wide มันได้รับการเปลี่ยนแปลงครั้งใหญ่มาก คือมาพร้อมกับ Sensor ความละเอียด 48 MP ที่เข้ามากลบจุดอ่อนที่เคยเกิดกับรุ่นก่อน ๆ เป็นอย่างมาก เราที่ใช้ 14 Pro มาก่อน เราจะไม่อยากใช้กล้อง Ultra-Wide เลย เพราะคุณภาพมันต่างจากกล้องหลักเยอะมาก ถ่าย ๆ ไป Noise กระจาย และภาพที่ได้มันไม่ค่อยคมชัดเพราะเหมือนโฟกัสไม่ติด แต่มาในรุ่นนี้มันได้รับการแก้ไขเรียบร้อยแล้ว ภาพที่ได้เราคิดว่า มันดูใช้งานจริงได้มากขึ้น เพราะก่อนหน้านี้ถ้าเราเจอสภาพแสงแย่นิดเดียว เช่นฟ้าครึ้มก็คือถ่ายออกมาไม่สวยแล้ว

Shot on iPhone 16 Pro Max with Utra-Wide Camera

การพัฒนานี้ยังส่งผลถึงคุณภาพของการถ่าย Marco ด้วยเช่นเดียวกัน เราสามารถอยู่ใกล้กับวัตถุได้ใกล้สุดถึง 2 cm ทำให้เราสามารถสร้างสรรค์มุมมองการถ่ายภาพแบบใหม่ ๆ ได้สนุกอย่างไม่น่าเชื่อ แค่เราถ่ายดอกไม้หน้าบ้านก็สนุกแล้ว

คุณภาพได้เพิ่มขึ้นมา เราคิดว่ามหาศาลมาก ๆ ภาพทั้งสอง เราถ่ายจาก iPhone 14 Pro และ iPhone 16 Pro Max โดยการกดเข้าที่กล้อง Ultra-Wide ก่อนแล้วค่อยกด Shutter ไม่ได้ใช้ Auto Detect ของตัวเครื่อง จากภาพเราจะเห็นได้ว่า ฝั่งของ iPhone 14 Pro มีรายละเอียดที่แย่กว่าฝั่ง iPhone 16 Pro Max มาก ๆ ดูตรงคำว่า Sony กลับหัวก็ได้ส่วนหนึ่ง กับส่วนมืดของภาพเราจะเห็นได้ชัดเลยว่าตัวกล้องเก็บ Dynamic Range ได้ดีกว่าเยอะ เป็นผลที่ได้จากการเพิ่มความละเอียดของ Sensor เข้าไป ทำให้คุณภาพสำหรับเรา พัฒนาจาก Gimmick เป็นพอใช้แก้ขัดยามเหงาได้อยู่ ไม่ได้รู้สึกว่ามันดีขนาดนั้น แต่ถ้าเอาในมุมของคนทั่วไปไม่ Professional เราคิดว่า เท่านี้ก็ทำให้สนุกในการใช้งานได้มากกว่าเดิมแล้ว แต่ถ้าถามในมุมเราที่เราถ่ายภาพด้วย ส่วนตัวเราก็รู้สึกว่ามันใช้งาน Production จริงไม่ได้เลย

กล้องตัวที่ 2 เป็นกล้องหลักด้วย Fusion Camera แบบใหม่ความละเอียด 48 MP มาในรอบนี้ เขาเพิ่มความเร็วในการ Readout ข้อมูลออกจาก Sensor ผนวกกับ Image Pipeline ใหม่ทำให้คุณภาพไฟล์ที่ออกมาดีกว่ารุ่นก่อนพอสมควร หรือเราสามารถซูมเป็น 2 เท่าโดยการ Crop แค่ตรงกลางออกมา ทำให้เราสามารถถ่ายภาพในระยะ 2 เท่าได้โดยไม่สูญเสียคุณภาพเลย แค่เสียความละเอียดเหลือแค่ 12 MP เท่านั้น ซึ่งมันเพียงพอกับการใช้งานส่วนใหญ่แล้ว เอาจริง ๆ มันก็คือ Digital Zoom แบบที่เราใช้กันมานานแล้วบวกกับ Image Enhancement Pipeline แล้วเคลมว่า Optical-Quality สั้น ๆ ก็คือแค่เรียกใหม่ตามการตลาด...

มีหลายคนถามเข้ามาเรื่อง Portrait Mode ว่าถ้ากล้องมันดีขึ้นมันน่าจะตัดขอบทำ Image Segmentation ได้เก่งมากขึ้นก็ต้องบอกเลยว่า ไม่ ! ถ้าเราเอามาถ่ายคนมีปอยผมมันก็จะโดยงับหายไปอยู่เหมือนเดิมนะ กลายเป็นผมเนียบไปทุกครั้งที่ถ่ายภาพเลยละ ดังนั้นยิ่งไม่ต้องไปหวังคุณภาพของ Portrait Video เลย ภาพชิบหายแบบไหน Video ก็แบบนั้นแค่เคลื่อนไหวได้ วิธีการเลี่ยง ๆ ให้ดูธรรมชาติ คือเราต้องปรับให้มันไม่เบลอมากเกินไป ไม่งั้นผิดธรรมชาติหนักกว่าเดิม

และกล้องตัวที่ 3 เป็น Telephoto หรือเลนส์ซูมไกลระดับ 5 เท่าจากตัวหลัก โดยจะได้ทั้งรุ่นจอเล็กและจอใหญ่ เมื่อเทียบจากรุ่นก่อนหน้าที่ หากต้องการซูม 5 เท่าเราจำเป็นต้องไปเล่น iPhone 15 Pro Max เท่านั้น เพราะ iPhone 15 Pro จะได้แค่ 3 เท่า แต่ตัวกล้องมาพร้อมกับความละเอียดเท่าเดิมคือ 12MP เท่านั้น ปัญหาส่วนใหญ่ของการใช้เลนส์ระยะแคบ ๆ ซูมเยอะ ๆ คือการสั่นไหว เพราะเราสั่นแค่นิดเดียว มันก็ไปแล้ว ทำให้ Apple เลือกใส่ระบบกันสั่นแบบ Optical ที่สามารถชดเชยการสั่นแบบ 3D ได้ด้วย ลดอาการภาพสั่นไหวได้พอสมควร แต่จากการทดลองคิดว่า มันไม่ได้เก่งในระดับที่คนส่วนใหญ่จะถ่ายมาแล้วคมชัดไม่สั่นโดยไม่พึ่ง Image Pipeline เลย ส่วนเรื่องคุณภาพของไฟล์ ซูมเยอะ ก็เรียกว่ารับสภาพไป ถ้าถ่ายกลางวันแดดจัด ๆ เอามันส์เลยนะ รอด ! เริ่ด ! แต่ถ้าแสงแย่นิดเดียวพังยับวุ้นกินแน่นอน

ส่วนกล้องหน้าเราไม่ขอเล่าถึงละกัน เพราะมันเป็นกล้องที่คุณภาพระดับ Webcam ใช้ Video Conference อย่างเดียวแหละ เอามาถ่าย Selfie ก็คือ หน้าผีกันทุกคน ด้วยสไตล์ของ Apple ที่กล้องหน้าพรี่ก็วิทยาศาสตร์เกิน Fantasy บ้างก็ได้ ถ่ายออกมาน่ากลัวกว่ามองตัวเองในกระจกอีก งง มาก คิดว่าเป็นที่ Image Pipeline มัน Oversharpen แล้วทำให้จุดด่างพร้อยบนใบหน้าชัดมากขึ้นมาก

Image Pipeline กับความไม่สมจริง

เราต้องยอมรับว่ากล้องโทรศัพท์ยังไง ๆ คุณภาพมันก็สู้กล้องจริงไม่ได้แน่นอน เราไม่สามารถเอาชนะฟิสิกส์ได้ในเวลานี้ ทำให้ผู้ผลิตโทรศัพท์ต้องพัฒนา Image Pipeline ออกมาเพื่อให้มันเข้ามา Enhance ภาพด้วยวิธีใดวิธีหนึ่ง เพื่อให้ได้ผลลัพธ์ของภาพที่คนส่วนใหญ่น่าจะชอบ

ซึ่งคนส่วนใหญ่มักมี Perception กับภาพที่ดีว่า ภาพที่ดีต้องเป็นภาพที่คม และมีสีสันสดใส ทำให้เสื้อผ้าที่ใส่มาสีซูดซาดมัน Pop ออกมาได้ ทำให้ Image Pipeline ที่ผู้ผลิตทำมาส่วนใหญ่จึงเป็นตัวที่เน้นการดัน Sharpness ขึ้นไป และอัด Satuation หรือความอิ่มของสีขึ้นไปเยอะ ๆ จนบางทีมัน Oversharp และ Over-Sat ไปหมดเลย หากมองในมุมคนท่ัวไปอาจจะไม่ได้คิดอะไร มันสวยดี

แต่ถ้าเราเอาไปทำงานจริง ๆ ใช้อัดงานจริง ๆ เราว่า เราไม่ชอบที่มัน Oversharpen มันดูไม่เป็นธรรมชาติเอาซะเลย มันทำให้เราแยกออกได้เลยนะว่า คลิปนี้ถ่ายจากกล้องโทรศัพท์หรือกล้องใหญ่จริง ๆ เพราะคุณภาพและการชดเชยคุณภาพมันไม่เนียนมากพอ

ตัวอย่างด้านบนนี้ เราถ่ายในพื้นที่แสงไม่เยอะมาก ด้วยกล้อง Telephoto 5x ภาพนึงเราถ่ายด้วย Camera App ของโทรศัพท์ของและภาพนึงเราถ่ายด้วย Halide ที่เขามี Process Zero Mode ที่จะไม่ใช้ Post-Processing Pipeline อะไรทั้งนั้น Sensor ว่าไงว่าตามนั้น เราจะเห็นได้เลยว่าภาพที่ผ่าน Image Pipeline ออกมามันมีความคมมากกว่าฝั่งที่ไม่ทำอะไรมาก ๆ รวมไปถึง Noise Reduction Algorithm ก็ทำงานได้เป็นอย่างดี ลบ Noise ออกไปได้เยอะมาก ๆ พอบวกกับ Oversharpen ทำให้ภาพดูคมกว่าความเป็นจริงไปมาก ๆ

ถามว่ามันโอเคมั้ย มันโอเคในแง่ของ Information Restoration แต่มันไม่โอเคหากเราเอาไปใช้ในงาน Production ที่เราต้องการความสมจริง และความยืดหยุ่นในการทำงานสูง มันน่าจะดีกว่า ถ้าเกิด Apple มี Process Zero Mode บนวีดีโอแล้วให้เราไปทำต่อใน Post เองได้มันน่าจะดีกว่ามาก ๆ ส่วนรูปภาพถ้าอยากได้ความเป็นจริงจาก Sensor ไปใช้ Halide App เอาได้ หรือใน Camera App เลือกเป็น RAW ก็ได้

Photographic Styles ที่ไม่ใช่ Filter

อีกหนึ่ง Feature ที่เข้ามาใน iPhone 16 ทุกรุ่นคือ Photographic Styles หากมองผ่าน ๆ มันเป็นเหมือน Filter ที่เรา Apply เวลาเราใช้ใน Instagram แต่จากการลองใช้งานมา เราบอกเลยว่ามันไม่ใช่ Filter ง่อย ๆ นะ เราขอเรียกว่ามันเป็น Smart Filter มากกว่า

โดยเขาจะมีให้เราประมาณ 15 ตัวด้วยกัน ซึ่งแต่ละตัวมันจะมี Style ที่แตกต่างกัน เช่น Dramatic ก็จะให้โทนที่ให้ Constast เยอะ ๆ หน่อย แต่ปัญหามันอยู่ที่ว่า เวลาเราไปใช้โปรแกรมแต่งภาพมันจะมีตัวเลือกให้เราเลือกเยอะมาก เราจะเลือกตัวไหนเท่าไหร่ถึงจะได้ภาพในแบบที่เราต้องการ แต่ใน Phographic Style เขาพยายาม Simplify ออกมาเป็นช่องสี่เหลื่ยมให้เราได้ลองลากไปมา เพื่อหาโทนที่ใช่สำหรับรูปของเรา

จากตัวอย่างด้านซ้ายเป็นภาพต้นฉบับ และด้านขวาเป็นภาพที่เลือก Phographic Style แบบ Dramatic แล้วลองขยับหาไปเรื่อย ๆ สิ่งที่พบคือ เรารู้สึกว่าเหมือนมันรักษา Skin Tone ได้ดีมาก ๆ เทียบกับ Filter ปกติมันจะทำให้ Skin Tone เสียไป เช่นสว่างวาบ หรือเหลืองเหมือนเป็นดีซ่าน แต่อันนี้เก็บได้ดีมากจริง ๆ

งานวีดีโอ Slo-Mo ทำเพื่อใคร

มาที่งานที่ Apple เน้นหนักใน iPhone ระดับ Pro Series กันบ้างอย่างงานวีดีโอ จากงาน Keynote เปิดตัวก็คือเอา The Weeknd มาเล่น MV มันซะเลย แล้วเล่นขายความสามารถในการทำ Slo-Mo ซึ่งเขาขายฉ่ำมาก

ความยากในการทำ Slo-Mo มันไม่ได้อยู่ที่การทำ Slo-Mo ซะทีเดียว เราเขียนโปรแกรมเพื่อให้มันยืดเวลาของแต่ละ Frame ออกไป เราเขียน Command ทำใน FFMpeg ใช้เวลาไม่ถึง 1 นาทีด้วยซ้ำ แต่ความยากมันอยู่ที่ข้อมูลของแต่ละ Frame หากเราต้องการยืดเวลาต่อ Frame ให้มันดูแล้วรู้สึก Smooth เราจะต้องมีไฟล์ที่มี Frame Rate สูง เช่น เราต้องการวีดีโอ 25 FPS และเราต้องการ Slo-Mo 2x นั่นแปลว่า เราจะต้องถ่ายไฟล์มาที่ Frame Rate อย่างน้อย 50 FPS (2 เท่าของ 25 FPS) เพื่อให้ข้อมูลมันครบเมื่อเรา Slo-Mo ไม่ต้องให้เครื่องมาสร้าง Frame ระหว่างนั้นด้วยวิธีการต่าง ๆ (Frame Interpolation) หรือมากกว่านั้นหากเราจจะ Slo-Mo ที่ความช้ามากว่านั้นอีก ซึ่ง iPhone 16 Pro Series สามารถทำได้ถึง 120 FPS บนความละเอียด 4K ดังนั้นหากเราใช้ที่ 25 FPS เราสามารถ 4.8x Slo-Mo ได้เลยนะ ทำให้ส้มหยุดแบบไม่มีอะไรมากั้นได้เลย

การที่เราจะถ่ายวีดีโอที่ Frame Rate สูง ๆ มันก็ไม่ใช่เรื่องง่ายเหมือนกัน ลองคิดภาพดูว่า สมมุติว่า กล้องนี้ถ่าย 4K ได้ 60 FPS นั่นแปลว่าใน 1 วินาที จะมี Frame ขนาด 4K วิ่งออกไป 60 อัน ทำให้วิศวกรต้องออกแบบระบบการส่งข้อมูลและวิเคราะห์ข้อมูลที่ทำในระดับนั้นได้ แต่สิ่งที่ iPhone 16 Pro Series ทำคือเหนือกว่านั้น 2 เท่าด้วย 4K 120 FPS ด้วยการเพิ่มความเร็วในการอ่านค่าจาก Sensor (Sensor Readout Speed) ขึ้นไป พร้อมกับ ISP ที่เก่งขึ้น และ Video Encoder ที่เร็วขึ้น ทำให้มันสามารถทำได้นั่นเอง

ทีนี้นำไปสู่คำถามที่น่าสนใจว่า Feature นี้มันทำมาเพื่อใครกันแน่ ถ้าถามเราคนทั่วไปไม่น่าจะได้ใช้บ่อยแน่นอน เราไม่น่าถ่ายคลิปถ่ายหมากระโดดงับ Board หรือหมากำลังวิ่งน้ำลายยืดมา เราเอามาถ่ายแมวนอนโว้ยย ไม่ต้อง Slo-Mo และสำหรับ Professional พูดตรง ๆ ว่าถ้าเราต้องการถ่ายงานระดับ Production จริง ๆ เราคงไม่ใช้อะ ส่วนที่ Apple ทำออกมา ก็คือเพื่อ Demo ให้ดูว่ามันทำได้นะ แต่ความเป็นจริงเราถามเลยนะว่า ถ้ากองคุณมีเงินจ้าง The Weeknd มา แกจะกล้าเอา iPhone ไปถ่ายจริง ๆ เหรอ จะไม่มีเช่นเช่า RED เลยเหรอ หรือถ้าเราต้องถ่าย Mock มันก็พอได้นะ ทำให้ทุกคนในทีมเห็นภาพของ Frame ที่ต้องการได้ง่ายขึ้น แต่ส่วนตัวเรามองว่า Apple น่าจะทำแค่ออกมาโชว์เฉย ๆ ว่าชั้นทำได้แล้วนะมากกว่า

Studio-Quality Microphone และ Audio Mix

Microphone ก็ได้รับการ Upgrade เช่นเดียวกัน Apple เคลมว่ามันคือ Studio-Quality Microphone มาจากชื่อเราคาดหวังสูงเลยนะ แต่จากการลองใช้งานมา ถามว่าคุณภาพสูงมั้ย โอเค ยอดเยี่ยม สามารถอัดเสียงโดยมี Noise ที่ต่ำ และเสียงฟังดูโอเคไม่แย่ แต่ถามว่ามันดีขนาด Studio-Grade จริงมั้ย คำตอบคือไม่อะ เราว่าเหมือนกับ Macbook Pro ไม่ผิด ดังนั้นหากเราต้องการอัดเสียงคุณภาพสูงระดับ Studio จริง ๆ เอา Studio Microphone จริง ๆ มาใช้เนอะ

สิ่งที่มันน่าสนุกมากขึ้นคือ Apple เลือกใส่ Microphone มาทั้งหมด 4 ตัว หน้า,หลัง, ซ้ายและขวา เรียกว่ารอบด้านกันเลยทีเดียว เพื่อทำให้รู้ว่าต้นทางของเสียงนั้นมาจากด้านไหน แล้วเอามาใช้ใน Feature ที่เรียกว่า Audio Mix มันทำให้เราสามารถปรับเสียงในโหมดต่าง ๆ ได้ถึง 4 โหมดด้วยกันคือ Standard, In-Frame, Studio และ Cinematic

แว่บแรก เราเข้าใจว่ามันน่าจะเป็นแค่การเลือก Mix Mic ทั้ง 4 เท่านั้น เช่น Cinematic เราเข้าใจว่ามันก็คือการเอาเสียงจากไมค์ทุกตัวมากองใส่เข้าไปเพื่อเก็บทั้งเสียงพูดและบรรยากาศ หรือ In-Frame คือแค่การเอาเสียงจากไมค์ซ้ายขวา มาลบกับเสียงที่ได้จากไมค์หน้าหลัง ทำให้ลดเสียงรบกวนจากด้านซ้ายและขวาลงไปได้ แต่จริง ๆ แล้วมันไม่ได้ง่ายขนาดนั้น มันมีการใช้ Machine Learning หลาย ๆ อย่างเข้ามาช่วยทำให้เสียงที่ได้ออกมานั้นมีคุณภาพมากขึ้น

ถามว่า มันเอามาเพื่อทดแทนการติดไมค์ในงาน Production จริง ๆ ได้มั้ย เราว่าคุณภาพมันยังห่างไกลแบบไกลมาก แต่สมมุติว่าเราไปสักที่นึงแล้วอยู่ ๆ เราต้องถ่ายจริง ๆ เราว่ามันก็พอไปวัดไปวาใช้งานได้ ลงแล้วไม่น่าเกลียด

Apple A18 Pro SoC แรงขึ้น รองรับ Apple Intelligence

อีก Highlight คือ Apple A18 Pro SoC ที่ในรอบนี้ Apple เลือกใช้กระบวนการผลิตบนสถาปัตยกรรม TSMC 3nm 2nd Generation ตัวเดียวกับที่ใช้บน M4 SoC ส่งผลให้ประสิทธิภาพองค์รวมนั้นดีขึ้นกว่ารุ่นก่อนหน้า

เริ่มจากฝั่ง CPU จำนวน 6-Core ที่ประกอบด้วย 2 Performance Core และ 4 Efficiency Core ที่ในหน้าเว็บ Apple เคลมว่ามันเร็วกว่ารุ่นก่อนหน้าถึง 15% ด้วยกัน และประหยัดพลังงานเพิ่มขึ้น 20% เมื่อใช้ Performance เท่ากับรุ่นก่อนหน้า และเขาบอกว่า เขาใส่ Cache มากขึ้นนั่นแปลว่า App ที่มีการใช้งาน Memory หนัก ๆ น่าจะได้ความเร็วในการทำงานที่ดีมากกว่าเดิม ไว้ถ้ามี iPhone 15 Pro เป็นเหยื่อมาจะมาลองเขียน App สนุกเทสกันอีกที

ฝั่ง GPU จำนวน 6-Core ในหน้าเว็บ Apple เคลมว่าแรงกว่ารุ่นก่อนหน้าถึง 20% พร้อมทั้งรองรับ Dynamic Caching และ Mesh Shading เหมือนรุ่นก่อนหน้า แต่มีการเพิ่มประสิทธิภาพของ Ray-Tracing เพิ่มขึ้นอีก 2 เท่าทำให้มันสามารถเล่น AAA Game ได้ดีมากขึ้น

ไหน ๆ เคลมกันว่าเล่นเกม AAA ได้แล้ว งั้นลองเลยปะละ เราลองโหลด Resident Evil 4 มาเล่นพบว่า Frame Rate ที่ได้แอบไม่แย่อย่างที่คิด แต่มันแลกมากับคุณภาพที่แย่มาก ๆ ทั้ง Texture Detail ที่มันแย่กว่าในคอมเยอะมาก ทำให้ถึงแม้ว่าเราจะทำ Ray Tracing ได้จริง ๆ แต่คุณภาพโดยรวมเวลาผู้เล่น ๆ จริง ๆ เราคิดว่าการมี Ray Tracing ไม่ได้ช่วยให้เรารู้สึกว่าภาพสวยขึ้นเลย มันเป็นอะไรที่ Luxury ใน GPU ที่มีก็ดี ไม่มีก็ไม่ตาย แต่ต้องหมายเหตุก่อนนะว่าเราเล่นแค่ Resident Evil คุณภาพ Graphic ที่เราเล่าอาจจะไม่เกิดกับเกมอื่นที่ใช้ Engine อื่นก็ได้นะ

Neural Engine ได้รับการพัฒนาขึ้นอีกขั้นหนึ่ง เพื่อให้สามารถรัน Apple Intelligence ไหว ซึ่งใน Pro Series รุ่นก่อนก็ไหวแหละ แต่เราเดาว่ามันน่าจะปริ่มมาก ๆ จึงเพิ่มความเก่งมันขึ้นมาอีกในรุ่นนี้ โดยการเพิ่ม Memory Bandwidth จากรุ่นก่อนหน้าถึง 17% ด้วยกัน ส่งผลให้สามารถรัน Model บน Neural Engine ได้เร็วกว่าเดิม 15% เมื่อเทียบกับรุ่นก่อนหน้า

หลาย ๆ คนอาจจะสงสัยว่า เอ๊ะ แล้วการเพิ่ม Memory Bandwidth มันส่งผลอย่างไร ทำไมถึงทำให้ Apple Intelligence เร็วขึ้น มันเป็นเพราะเวลา Model มันทำงาน Neural Engine เป็นเพียงหัวที่ใช้คำนวณเท่านั้น เก็บข้อมูลบน Cache ได้เล็กน้อย ดังนั้นข้อมูลที่เหลือมันจะถูกโหลดอยู่ใน RAM ซึ่งมันจะต้องโหลดไป ๆ มาเพื่อให้ได้ประสิทธิภาพสูงที่สุด เมื่อเราเพิ่ม Memory Bandwidth เข้าไปส่งผลให้ เวลาที่จะต้องใช้ในการรอข้อมูลจาก RAM ถึง Cache น้อยลง ย่อมส่งผลต่อความเร็วในการทำงานด้วยเช่นกัน เหมือนกับเวลาเราซื้อ RAM ถ้าอยากเร็วเราก็ต้องซื้อ RAM ที่มีค่า Bus สูง ๆ นั่นเอง

ทำให้สุดท้ายแล้วการ Upgrade จาก A17 Pro ในรุ่นก่อนหน้ามาเป็น A18 Pro เป็นเพียง Minor Change ซะเยอะ เราคิดว่า หากใครใช้ iPhone 15 Pro ทั้งหลายอยู่แล้ว และต้องการ Performance จาก SoC ที่สูงขึ้น การเปลี่ยนมาใช้อาจจะไม่ใช่ตัวเลือกที่ดีเท่าไหร่ มันได้ไม่คุ้มเสียจริง

Battery

รีวิว UGREEN USB-C GaN Charger 100W ถูกและดีมีอยู่จริง
หลังจากที่ Adapter ลูกรักตัวเก่า แตกไป วันนี้เราต้องหา Adapter อันใหม่มาใช้ จนโดนป้ายยามา เป็น UGREEN USB-C GaN Charger 100W บอกเลยว่า ขึ้นแท่นลูกรักคนใหม่เลย และ Adapter ที่ถูกและดีมีอยู่จริงแฮะ ยิ่งรอลดราคายิ่งคุ้มสุด ๆๆๆๆ

การชาร์จในรอบนี้มีข่าวข้างนอกบอกว่า มันสามารถชาร์จได้สูงสุด 45W อยากรู้ต้องมาลองกัน เรารีวิวลองใช้เครื่องไปเรื่อย ๆ จนแบตเหลือประมาณ 20% พอดี เอาให้มันขึ้นเตือน ก็เสียบทันที โดยเสียบเข้ากับ Adapter และสาย UGREEN ตัวที่เราเคยรีวิวไปด้านบนนี้ และเราเอามาชาร์จ Macbook Pro 14-inch M1 Max เราวัดได้ 96W ดังนั้น Adapter และสายเส้นนี้สามารถชาร์จได้เกินกำลังของ iPhone 16 Pro Max ที่เราได้ตั้งสมมุติฐานกันแน่นอน และเพื่อตัดตัวแปรเรื่องอุณหภูมิห้อง ในการทดลองเราได้ชาร์จในห้องที่เปิดแอร์อุณหภูมิผันผวนอยู่ระหว่าง 25.9-26.3 องศาเซียลเซียส คิดว่าไม่น่ามีปัญหาจากความร้อนของห้อง

How to Fast Charing Your Macbook?
สงสัยมานานมากแล้วว่า การที่เราจะ Fast Charge ตัว Macbook Pro ของเรา เราจะต้องใช้ Adapter ของมันหรือไม่ หรือ เราจะต้องใช้ Magsafe มั้ยอะไรแบบนั้น และสำหรับ Macbook Pro 14 มันจะชาร์จเร็วสุดได้เท่าไหร่

พร้อมกับเสียบเข้า Smart Switch ที่วัดไฟได้ของ Sonoff ซึ่งคืออันเดียวกันกับที่เราใช้ทดสอบ Fast Charge ของ Macbook Pro ก่อนหน้านี้ที่มันพาไปถึงจุดสูงสุดของตัวเครื่อง ซึ่งผลที่ได้เมื่อเราเสียบมันน่าจะอยู่ราว ๆ 43-47W อะไรแถว ๆ นั้น

แต่พอออกมาจริง ๆ ได้อยู่ที่ 33-34W เท่านั้น และเมื่อชาร์จไป 4 นาทีกว่า ๆ กำลังเริ่มตกลงเรื่อย ๆ จนไปถึง 26.4W ตอนที่แบตอยู่ราว ๆ 44% เครื่องมีอาการอุ่น ๆ และเมื่อชาร์จไปถึง 60% กำลังตกลงไปเหลือ 18W เท่านั้น เครื่องที่อุ่นก็เย็นขึ้น เราตั้งสมมุติฐานว่า การที่มันไม่ได้ถึง 45W ตามทีหลาย ๆ เจ้าพูดกัน มี 2 ความเป็นได้ อย่างแรกคือ มันได้แค่ 30W เหมือนเดิมแหละ กับอีกอย่างคือมันรู้ว่าแบตร้อนไปเลยตัดเหลือ 30W อาจจะต้องรอดูว่าเจ้าอื่นเขาทำได้ถึง 45W มั้ย เพราะการทดลองเรามันอาจจะมีปัจจัยอื่นที่ทำให้เราไม่ได้ถึง 45W ก็เป็นได้

ถ้าข้อมูลที่เราได้มาถูกต้อง หากใครมองหา Adapter สำหรับชาร์จ iPhone 16 Pro Max เราไม่จำเป็นต้องใช้ Adapter ที่รองรับ USB-PD ขนาด 45W ที่มีขนาดใหญ่และหนักมาใช้ ไปใช้ระดับ 20-30W ที่อันเล็กนิ๊ดเดียว พกพาสะดวกน่าจะโอเคมากกว่าทั้งในเรื่องของราคา และขนาดน้ำหนักที่เราต้องแบก

กับเราสงสัยว่า แล้วถ้าเราเอาไปใช้ทำงานถ่ายวีดีโอยาว ๆ อัดไฟล์แบบใหญ่ ๆ อย่าง ProRes Raw ไปเลย มันจะเปลี่ยนการสรุปผลได้หรือไม่ เราทดลอง ณ แบต 66% โดยการเปิดกล้องและอัด ProRes Raw Video ไป 5 นาที ระหว่างที่อัดกำลังไฟเด้งขึ้นมาจาก 17.9W (ณ ตอนที่ปิดหน้าจอ) มาเป็น 23.34 W ทำให้เราว่าก็ยังอยู่ในข้อสรุปเดิมได้อยู่ ถึงแม้ว่าเราจะถ่ายวีดีโอหนักมาก ๆ เราก็ยังไม่จำเป็นต้องใช้ Adapter ขนาดเกิน 30W อยู่ดี

Thermal

ปัญหาใหญ่มาก ๆ ที่หลาย ๆ คนพบใน iPhone 15 ทั้งหลายคือ ความร้อน มันส่งผลกระทบต่อ 2 เรื่องใหญ่ ๆ ด้วยกันคือ

เรื่องแรกคือ อายุการใช้งาน Battery เพราะหากตัวเครื่องร้อนมาก ๆ บ่อย ๆ มันจะทำให้อายุการใช้งานของ Battery สั้นลง ทำให้เราจะต้องเปลี่ยนแบตบ่อย เสียเงินเยอะเฉยเลย

และเรื่องที่ 2 คือ Performance และการทำงานต่าง ๆ ถ้า iPhone ใน Pro Series มันทำงานสำหรับ Professional จริง ๆ เรื่องความน่าเชื่อถือ และเสถียรภาพ เป็นเรื่องที่สำคัญมาก ๆ หากเราถ่าย ๆ ไปเครื่องไม่สามารถจัดการความร้อนได้ทัน ถ่ายต่อไม่ได้มันก็ไม่ดีเท่าไหร่แน่นอน

ทำให้ Apple แก้ปัญหาเรื่องความร้อนด้วยการใส่พวกระบบระบายความร้อนเพิ่มเติมทำให้สามารถระบายความร้อนได้รวดเร็วกว่าเดิม นั่นแปลว่างานหนัก ๆ ทั้งหลาย ตัว SoC สามารถรันได้เต็มที่นานขึ้นกว่ารุ่นก่อนหน้าแน่นอน และอีกส่วนที่ส่งผลต่ออุณหภูมิอีกคือตัว SoC เองที่มันมีประสิทธิภาพสูงขึ้นกว่ารุ่นก่อนหน้า และกินไฟน้อยกว่าด้วย ส่งผลให้เกิดความร้อนน้อยกว่านั่นเอง ซึ่งมันจะส่งผลไปถึงเรื่องความร้อนและอัตราการเสื่อมของแบตด้วย

จากการใช้งานทดสอบของเราพบว่า เราเอามาเล่น Resident Evil 4 ไป 1 ชั่วโมง ตัวเครื่องมีอาการอุ่น ๆ นิดหน่อย ไม่ได้ร้อนมากขนาดนั้น และเราลองตั้งกล้องถ่าย ProRes เอาไว้ 1 ชั่วโมงกว่า ๆ ก็ยังโอเคไม่มีปัญหาอะไรเลย คิดว่า ถ้าเอาไปใช้งานในที่แจ้ง ถ่ายกันกลางแดดจริง ๆ มันก็น่าจะดีกว่ารุ่นก่อนหน้าแน่นอน

คิดว่าควรจะซื้อมั้ย ?

หากคุณคิดว่าจะซื้ออยู่แล้ว และต้องการคนช่วยยืนยันเป็นเพื่อน แน่นอนว่าผมอยู่ข้างคุณอยู่แล้ว ซื้อเลยครับ ซื้อเลย ! และถ้าคุณซื้อของด้วย Emotion อยู่แล้ว ก็จัดไปอย่ารอ

ส่วนถ้าคุณซื้อของด้วยเหตุผลและตรรกะ อาจจะต้องลองดูการใช้งานของเราว่า ณ วันนี้ ด้วยเครื่องที่เราใช้งานมันมีปัญหาอะไร และ Feature หรือความสามารถที่มันเพิ่มขึ้นมาใหม่ มันช่วยแก้ปัญหาอะไรกับเรามั้ย ถ้ามันแก้ปัญหาให้เราจริง และอยู่ในราคาที่เรารับได้ เราว่ามันก็โอเคที่จะซื้อ แต่ถ้าไม่ก็อาจะไปรุ่นที่ไม่ Pro มั้ย หรืออาจจะไปมองรุ่นอื่นยี่ห้ออื่นที่อาจจะเหมาะสมมากกว่า

สรุป : iPhone 16 Pro Series เหมาะกับใคร ? ใครคือมืออาชีพ มืออาชีพคือใคร ?

จากการได้ทดลองใช้งาน เราฉุกคิดถึงคำถามที่สำคัญมากว่า แล้วสรุป iPhone 16 Pro Series ทั้งหลายมันเหมาะกับใครกันแน่... Professional ที่ใช้ในงาน Production ขนาดใหญ่ แบบที่ Apple พยายาม Demo ให้ดูหลายปีแล้ว หรือใครกันแน่ ใครคือ Pro ที่ Apple ว่า

ถ้าเป็นงาน Production ที่ต้องมานั่งมีทีมงานจัดแสงจัดไฟแบบฉ่ำ ๆ แบบ Demo ของ The Weeknk ถ้าเราเป็น DP จริง ๆ และ Apple ไม่ได้จ่าย เราใจไม่ถึงที่จะเอา iPhone มาถ่ายงานจริง ๆ นะ อย่างน้อยเราจะเอา Mirrorless Camera ไม่ต้องเป็น Cinema Camera ก็ได้ แบบเอา Sony A7IV หรือ Sony A6600 มาแทนอะไรแบบนั้นก็ได้ แต่ถ้างบถึงเช่า RED กับห้องตัดไหวก็เอา หรือถ้าคิดให้เห็นภาพสำหรับคนทั่วไปมากขึ้น สมมุติว่า เราจะจ้างตากล้องมาถ่ายในงานสำคัญ ๆ ของเรา เช่นงานรับปริญญา หรืองานแต่งงานเรา ถามว่า.... เรากล้าจ้างตากล้องที่ใช้ iPhone 16 Pro Max 1 TB เครื่องละ 64,900 บาทมั้ยอะ เทียบกับคนที่ใช้กล้องเช่น ๆ Sony A6600 กับเลนส์ Kit ราคาขาย 59,990 บาท ถามว่า ถ้าเรามีตากล้อง 2 คน เราจะเลือกคนไหน สุดท้ายมันนำไปสู่ปัญหาหลักคือเราไม่สามารถไว้ใจ Reliability ของกล้อง iPhone หรือกล้องโทรศัพท์อื่น ๆ เมื่อเทียบกับกล้องใหญ่ได้เลย

จากประสบการณ์ส่วนตัวที่เคยมั่นหน้ามั่นโหนกในฝีมือเอากล้องโทรศัพท์ไปถ่ายงานรับปริญญาตัวเองก็คือยังรู้สึกเสียดายอยู่เลยว่าทำไมไม่ยอมแบกกล้องใหญ่ไปหว่า ตัวเองก็มีกล้องใหญ่แท้ ๆ เพราะคุณภาพก็คือแย่มากสำหรับการเก็บเป็นความทรงจำ แต่มันพอใช้ได้สำหรับการลง Social แค่นั้น ในงานสำคัญ ๆ ที่เราคิดว่า iPhone เข้ามาตอบโจทย์มาก ๆ คืองานที่ต้องการความเร็ว และเข้าถึงได้ยาก เช่น ในงานของการทำข่าวที่ต้องรวดเร็ว ถ่ายเสร็จส่งกลับไปที่ห้องส่งได้อะไรแบบนั้น หรือเป็นการ Quick Capture เรื่องราวต่าง ๆ ที่เกิดขึ้น เราว่ามันน่าจะเป็นจุดที่เหมาะสมมาก ๆ สำหรับกล้อง iPhone และโทรศัพท์เครื่องอื่น ๆ

แต่ถ้าเราเอาลงมาในงานที่ Casual มากกว่านั้น เช่นการเอามาใช้เป็นกล้องสำหรับทำ Content ถ่ายลงช่องแล้วอยากได้ทั้งชีวิตจะพกแค่โทรศัพท์เครื่องเดียว เรามองว่าอาจจะยังไม่จำเป็นต้องไป Pro Series เลย ไปแค่ iPhone 16 หรือ iPhone 16 Plus ก็เพียงพอแล้ว แล้วเอาส่วนต่างราคาไปเพิ่มความจุ หรือซื้อ External SSD มาเสียบเอาระหว่างอัดก็ได้ ไม่จำเป็นต้องพวกเงินมหาศาลไปซื้อ Pro Series เลย บางทีเราจะต้องลบคำว่า แพง = สวยอะ คือมันอยู่ที่ฝีมือซะเยอะ อุปกรณ์มันเป็นแค่ตัวช่วยเท่านั้น และ iPhone 16 ตัวปกติมันก็เก่งมากพอแล้ว

ทำให้สุดท้ายเราคิดว่า คำว่า Pro ไม่ใช่ Professional แต่น่าจะเป็นสาย Enthusiast มากกว่า โชว์เทคโนโลยีของตัวเองมากกว่า หรือคนที่ต้องการหน้าจอ ProMotion หรือคนที่อยากลองเทคโนโลยีใหม่ ๆ ต้องการสิ่งที่ดีที่สุด ณ วันนี้มากกว่าคนที่เป็น Professional จริง ๆ เหมือนที่ Apple พยายามเคลมเลย มันไม่ใช่แค่เรื่องของความไว้ใจ แต่มันยังมีปัญหาในเรื่องของคุณภาพที่มันยังสูงไม่พอจริง ๆ แล้ว Image Pipeline ที่สวยสำหรับคนทั่วไป แต่ไม่ยืดหยุ่นในการทำงานเลยเพราะไฟล์มันโดน Oversharpen ไปหมดแล้ว.... แต่ถ้าจะถ่าย RAW มาก็คุณภาพแย่จนทำงานลำบากอีก