Deep Fusion: Tính năng camera ấn tượng nhất trên iPhone 11 thực chất là gì?

Thảo luận trong 'Tin tức công nghệ' bắt đầu bởi SkylerNew, 12/9/19.

  1. SkylerNew

    SkylerNew Chuyên viên tin tức Thành viên BQT

    Tham gia ngày:
    1/7/08
    Bài viết:
    4,007
    Đã được cảm ơn:
    4,098
    Điểm thành tích:
    113
    Tiền:
    6,143 CR
    Ngay cả Apple cũng đã phải thừa nhận rằng những dòng thuật toán đóng vai trò quan trọng trong nhiếp ảnh smartphone.

    Bộ 3 iPhone mới vừa ra mắt đêm qua đều được cải tiến và nâng cấp camera. Nhìn bằng mắt thường thì chúng ta cũng có thể thấy được sự khác biệt rõ rệt, cụm camera sau to hơn với một ống kính góc rộng được bổ sung thêm. Tuy nhiên tính năng camera ấn tượng nhất mà Apple mang đến lại không thể nhìn bằng mắt, và thậm chí không thể nhìn thấy bây giờ vì nó chưa được ra mắt.

    Apple gọi tính năng đặc biệt này là “Deep Fusion”, một cách hoàn toàn mới để chúng ta chụp ảnh. Mà trong đó, bộ xử lý Neural Engine trong con chip A13 Bionic sẽ sử dụng machine learning để tạo ra hình ảnh.

    [​IMG]

    Chỉ có điều tính năng này chưa có sẵn trên iPhone 11, iPhone 11 Pro và 11 Pro Max khi ra mắt. Thay vào đó, Apple sẽ cập nhật tính năng này trong phiên bản nâng cấp phần mềm vào cuối năm nay.

    Chính vì vậy mà việc dùng thử những chiếc iPhone mới trong phòng trải nghiệm của Apple sau khi kết thúc sự kiện, không giúp chúng ta có cái nhìn đầu tiên về tính năng Deep Fusion này. Tuy nhiên theo những gì Apple công bố, chúng ta có thể hiểu tính năng camera ấn tượng nhất trên iPhone 11 như sau.


    Tính năng Deep Fusion sẽ cho phép iPhone 11 có thể chụp được những bức ảnh vô cùng chi tiết, với dải màu rộng và sắc nét. Tính năng này sử dụng machine learning để tự xử lý và tính toán, có thể phát huy hiệu quả tốt nhất trong điều kiện ánh sáng yếu đến trung bình.

    [​IMG]

    Cách Deep Fusion hoạt động đó là nó sẽ chụp tổng cộng 9 bức ảnh. Ngay cả trước khi bạn bấm vào nút chụp ảnh, camera của iPhone 11 đã tự động chụp 4 ảnh chính và 4 ảnh phụ. Khi bạn bấm vào nút chụp, nó sẽ chụp một bức ảnh phơi sáng dài.

    Sau đó chỉ trong 1 giây, Neural Engine của chip A13 sẽ tự động kết hợp tất cả các bức ảnh này, chọn ra những chi tiết tốt nhất, từng pixel một trong số 24 triệu pixel của bức ảnh. Kết quả sẽ là một bức ảnh hoàn thiện với các chi tiết xuất sắc nhất.

    Đây thực sự là nhiếp ảnh tính toán, khi mà những dòng thuật toán còn quan trọng hơn cả cảm biến hay ống kính camera. Apple cũng gọi đây là “lần đầu tiên một bộ vi xử lý thần kinh đóng vai trò xử lý và tạo ra hình ảnh cuối cùng”.

    Ngay cả Apple cũng đã phải thừa nhận rằng những dòng thuật toán đóng vai trò quan trọng trong nhiếp ảnh smartphone. Đó là lý do vì sao Google Pixel vẫn luôn được đánh giá cao khả năng chụp ảnh, trong khi chỉ có camera đơn.

    Theo Genk​
     

Chia sẻ trang này