Điểm đặc biệt ở hệ thống này là nó sẽ phát ra tia laser và tính toán khoảng thời gian cần có để có được phản hồi lại mà nhờ vậy sẽ giúp xây dựng bản đồ chiều sâu kích thước của một vật thể. Thông tin về chiều sâu tương tự có thể thu được bằng cách sử dụng hai camera như cách Apple đã làm với Face ID trên nền tảng dùng tia hồng ngọai của iPhone X hiện nay. Tuy nhiên, công ty Google thậm chí còn sử dụng công nghệ dual pixel cho camera của mẫu điện thoại mới nhất là Pixel 2, vốn tạo ra hiệu ứng song song đủ để đạt được hiệu quả. Song hệ thống trong tương lai của Apple có thể được phát triển để tạo ra những kết quả chính xác và mạnh mẽ hơn rất nhiều.
Lưu ý rằng đây là tin dạng đồn đoán cho nên điều mà chúng ta có thể chắc chắn nhất là các cảm biến chụp ảnh TrueDepth giúp Face ID hoạt động được trên iPhone X sẽ vẫn được dùng lại trong khi công ty Apple đang làm việc nỗ lực để tạo ra cảm biến 3D cho camera sau, để từ đó chiếc iPhone tương lai của họ sẽ đủ khả năng chụp ảnh 3D đối tượng cả trước lẫn sau.
Nguồn The Verge
Chỉnh sửa lần cuối: