“Bí mật đáng sợ" của nhận diện khuôn mặt: hình ảnh của chính bạn có thể đang bị sử dụng trái phép

The drifter

Chuyên viên tin tức
Thành viên BQT
Hình ảnh gương mặt của người dân đang bị sử dụng mà không được họ cho phép, nhằm phát triển công nghệ nhận diện khuôn mặt. Đây là công nghệ sau này có thể sẽ giám sát họ.

Hệ thống nhận diện khuôn mặt có thể giúp bạn đăng nhập vào chiếc iPhone của mình, theo dấu tội phạm, và tìm ra khách hàng địa phương trong cửa hàng. Hệ thống này được xây dựng dựa trên thuật toán giúp nhận diện mặt người và hàng trăm đặc điểm khác nhau. Tuy vẫn chưa quá hoàn hảo, nhưng công nghệ này đang ngày càng được cải thiện nhanh chóng.

a-15526599085642119394745.jpg

Tuy vẫn chưa quá hoàn hảo, nhưng công nghệ nhận diện khuôn mặt đang ngày càng được cải thiện nhanh chóng.

Để có thể thực hiện được điều này, các thuật toán cần được cung cấp hàng trăm ngàn tấm ảnh của nhiều khuôn mặt với đặc điểm đa dạng. Những tấm hình được lấy trên mạng Internet càng ngày càng nhiều. Chúng bị sử dụng bởi hàng triệu người mà chủ của những tấm ảnh ấy lại không hề hay biết. Chúng còn được phân loại theo tuổi tác, giới tính, màu da cùng hàng tá những đặc điểm khác và được chia sẻ cho các nhà nghiên cứu ở trường đại học và công ty.

Các thuật toán đang ngày càng phát triển có thể phân biệt giới tính và màu da của con người, một điều mà trước đây chúng không tài nào thực hiện được. Điều này đã khiến các chuyên gia về luật và người ủng hộ quyền công dân dấy lên một hồi chuông cảnh báo về việc các nhà nghiên cứu sử dụng hình ảnh của người dân. Gương mặt họ bị sử dụng mà chưa được sự cho phép của họ, để phục vụ cho một công nghệ mà về sau có thể sẽ được dùng để giám sát họ.

“Đây là một bí mật đáng sợ của bộ huấn luyện trí thông minh nhân tạo (AI). Các nhà nghiên cứu thường lấy bất cứ hình ảnh nào đó một cách bừa bãi.” Jason Schultz, giáo sư trường Luật thuộc Đại học New York, cho biết.

b-15526600124091708054499.gif

Các thuật toán đang ngày càng phát triển có thể phân biệt giới tính và màu da của con người, một điều mà trước đây chúng không tài nào thực hiện được.

Công ty mới nhất bước vào lĩnh vực này chính là tập đoàn công nghệ IBM. Vào tháng 1 vừa qua, công ty đã cho ra mắt bộ sưu tập với gần một triệu tấm hình lấy từ trang web hình ảnh Flickr và mã hoá nhằm mô tả vẻ bề ngoài của đối tượng. IBM giới thiệu bộ sưu tập này đến các nhà nghiên cứu như một bước tiến vượt bậc nhằm giảm thành kiến trong việc nhận diện khuôn mặt.

Nhưng các nhiếp ảnh gia có hình ảnh của họ nằm trong bộ dữ liệu của IBM đã rất ngạc nhiên và bối rối khi NBC News thông báo đến họ rằng hình ảnh của họ đã được chú giải chi tiết về đường nét khuôn mặt và màu da, và có thể bị sử dụng để phát triển thuật toán nhận diện khuôn mặt. (NBC News đã thu thập bộ dữ liệu của IBM từ một nguồn sau khi công ty từ chối chia sẻ thông tin, với lý do là những hình ảnh này chỉ được dùng cho những nhóm nghiên cứu học thuật hoặc thuộc công ty.)

“Không một người nào được tôi chụp hình biết rằng hình ảnh của họ đã bị sử dụng như thế này.” Greg Peverill-Conti cho biết; ông là điều phối viên PR tại Boston với hơn 700 tấm hình trong bộ sưu tập ảnh của IBM. “Thế này thì hơi thiếu trung thực khi IBM sử dụng những hình ảnh ấy mà không nói gì với bất cứ ai.” Ông nói thêm.

190311-ibm-facial-recognition-ac-900pa37f19e1d02c373b67dfd4416fa7e181fit-560w-1552660352498712422754.jpg

IBM tính toán chi tiết từng khuôn mặt trong bộ dữ liệu.

John Smith, người giám sát nghiên cứu AI tại IBM, cho biết rằng công ty đã cam kết “bảo vệ quyền riêng tư của cá nhân” và “sẽ làm việc với ai có yêu cầu xoá một URL ra khỏi bộ dữ liệu.”

Dù IBM đã đảm bảo rằng người dùng Flickr có thể quyết định không tham gia vào cơ sở dữ liệu này, NBC News phát hiện rằng hầu như không thể xóa bỏ những hình ảnh ấy. Không những thế, IBM đã không công bố danh sách người dùng Flickr và hình ảnh trong bộ dữ liệu, vì thế không dễ để tìm ra hình ảnh của ai đã bị lạm dụng. IBM cũng không trả lời về vấn đề này.

IBM đã nói rằng bộ dữ liệu của họ được thiết kế để hỗ trợ các nhà nghiên cứu học thuật làm công nghệ nhận diện khuôn mặt trở nên công bằng hơn. Đây không phải là công ty duy nhất sử dụng hình ảnh trên mạng như thế này. Hàng tá các tổ chức nghiên cứu khác cũng đã thu thập hình ảnh nhằm huấn luyện hệ thống nhận diện khuôn mặt, và phần lớn các bộ sưu tập đều được cắt từ trên mạng.

flickr-1552661083588162753079.jpg

IBM đã cho ra mắt bộ sưu tập với gần một triệu tấm hình lấy từ trang web hình ảnh Flickr.

Vài chuyên gia và nhà hoạt động xã hội đã tranh luận rằng việc này không chỉ xâm phạm riêng tư của hàng triệu người có hình ảnh bị lạm dụng - nó cũng dấy lên một vấn đề đáng quan ngại về việc hoàn thiện công nghệ nhận diện khuôn mặt, ấy là nỗi lo lắng về việc các cơ quan chấp pháp sẽ sử dụng công nghệ này để nhắm vào những cộng đồng thiểu số.

“Đây thực sự là một tình huống tiến thoái lưỡng nan.” Woody Hartzog - giáo sư luật và khoa học vi tính tại Đại học Northeastern, cho biết: “Nhận diện khuôn mặt có thể trở nên nguy hại vô cùng nếu nó không chính xác, và tạo áp lực lớn nếu nó ngày càng chính xác.”

Bên cạnh những lợi ích của công nghệ nhận diện khuôn mặt, nó cũng có thể được sử dụng nhằm giám sát và nhắm đến đối tượng người da màu và cộng đồng thiểu số. Các nhóm bảo vệ quyền công dân cho hay rằng cơ sở dữ liệu nhận diện khuôn mặt phần lớn bao gồm người Mỹ gốc Phi, người Mỹ Latin và dân nhập cư, vì những cộng đồng này là đối tượng mà các cảnh sát có định kiến thường nhắm vào.

10242000-21-1-1552660903710328352756.jpg

Bên cạnh những lợi ích của công nghệ nhận diện khuôn mặt, nó cũng có thể được sử dụng nhằm giám sát và nhắm đến đối tượng người da màu và cộng đồng thiểu số.

Việc sử dụng hệ thống giám sát dựa trên công nghệ nhận diện khuôn mặt của các cơ quan chấp pháp gây tranh cãi đến mức 85 nhóm bảo vệ quyền công dân và công bằng chủng tộc đã liên kết với nhau, nhằm kêu gọi các công ty công nghệ từ chối bán hệ thống này cho chính phủ. Họ tranh luận rằng công nghệ này khiến cho thành kiến đã tồn tại từ lâu ngày càng nặng nề hơn, gây tổn hại đến những cộng đồng vốn đã chịu quá nhiều sự áp chế và giám sát.

“Người ta cho phép hình ảnh của mình được chia sẻ ở nhiều trang mạng.” Meredith Whittaker - đồng giám đốc thuộc Viện AI Now, nghiên cứu về ứng dụng xã hội của trí thông minh nhân tạo - cho biết. “Bây giờ, họ không sẵn sàng hoặc không hay biết rằng hình ảnh ấy xuất hiện trong những hệ thống mà sau này có thể gây áp lực lên chính cộng đồng của họ.”

Theo Genk
 
Bên trên