IBM từ bỏ công nghệ nhận dạng khuôn mặt ‘thiên vị’

Gã khổng lồ công nghệ IBM sẽ ngừng cung cấp phần mềm nhận dạng khuôn mặt để “giám sát hàng loạt hoặc lập hồ sơ chủng tộc”.

Thông báo này được đưa ra khi Mỹ phải đối mặt với lời kêu gọi cải cách cảnh sát sau vụ giết chết một người đàn ông da đen, George Floyd.

Trong một lá thư gửi Quốc hội Hoa Kỳ, IBM cho biết các hệ thống AI được sử dụng trong thực thi pháp luật cần thử nghiệm “cho sự thiên vị”.

Một nhà vận động cho biết đó là một động thái “yếm thế” từ một công ty đã tạo ra công nghệ cho cảnh sát.

Trong thư gửi Quốc hội, giám đốc điều hành IBM Arvind Krishna nói rằng “cuộc chiến chống phân biệt chủng tộc là cấp bách hơn bao giờ hết”, đặt ra ba lĩnh vực mà công ty muốn làm việc với Quốc hội: cải cách cảnh sát, sử dụng công nghệ có trách nhiệm và mở rộng các kỹ năng và giáo dục những cơ hội.

“IBM kiên quyết phản đối và sẽ không từ bỏ việc sử dụng bất kỳ công nghệ nào, kể cả công nghệ nhận dạng khuôn mặt được cung cấp bởi các nhà cung cấp khác, để giám sát hàng loạt, hồ sơ chủng tộc, vi phạm các quyền và tự do cơ bản của con người”, ông viết.

“Chúng tôi tin rằng bây giờ là lúc để bắt đầu một cuộc đối thoại quốc gia về việc liệu và cách thức sử dụng công nghệ nhận dạng khuôn mặt của các cơ quan thực thi pháp luật trong nước”.

Thay vì dựa vào nhận dạng khuôn mặt có khả năng thiên vị, công ty đã thúc giục Quốc hội sử dụng công nghệ mang lại “tính minh bạch cao hơn”, chẳng hạn như máy ảnh cơ thể trên các sĩ quan cảnh sát và phân tích dữ liệu.

Phân tích dữ liệu không thể thiếu đối với hoạt động kinh doanh của IBM hơn là các sản phẩm nhận dạng khuôn mặt. Nó cũng đã làm việc để phát triển công nghệ cho chính sách dự đoán, cũng đã chỉ trích cho sự thiên vị tiềm năng.

‘Đừng để bị lừa’

Eva Blum-Dumontet của Privacy International cho biết công ty đã đặt ra thuật ngữ “thành phố thông minh”.

“Trên toàn thế giới, họ đã đẩy một mô hình hoặc đô thị hóa dựa trên các camera quan sát và cảm biến được xử lý bởi lực lượng cảnh sát, nhờ vào các nền tảng kiểm soát thông minh mà IBM đang bán chúng”, cô nói.

“Đây là lý do tại sao bây giờ rất khó chịu khi IBM quay lại và tuyên bố họ muốn có một cuộc đối thoại quốc gia về việc sử dụng công nghệ trong việc trị an.”

Cô nói thêm: “IBM đang cố gắng chuộc lỗi vì họ là công cụ phát triển khả năng kỹ thuật của cảnh sát thông qua việc phát triển cái gọi là kỹ thuật trị an thông minh. Nhưng đừng để bị lừa bởi động thái mới nhất của họ.

“Trước hết, thông báo của họ không rõ ràng. Họ nói về việc kết thúc nhận dạng khuôn mặt ‘mục đích chung’, khiến tôi nghĩ rằng nó sẽ không phải là kết thúc nhận diện khuôn mặt cho IBM, nó sẽ chỉ được tùy chỉnh trong tương lai.”

Liên minh công lý thuật toán là một trong những nhóm hoạt động đầu tiên chỉ ra rằng có sự thiên vị chủng tộc trong các bộ dữ liệu nhận dạng khuôn mặt.

Một nghiên cứu năm 2019 do Viện Công nghệ Massachusetts thực hiện cho thấy không có công cụ nhận dạng khuôn mặt nào của Microsoft, Amazon và IBM chính xác 100% khi nhận ra đàn ông và phụ nữ có làn da tối.

Và một nghiên cứu từ Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ cho thấy các thuật toán nhận dạng khuôn mặt kém chính xác hơn rất nhiều trong việc xác định khuôn mặt người Mỹ gốc Phi và châu Á so với người da trắng.

Amazon, có phần mềm Rekognition được sử dụng bởi các sở cảnh sát ở Mỹ, là một trong những người chơi lớn nhất trong lĩnh vực này, nhưng cũng có một loạt người chơi nhỏ hơn như Facewatch, hoạt động ở Anh. Clearview AI, được cho là ngừng sử dụng hình ảnh từ Facebook, Twitter và YouTube, cũng bán phần mềm của mình cho lực lượng cảnh sát Mỹ.

Maria Axente, chuyên gia về đạo đức AI tại công ty tư vấn PwC, cho biết nhận dạng khuôn mặt đã chứng minh “rủi ro đạo đức đáng kể, chủ yếu là trong việc tăng cường sự thiên vị và phân biệt đối xử hiện có”.

Bà nói thêm: “Để tạo dựng niềm tin và giải quyết các vấn đề quan trọng trong xã hội, mục đích nhiều như lợi nhuận phải là thước đo chính của hiệu suất.”

5/5 (4 Reviews)