Thí nghiệm: Mặt nạ 3D dễ dàng đánh lừa hệ thống nhận diện khuôn mặt

Mặt nạ 3D dễ dàng đánh lừa hệ thống nhận diện khuôn mặt, gây quan ngại


Thứ tư, 18/12/2019


Chia sẻ FBChia sẻ TwitterBình luậnCông nghệ nhận diện khuôn mặt được một số hãng quảng cáo như một bước tiến công nghệ cao cấp. Nhưng có người chỉ dùng mặt nạ , và hình ảnh đơn giản là đã đủ để đánh lừa một số công nghệ nhận dạng khuôn mặt, qua đó làm dấy lên mối quan ngại về tính bảo mật.Mặt nạ 3D có thể đánh lừa hệ thống nhận diện khuôn mặt. (Ảnh: Kneron)Công ty trí tuệ nhân tạo Kneron (trụ sở tại California, Mỹ) mới đây đã tiến hành một thử nghiệm đánh lừa những thiết bị nhận dạng khuôn mặt đầu cuối để cho phép thanh toán hoặc truy cập. Ví dụ, trong các cửa hàng ở châu Á, nơi công nghệ nhận dạng khuôn mặt đã được triển khai rộng rãi, nhóm của Kneron đã sử dụng mặt nạ 3D chất lượng cao để đánh lừa hệ thống thanh toán AliPay , và WeChat, qua đó thực hiện giao dịch mua bán thành công thông qua hai cổng thanh toán này.Các hệ thống trên cũng giống với các hệ thống có ở sân bay, trong đó sử dụng khuôn mặt của một người thay vì mã PIN hoặc dấu vân tay để xác thực danh tính của người dùng. Về mặt lý thuyết, kiểu mặt nạ như vậy có thể cho phép những kẻ lừa đảo sử dụng khuôn mặt và tài khoản ngân hàng của người khác để đi mua sắm.>> Công nghệ giám sát người dân của Trung Quốc lan ra khắp thế giớiĐáng báo động hơn chính là các thử nghiệm được triển khai tại các trung tâm giao thông. Tại khu vực làm thủ tục check-in tự động ở Schiphol, sân bay lớn nhất Hà Lan, nhóm của Kneron đã đánh lừa cảm biến bằng một bức ảnh ở trên màn hình điện thoại. Nhóm cũng cho biết họ có thể truy cập theo cách tương tự tại các nhà ga đường sắt ở Trung Quốc, nơi người dân sử dụng công nghệ nhận dạng khuôn mặt khi đi qua cửa soát vé.Các thử nghiệm trên đã gây mối lo ngại về khả năng lừa đảo tín dụng, trộm cắp danh tính , và khủng bố tại thời điểm mà các cơ quan an ninh đang nghiên cứu và áp dụng rộng rãi công nghệ nhận dạng khuôn mặt như một phương pháp giám sát hiệu quả nhất cao , và tiết kiệm chi phí.Phía đại diện sân bay Schiphol, WeChat , AliPay đã không đưa ra bất cứ bình luận nào về tính hiệu quả nhất của công nghệ nhận dạng khuôn mặt.Sở dĩ mặt nạ 3D có thể phát huy tác dụng bởi hệ thống nhận dạng khuôn mặt có chứa hình ảnh của người đeo mặt nạ. Tuy nhiên, Kneron thừa nhận rằng hành vi gian lận này khó có thể lan rộng vì những mặt nạ được sử dụng trong thử nghiệm ở trên đã được lấy từ các nhà sản xuất mặt nạ đặc biệt tại Nhật Bản. Dẫu vậy, Kneron lưu ý rằng công nghệ này có thể đã được sử dụng để đánh cắp danh tính của những người nổi tiếng hoặc giàu có.“Thử nghiệm đã cho thấy mối đe dọa đối với quyền riêng tư của người dùng khi sử dụng hệ thống nhận diện khuôn mặt chỉ bằng công nghệ trí tuệ nhân tạo (AI).” Giám đốc điều hành của Kneron, Albert Liu cho biết. “Công nghệ hiện nay có thể khắc phục những vấn đề này Tuy nhiên để giảm chi phí đầu tư, các công ty đã chưa tiến hành nâng cấp, dẫn đến làm giảm tính bảo mật.”Kneron đã tiến hành các thử nghiệm để tìm hiểu về những tránh của công nghệ nhận diện khuôn mặt trong khi phát triển công nghệ của riêng mình. Công ty được lãnh đạo bởi các nhà đầu tư cao cấp bao gồm Qualcomm , và Sequoia Capital, đang gây ra cái gọi chính là “Edge AI”, một dụng cụ AI nhận dạng cá nhân hoàn toàn trên các thiết bị thay vì dựa ở trên công nghệ đám mây.Kneron cũng lưu ý rằng những thử nghiệm của họ chưa thể đánh lừa một số ứng dụng nhận dạng khuôn mặt, đặc biệt chính là Face ID ở trên iPhone X của Apple.>> Phương pháp mới để nhận diện người biểu tình Hồng Kông của ĐCSTQThử nghiệm của công ty đến vào thời điểm xuất hiện nhiều tranh luận gay gắt về cách triển khai công nghệ nhận diện khuôn mặt. Robert Hackett, cây bút thực hiện việc cho tạp chí Fortune (Mỹ), mới đây đã viết về việc ông từ chối sử dụng công nghệ này để vào văn phòng tòa soạn tại New York, với nguyên do lo ngại về quyền riêng tư.Xa hơn nữa, độ tin cậy của công nghệ nhận dạng khuôn mặt và AI cần được xem xét một cách kỹ lưỡng. Những chuyên gia về máy tính, trong một thử nghiệm tương tự như Kneron, đã đánh lừa các cảm biến khuôn mặt bằng cách sử dụng hình ảnh đến từ Facebook. Trong một điều tra được báo cáo rộng rãi vào năm 2017, các nhà khảo sát tại Viện công nghệ Massachusetts (MIT, Mỹ) đã phát hiện ra cách thức mà AI của Google nhầm lẫn hình ảnh một con rùa với một khẩu súng trường.Trong khi đó, AI cũng đã sản xuất các công cụ có thể dễ dàng gây nên những bản sao dấu vân tay của người khác, qua đó cho thấy công nghệ bảo mật sinh trắc học cũng chưa an toàn như chúng ta vẫn nghĩ.>> Sức mạnh bất ngờ của WeChat trong việc ĐCSTQ tuyên truyền ở hại ngoạiTheo Fortune,Phan Anh dịch


Công nghệ nhận diện khuôn mặtLổ hổng bảo mậtcông nghệ giám sát AIquyền riêng tưtheo dõi vị trítrí tuệ nhân tạo


2019-12-18