Apple trì hoãn kế hoạch quét thiết bị để tìm hình ảnh lạm dụng trẻ em sau phản ứng dữ dội về quyền riêng tư

Apple tạm thời nhấn nút tạm dừng trên kế hoạch gây tranh cãi để sàng lọc thiết bị của người dùng để tìm tài liệu lạm dụng tình dục trẻ em (CSAM) sau khi nhận được phản hồi liên tục do lo ngại rằng công cụ này có thể được vũ khí hóa để giám sát hàng loạt và làm xói mòn quyền riêng tư của người dùng.

“Dựa trên phản hồi từ khách hàng, nhóm vận động, nhà nghiên cứu và những người khác, chúng tôi đã quyết định dành thêm thời gian trong những tháng tới để thu thập thông tin đầu vào và thực hiện các cải tiến trước khi phát hành các tính năng an toàn cho trẻ em cực kỳ quan trọng này”, nhà sản xuất iPhone nói trong một tuyên bố trên trang web của nó.

Những thay đổi ban đầu dự kiến ​​sẽ xuất hiện trên iOS 15 và macOS Monterey vào cuối năm nay.

Vào tháng 8, Apple đã nêu chi tiết một số tính năng mới nhằm giúp hạn chế sự lây lan của CSAM trên nền tảng của mình, bao gồm quét thư viện Ảnh iCloud của người dùng để tìm nội dung bất hợp pháp, ứng dụng An toàn Giao tiếp trong Tin nhắn để cảnh báo trẻ em và cha mẹ của chúng khi nhận hoặc gửi ảnh khiêu dâm, và hướng dẫn mở rộng trong Siri và Tìm kiếm khi người dùng cố gắng thực hiện tìm kiếm các chủ đề liên quan đến CSAM.

Cái gọi là công nghệ NeuralHash sẽ hoạt động bằng cách đối sánh ảnh trên iPhone, iPad và Mac của người dùng ngay trước khi chúng được tải lên iCloud Photos với cơ sở dữ liệu về hình ảnh lạm dụng tình dục trẻ em đã biết do Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC) ) mà không cần phải sở hữu hình ảnh hoặc thu thập nội dung của chúng. Các tài khoản iCloud vượt qua ngưỡng đã đặt là 30 hàm băm phù hợp sau đó sẽ được xem xét thủ công, vô hiệu hóa hồ sơ của họ và báo cáo cho cơ quan thực thi pháp luật.

Các biện pháp nhằm đạt được sự thỏa hiệp giữa việc bảo vệ quyền riêng tư của khách hàng và đáp ứng các yêu cầu ngày càng tăng từ các cơ quan chính phủ trong các cuộc điều tra liên quan đến khủng bố và khiêu dâm trẻ em – và bằng cách mở rộng, đưa ra giải pháp cho cái gọi là “đi vào bóng tối“vấn đề tội phạm lợi dụng các biện pháp bảo vệ mã hóa để che giấu các hoạt động buôn lậu của chúng.

Tuy nhiên, các đề xuất đã vấp phải phản ứng dữ dội gần như ngay lập tức, với Electronic Frontier Foundation (EFF) kêu gọi gã khổng lồ công nghệ vì đã cố gắng tạo ra một hệ thống giám sát trên thiết bị, thêm vào “một tài liệu kỹ lưỡng, được suy nghĩ cẩn thận và hạn hẹp- backdoor có phạm vi vẫn là một backdoor. “

Nhưng trong một e-mail lưu hành nội bộ tại Apple, các nhà vận động an toàn cho trẻ em đã được phát hiện bác bỏ những lời phàn nàn của các nhà hoạt động quyền riêng tư và các nhà nghiên cứu bảo mật như là “tiếng kêu la của thiểu số”.

Kể từ đó, Apple đã can thiệp vào những lo ngại tiềm ẩn phát sinh do hậu quả không mong muốn, đẩy lùi khả năng hệ thống này có thể được sử dụng để phát hiện các dạng ảnh khác theo yêu cầu của các chính phủ độc tài. Công ty cho biết: “Hãy nói rõ, công nghệ này chỉ giới hạn trong việc phát hiện CSAM được lưu trữ trong iCloud và chúng tôi sẽ không chấp nhận yêu cầu của chính phủ để mở rộng nó”.

Tuy nhiên, nó không làm gì để giảm bớt lo ngại rằng quá trình quét phía máy khách có thể dẫn đến việc xâm phạm quyền riêng tư và nó có thể được mở rộng để lạm dụng hơn nữa và cung cấp một bản thiết kế để phá vỡ mã hóa end-to-end. Nó cũng không giúp được gì khi các nhà nghiên cứu có thể tạo ra “xung đột băm“- hay còn gọi là kết quả dương tính giả – bằng cách thiết kế ngược thuật toán, dẫn đến một kịch bản trong đó hai hình ảnh hoàn toàn khác nhau tạo ra cùng một giá trị băm, do đó có hiệu quả đánh lừa hệ thống nghĩ rằng các hình ảnh giống nhau khi chúng không giống nhau.

“Đề xuất của tôi với Apple: (1) nói chuyện với cộng đồng kỹ thuật và chính sách trước khi bạn làm bất cứ điều gì bạn định làm. Nói chuyện với công chúng. Đây không phải là một Touch Bar mới lạ mắt: đó là một thỏa hiệp quyền riêng tư. ảnh hưởng đến 1 tỷ người dùng “, giáo sư Johns Hopkins và nhà nghiên cứu bảo mật Matthew D. Green đã tweet.

“Hãy rõ ràng về lý do tại sao bạn đang quét và những gì bạn đang quét. Từ việc không quét gì (trừ tệp đính kèm trong email) đến việc quét thư viện ảnh riêng tư của mọi người là một vùng châu thổ rất lớn. Bạn cần phải biện minh cho những báo cáo như thế này”, Green nói thêm.

.

Content Protection by DMCA.com
GenVerge | Trang thông tin dành cho tín đồ công nghệ Việt Nam
Logo
Đăng ký
Liên hệ Admin để kích hoạt tài khoản Cộng Tác Viên
Quên mật khẩu