Apple quét mọi thiết bị để tìm nội dung lạm dụng trẻ em – Nhưng các chuyên gia lo sợ về quyền riêng tư

Hôm thứ Năm, Apple cho biết họ giới thiệu các tính năng an toàn mới cho trẻ em trong iOS, iPadOS, watchOS và macOS như một phần trong nỗ lực hạn chế sự lan truyền của Tài liệu lạm dụng tình dục trẻ em (CSAM) ở Mỹ.

Để đạt được hiệu quả đó, nhà sản xuất iPhone cho biết họ dự định bắt đầu quét phía máy khách các hình ảnh được chia sẻ qua mọi thiết bị Apple để tìm nội dung lạm dụng trẻ em đã biết khi chúng được tải lên iCloud Photos, ngoài việc tận dụng máy học trên thiết bị để kiểm tra tất cả iMessage. hình ảnh được gửi hoặc nhận bởi các tài khoản trẻ vị thành niên (dưới 13 tuổi) để cảnh báo cha mẹ về những bức ảnh khiêu dâm trong nền tảng nhắn tin.

Hơn nữa, Apple cũng có kế hoạch cập nhật Siri và Tìm kiếm để can thiệp khi người dùng cố gắng thực hiện tìm kiếm các chủ đề liên quan đến CSAM, cảnh báo rằng “sự quan tâm đến chủ đề này là có hại và có vấn đề.”

“Tin nhắn sử dụng công nghệ máy học trên thiết bị để phân tích tệp đính kèm hình ảnh và xác định xem một bức ảnh có khiêu dâm hay không”, Apple lưu ý. “Tính năng này được thiết kế để Apple không có quyền truy cập vào các tin nhắn.” Tính năng này được gọi là An toàn giao tiếp, được cho là một cài đặt chọn tham gia mà cha mẹ phải bật thông qua tính năng Chia sẻ trong gia đình.

Cách phát hiện tài liệu lạm dụng tình dục trẻ em

Phát hiện các hình ảnh CSAM đã biết liên quan đến thực hiện đối sánh trên thiết bị bằng cách sử dụng cơ sở dữ liệu gồm các băm hình ảnh CSAM đã biết do Trung tâm Quốc gia về Trẻ em mất tích và Bị bóc lột (NCMEC) và các tổ chức an toàn trẻ em khác trước khi ảnh được tải lên đám mây. “NeuralHash”, như hệ thống được gọi, được cung cấp bởi một công nghệ mật mã được gọi là giao lộ tư nhân. Tuy nhiên, điều đáng chú ý là trong khi quá trình quét diễn ra tự động, tính năng này chỉ hoạt động khi tính năng chia sẻ ảnh iCloud được bật.

Nhóm Tràn ngăn xếp

Hơn nữa, Apple dự kiến ​​sẽ sử dụng một nguyên tắc mật mã khác được gọi là chia sẻ bí mật ngưỡng cho phép nó “diễn giải” nội dung nếu tài khoản iCloud Photos vượt qua ngưỡng hình ảnh lạm dụng trẻ em đã biết, sau đó nội dung được xem xét thủ công để xác nhận có khớp và nếu có, hãy vô hiệu hóa tài khoản của người dùng, báo cáo tài liệu cho NCMEC và chuyển cho cơ quan thực thi pháp luật.

Các nhà nghiên cứu bày tỏ quan ngại về quyền riêng tư

Sáng kiến ​​CSAM của Apple đã thúc đẩy các nhà nghiên cứu bảo mật bày tỏ sự lo lắng rằng nó có thể bị ảnh hưởng bởi một nhiệm vụ và được mở rộng để phát hiện các loại nội dung khác có thể có liên quan đến chính trị và an toàn, hoặc thậm chí định khung những cá nhân vô tội bằng cách gửi cho họ những hình ảnh vô hại nhưng độc hại được thiết kế để xuất hiện dưới dạng phù hợp với khiêu dâm trẻ em.

Người thổi còi của Hoa Kỳ Edward Snowden đã tweet rằng, bất chấp mục đích tốt của dự án, những gì Apple đang triển khai là “giám sát hàng loạt”, trong khi giáo sư mật mã và chuyên gia bảo mật của Đại học Johns Hopkins Matthew Green nói, “vấn đề là mã hóa là một công cụ mạnh mẽ cung cấp quyền riêng tư và bạn không thể thực sự có quyền riêng tư mạnh trong khi vẫn kiểm tra mọi hình ảnh mà bất kỳ ai gửi.”

Phát hiện CSAM của Apple

Apple đã kiểm tra các tệp iCloud và hình ảnh được gửi qua email để chống lại hình ảnh lạm dụng trẻ em đã biết, cũng như những gã khổng lồ công nghệ như Google, Twitter, Microsoft, Facebook và Dropbox, những người tuyển dụng các phương pháp băm hình ảnh tương tự để tìm kiếm và gắn cờ tài liệu lạm dụng tiềm ẩn, nhưng nỗ lực của Apple trong việc thắt chặt quyền riêng tư có thể đổi mới các cuộc tranh luận về việc suy yếu mã hóa, leo thang cuộc chiến kéo dài về quyền riêng tư và chính sách trong thời đại kỹ thuật số.

The New York Times, trong một Điều tra năm 2019, tiết lộ rằng một kỷ lục 45 triệu hình ảnh và video trực tuyến về trẻ em bị lạm dụng tình dục đã được báo cáo trong năm 2018, trong đó Facebook Messenger chiếm gần 2/3, với 90% tổng số báo cáo là Facebook.

Quản lý mật khẩu doanh nghiệp

Apple, cùng với WhatsApp thuộc sở hữu của Facebook, có liên tục chống lại những nỗ lực để cố tình làm suy yếu mã hóa và mở cửa hậu hệ thống của họ. Điều đó nói rằng, Reuters báo cáo năm ngoái, công ty đã từ bỏ kế hoạch mã hóa bản sao lưu đầy đủ của người dùng lên iCloud vào năm 2018 sau khi Cục Điều tra Liên bang Mỹ (FBI) nêu quan ngại rằng làm như vậy sẽ cản trở các cuộc điều tra.

“Bóc lột trẻ em là một vấn đề nghiêm trọng và Apple không phải là công ty công nghệ đầu tiên uốn cong lập trường bảo vệ quyền riêng tư của mình trong nỗ lực chống lại nó. Nhưng lựa chọn đó sẽ phải trả giá đắt cho quyền riêng tư của người dùng nói chung”, Electronic Frontier Foundation (EFF) nói trong một tuyên bố, lưu ý rằng động thái của Apple có thể phá vỡ các biện pháp bảo vệ mã hóa và mở ra cánh cửa cho việc lạm dụng rộng rãi hơn.

“Tất cả những gì cần làm để mở rộng cửa hậu hẹp mà Apple đang xây dựng là mở rộng các thông số máy học để tìm kiếm các loại nội dung bổ sung hoặc chỉnh sửa các cờ cấu hình để quét, không chỉ trẻ em mà còn cho bất kỳ ai. Điều đó không một con dốc trơn trượt; đó là một hệ thống được xây dựng hoàn chỉnh chỉ chờ áp lực bên ngoài tạo ra thay đổi nhỏ nhất, “nó nói thêm.

Các nỗ lực của CSAM được thiết lập để triển khai tại Hoa Kỳ trong những tháng tới như một phần của iOS 15 và macOS Monterey, nhưng vẫn còn phải xem nếu hoặc khi nào, nó sẽ có sẵn trên toàn thế giới. Vào tháng 12 năm 2020, Facebook đã buộc phải tắt một số công cụ phát hiện lạm dụng trẻ em của họ ở Châu Âu để đáp ứng với những thay đổi gần đây đối với chỉ thị về quyền riêng tư điện tử của ủy ban Châu Âu cấm các hệ thống tự động quét một cách hiệu quả các hình ảnh lạm dụng tình dục trẻ em và nội dung bất hợp pháp khác mà không có sự đồng ý rõ ràng của người dùng.

.

Content Protection by DMCA.com
GenVerge | Trang thông tin dành cho tín đồ công nghệ Việt Nam
Logo
Đăng ký
Liên hệ Admin để kích hoạt tài khoản Cộng Tác Viên
Quên mật khẩu