Apple công bố các biện pháp bảo vệ trẻ em, nhưng vấp phải nhiều tranh cãi

0
37

Một trong những nỗi ám ảnh của Apple là an ninh người dùng. Vào ngày 5/8 vừa qua, Apple công bố ba biện pháp mới mà họ đang thực hiện để mang lại sự bảo vệ mới cho người dùng trẻ em của iPhone, iPad và Mac. 

Nhưng những tính năng này cũng mở ra cánh cửa cho các hình thức giám sát rắc rối. Apple nên hạn chế sử dụng các công nghệ này cho đến khi chúng ta có thể nghiên cứu kỹ hơn và hiểu rõ hơn về rủi ro của chúng.



3 tính năng bảo vệ trẻ em, liệu có bảo vệ quyền riêng tư?

Ảnh đính kèm trong Tin nhắn không lành mạnh sẽ được báo cáo cho cha mẹ

Apple công bố các biện pháp mới bảo vệ trẻ em
Apple công bố các biện pháp mới bảo vệ cho trẻ em

Apple giải thích rằng khi một đứa trẻ trong Icloud Family nhận hoặc cố gắng gửi những bức ảnh khiêu dâm, đứa trẻ và cha mẹ sẽ thấy một thông báo cảnh báo.

Khi một đứa trẻ nhận được hình ảnh khiêu dâm, hình ảnh đó sẽ bị mờ và Messages sẽ hiển thị cảnh báo cho biết hình ảnh “có thể nhạy cảm”. Nếu trẻ nhấn vào “Xem ảnh”, chúng sẽ thấy một thông báo bật lên cho chúng biết lý do tại sao hình ảnh được coi là nhạy cảm.

Cha mẹ có thể chọn để tài khoản iMessage của con mình được quét các hình ảnh khỏa thân được gửi hoặc nhận và được thông báo nếu điều này xảy ra trong trường hợp trẻ em dưới 13 tuổi. Tất cả trẻ em sẽ nhận được cảnh báo nếu chúng tìm cách xem hoặc chia sẻ hình ảnh khiêu dâm. .

Apple giải thích thêm rằng Messages sử dụng công nghệ máy học để phân tích tệp đính kèm hình ảnh và đưa ra quyết định xem một bức ảnh có tính chất khiêu dâm hay không. iMessage vẫn được mã hóa đầu cuối và Apple không có quyền truy cập vào bất kỳ tin nhắn nào. Tính năng này sẽ là tính năng tùy chọn chứ không phải bắt buộc.

Apple nói rằng tính năng này sẽ ra mắt “vào cuối năm nay cho các tài khoản được thiết lập thành iCloud Family” trong các bản cập nhật lên iOS 15, iPadOS 15 và macOS Monterey. Tính năng này sẽ có sẵn ở Hoa Kỳ để bắt đầu.

Xem thêm: iOS 15 thông tin về các cập nhật cũng như tính năng đến anh em

Phát hiện hình ảnh CSAM: có thật sự bảo vệ quyền riêng tư?

Dữ liệu CSAM phát hiện hình ảnh nhạy cảm của trẻ em
Apple đang công bố các bước mới để chống lại sự lan truyền của Tài liệu lạm dụng tình dục trẻ em hay còn gọi là CSAM.

Apple sẽ quét ảnh bạn lưu trữ trên iPhone và so sánh chúng với Dữ liệu lạm dụng tình dục trẻ em (CSAM) do các tổ chức như Trung tâm quốc gia về trẻ em mất tích và bị bóc lột cung cấp. Nếu có kết quả trùng khớp, thiết bị sẽ tạo một “phiếu an toàn” và upload lên Icloud. Khi số lượng các phiếu an toàn này đạt đến ngưỡng (Apple không tiết lộ ngưỡng cụ thể), nhân viên sẽ xem xét báo cáo thủ công để xác nhận sự trùng khớp. Sau đó vô hiệu hóa tài khoản của người dùng và gửi báo cáo tới Trung tâm Quốc gia về Trẻ em mất tích và Bị bóc lột. Quá trình xem xét thủ công cũng bổ sung thêm một bước xác nhận khác để tránh nhầm lẫn và người dùng sẽ có thể gửi đơn khiếu nại để được khôi phục tài khoản của họ. Nhà Táo cho biết hệ thống có tỷ lệ lỗi thấp dưới 1/1 nghìn tỷ tài khoản mỗi năm.

Apple cho biết họ sẽ chỉ làm điều này nếu bạn cũng tải ảnh của mình lên iCloud Photos, nhưng đó là một quyết định tùy chọn, không phải là một yêu cầu bắt buộc.

Công nghệ liên quan đến kế hoạch này về cơ bản là không còn là mới. Mặc dù Facebook và Google từ lâu đã quét ảnh mà mọi người chia sẻ trên nền tảng của họ, nhưng hệ thống của họ không xử lý tệp trên máy tính hoặc điện thoại của chính bạn. Bởi vì các tính năng mới của Apple có khả năng xử lý các tệp được lưu trữ trên điện thoại của bạn, chúng gây ra một mối đe dọa mới đối với quyền riêng tư.

Trong trường hợp của việc bảo vệ trẻ em qua iMessage, sự xâm phạm quyền riêng tư không đặc biệt nghiêm trọng. Apple hoặc cơ quan thực thi pháp luật không được thông báo về hình ảnh khỏa thân do trẻ em gửi hoặc nhận tại bất kỳ thời điểm nào (một lần nữa, chỉ cha mẹ của trẻ em dưới 13 tuổi mới được thông báo) và trẻ em có khả năng thoát khỏi một sai lầm nghiêm trọng có thể xảy ra mà không cần thông báo cha mẹ.

Nhưng công nghệ mà Apple sử dụng để quét ảnh trên điện thoại của bạn đáng báo động hơn. Mặc dù Apple đã tuyên bố chỉ sử dụng công nghệ này để tìm kiếm tài liệu lạm dụng tình dục trẻ em và chỉ khi ảnh của bạn được tải lên Ảnh iCloud, nhưng về nguyên tắc, không có gì ngăn cản loại công nghệ này được sử dụng cho các mục đích khác mà không có sự đồng ý của bạn. Thật hợp lý khi tự hỏi liệu cơ quan thực thi pháp luật ở Hoa Kỳ có thể buộc Apple (hoặc bất kỳ công ty nào khác phát triển năng lực như vậy) sử dụng công nghệ này để phát hiện các loại hình ảnh hoặc tài liệu khác được lưu trữ trên máy tính hoặc điện thoại của mọi người hay không.

Siri và tính năng tìm kiếm giúp người dùng hiểu rõ về dữ liệu CSAM

Apple nâng cấp cho Siri và Tìm kiếm để tăng cường bảo vệ trẻ em
Apple đang thực hiện nâng cấp cho Siri và Tìm kiếm.

Apple cũng đang mở rộng hướng dẫn trong Siri và Tìm kiếm bằng cách cung cấp các tài nguyên bổ sung để giúp trẻ em và cha mẹ luôn an toàn khi trực tuyến và nhận trợ giúp trong các tình huống không an toàn. 

Ví dụ: những người dùng hỏi Siri về cách họ có thể báo cáo CSAM hoặc khai thác trẻ em sẽ được chỉ đến các tài nguyên để gửi báo cáo ở đâu và như thế nào. Siri và Search cũng đang được cập nhật để can thiệp khi người dùng thực hiện tìm kiếm các truy vấn liên quan đến CSAM. Những biện pháp can thiệp này sẽ giải thích cho người dùng rằng sự quan tâm đến chủ đề này là có hại và có vấn đề, đồng thời cung cấp tài nguyên từ các đối tác để nhận trợ giúp về vấn đề này.

Động thái trên của nhà Táo nhận được khá nhiều sự ủng hộ và đồng thuận từ phía các chuyên gia trong ngành và nhiều quan chức chính phủ.

Các bản cập nhật cho Siri và Search sẽ ra mắt vào cuối năm nay trong bản cập nhật cho iOS 15, iPadOS 15, watchOS 8 và macOS Monterey.

Apple đã phản ứng như thế nào khi đối mặt với những phản đối?

Khi gặp áp lực từ chính phủ hoặc các cơ quan thực thi pháp luật, công ty đã nói rằng họ sẽ từ chối hợp tác với những yêu cầu như vậy. Apple viết: “Chúng tôi đã phải đối mặt với các yêu cầu xây dựng và triển khai các thay đổi do chính phủ ủy quyền làm suy giảm quyền riêng tư của người dùng trước đây và đã kiên quyết từ chối những yêu cầu đó. Chúng tôi sẽ tiếp tục từ chối họ trong thời gian tới. Hãy để chúng tôi nói rõ, công nghệ này chỉ giới hạn trong việc phát hiện CSAM được lưu trữ trong iCloud và chúng tôi sẽ không tuân theo bất kỳ yêu cầu nào của chính phủ để mở rộng nó ”. 

Apple công bố 3 tính năng bảo vệ an toàn trẻ em, nhưng vấp phải tranh cãi
Tính năng bảo vệ an toàn trẻ em của Apple vấp phải nhiều tranh cãi

Apple có lý do chính đáng để tăng cường các nỗ lực bảo vệ trẻ em của mình. Vào cuối năm 2019, The New York Times đã công bố các báo cáo về một “đại dịch” lạm dụng tình dục trẻ em trực tuyến. Trong một bài báo sau đó, NCMEC đã chỉ ra Apple có tỷ lệ báo cáo thấp so với các công ty cùng ngành như Facebook, một phần là do công ty không quét các tệp iCloud.

Đồng thời, chính Apple đã gọi quyền riêng tư là “quyền con người”. Điện thoại là thiết bị thân thiết chứa đầy thông tin nhạy cảm. Với những thay đổi về Tin nhắn và iCloud, Apple đã chứng minh hai cách để tìm kiếm hoặc phân tích nội dung trực tiếp trên phần cứng thay vì phân tích sau khi bạn đã gửi dữ liệu cho bên thứ ba, ngay cả khi đó là dữ liệu mà bạn đã đồng ý gửi, chẳng hạn như ảnh iCloud.

Apple đã thừa nhận những phản đối đối với các bản cập nhật của mình. Nhưng cho đến nay, công ty vẫn chưa chỉ ra kế hoạch sửa đổi hoặc từ bỏ chúng. 

Sự kiện Apple công bố ba biện pháp mới mà họ đang thực hiện để mang lại sự bảo vệ trẻ em cho iPhone, iPad và Mac đang nhận rất nhiều ý kiến tích cực cũng như trái chiều từ người dùng Apple. Hi vọng trong tương lai, Nhà Táo sẽ trình làng nhiều tính năng bảo vệ người dùng như đã làm.

Hãy cho chúng tôi biết cảm nhận của bạn