Theo tiết lộ của hãng công nghệ Apple ngày 5/8, hãng công nghệ này sẽ triển khai công nghệ mới nhằm bảo vệ trẻ em trên môi trường không gian mạng trong tương lai gần. Công nghệ này sẽ được cập nhật trên các thiết bị iPhone và iPad, tập trung vào việc ngăn chặn và tố giác các hành vi lạm dụng tình dục trẻ em.
Công nghệ mới của Apple
Theo đó, các thiết bị của Apple sẽ được cập nhật nội dung mới. Nội dung này sẽ giúp iCloud tự giác phát hiện được các hành vi lạm dụng tình dục trẻ em qua các hình ảnh có nội dung liên quan. Hầu hết các hình ảnh đều được lưu trữ trên iCloud, vì thế đây là một bước đi khá khôn ngoan để kiểm soát dữ liệu từ nguồn ảnh. Một khi iCloud đã phát hiện được các hình ảnh tiêu cực trên điện thoại, nó sẽ gắn báo động lên đó và báo cáo với cơ quan pháp luật.
Apple chia sẻ: “Chúng tôi muốn giúp bảo vệ trẻ em thoát khỏi những kẻ săn mồi thông qua các công cụ giao tiếp xã hội để dụ dỗ và lợi dụng trẻ em, đồng thời hạn chế việc phát tán những hình ảnh có nội dung CSAM.”
Bên cạnh đó, công nghệ này cũng sẽ báo động cha mẹ khi con của họ nhận hoặc gửi những hình ảnh mang tính kích động tình dục.
Với việc hiện nay giới trẻ được tiếp xúc sớm với công nghệ, đây là một biện pháp tốt để bảo vệ trẻ em trên môi trường không gian mạng. Bước đi này chắc chắn sẽ hỗ trợ được một phần lớn việc kiểm soát dữ liệu tiếp thu của con trẻ, tránh chúng dây vào các văn hóa đồi trụy, tục tĩu.
Tuy nhiên, Apple cũng không dính khỏi chút “nghi hoặc”
Can thiệp quá nhiều vào quyền riêng tư?
Một số ý kiến cho rằng tính năng mới này vô tình cũng là một cách để Apple “lách” quyền riêng tư của người dùng.
Bản thân khi cập nhật hệ điều hành, thiết bị sẽ tự động rà soát hình ảnh và đánh mác chúng trước khi tải lên iCloud. Vì thế, tính năng này hoàn toàn có thể là “cửa ngách” giúp cho Apple khai thác được thông tin người dùng làm cơ sở dữ liệu. Điều này rấy nên nghi ngại về tính “riêng tư” của nhà táo khuyết.
Tuy nhiên, Giám đốc điều hành của Trung tâm Quốc gia tìm kiếm trẻ em mất tích và bị lợi dụng, ông John Clark cho biết: “Thực tế là quyền riêng tư và bảo vệ trẻ em có thể cùng tồn tại”. Đây chính là cách hệ thống của Apple đang triển khai. Các quan chức thực thi pháp luật duy trì cơ sở dữ liệu về các hình ảnh CSAM và chuyển đổi những hình ảnh đó thành “mã băm” – mật mã dùng số, qua đó xác định hình ảnh một cách chính xác nhưng không khôi phục được.
Cho đến nay, hầu hết các tập đoàn công nghệ lớn khác như Alphabet của Google, Facebook và Microsoft Corp đều đã kiểm tra hình ảnh dựa trên cơ sở dữ liệu đã có về những hình ảnh khiêu dâm. Việc này cũng giúp các ông lớn công nghệ phần nào kiểm soát được các nội dung không phù hợp với chuẩn mực cộng đồng do người dùng đăng tải trên các nền tảng mạng xã hội và ngăn chặn chúng tiếp cận với người dùng khác.