Tin tức và phân tích của tất cả các thiết bị di động

Apple anh ấy có nên phân tích ảnh của bạn để chống lại nạn ấu dâm không?

Tại CES 2019 ở Las Vegas, Apple phát một quảng cáo khổng lồ trên một tòa nhà. “Điều gì xảy ra trên iPhone của bạn, vẫn ở trên iPhone của bạn”, một ám chỉ thành ngữ “điều gì xảy ra ở Vegas sẽ ở lại Vegas” để troll các đối thủ cạnh tranh. Hai năm sau, Apple mở ra những vi phạm khiến các nhà quan sát lo lắng.

Sự thật

Apple công bố vào thứ Năm việc thực hiện các hành động để bảo vệ trẻ em. “Chúng tôi muốn giúp bảo vệ trẻ em khỏi những kẻ săn mồi sử dụng các công cụ truyền thông để tuyển mộ và khai thác chúng, đồng thời hạn chế việc phổ biến nội dung khiêu dâm trẻ em.” Cụ thể:

Ứng dụng Tin nhắn sẽ sử dụng công nghệ máy học cục bộ trên iPhone để xác định “nội dung nhạy cảm” và cảnh báo người dùng. iOS và iPadOS sẽ sử dụng “ứng dụng tiền điện tử mới” để hạn chế việc phát tán nội dung khiêu dâm trẻ em. Apple chỉ rõ rằng công nghệ này sẽ “cung cấp thông tin có giá trị cho cơ quan thực thi pháp luật liên quan đến việc lưu trữ ảnh khiêu dâm trẻ em trên iCloud”.

Apple cũng sẽ can thiệp khi Siri và người dùng Tìm kiếm cố gắng thực hiện các tìm kiếm tương ứng với nội dung khiêu dâm trẻ em.

Apple sẽ thông báo cho người dùng về ứng dụng Messages © Apple

Vấn đề

Nếu mục tiêu được theo đuổi bởi Apple rõ ràng là hợp pháp, nó đặt ra nhiều câu hỏi về tính bảo mật của thư tín riêng tư.

Nhiều diễn viên tố cáo Apple để tạo một cửa sau có thể được sử dụng cho mục đích giám sát, đặc biệt. Một bức thư ngỏ hỏi Apple để xem xét lại quyết định của mình: Một bức thư ngỏ chống lại AppleCông nghệ quét nội dung xâm phạm quyền riêng tư của. Trong số những người ký kết, có các tổ chức như EFF (Electronic Frontier Foundation) và những cá nhân như Edward Snowden.

Tuần trước, một bài báo từ The Information đã là nguồn gốc của một cuộc tranh cãi khác: các phương tiện truyền thông giải thích rằng Facebook thành lập một nhóm các nhà nghiên cứu để phát triển các ứng dụng liên quan đến mã hóa đồng hình. Nguồn chỉ ra rằng công nghệ này có thể cho phép Facebook để phân tích các tin nhắn WhatsApp trong khi đảm bảo tính bảo mật của các trao đổi. Người đứng đầu WhatsApp nhanh chóng phủ nhận thông tin, tuyên bố rất đúng: “Chúng tôi nên nghi ngờ những tuyên bố kỹ thuật rằng các ứng dụng như của chúng tôi chỉ có thể xem tin nhắn trong những trường hợp“ đúng ”. Đó không chỉ là cách công nghệ hoạt động. “

Vâng, đó không phải là cách hoạt động của công nghệ. Và hiếm khi được gạch chân, WhatsApp ngày nay dường như thận trọng hơnApplehiện bị cáo buộc vi phạm quyền riêng tư của người dùng.

Câu trả lời củaApple

Apple cố gắng dập lửa do quyết định của mình. Công ty xuất bản Câu hỏi thường gặp gồm 13 câu hỏi / câu trả lời. Apple đặc biệt chỉ ra rằng họ sẽ từ chối bất kỳ yêu cầu nào của chính phủ để đưa vào phân tích ảnh iCloud nội dung khác với nội dung tương ứng với nội dung khiêu dâm trẻ em (CSAM, Tài liệu Lạm dụng Tình dục Trẻ em). Apple cũng chỉ rõ rằng các hệ thống của họ được thiết kế để ngăn công nghệ này được sử dụng để xác định nội dung khác và nó nhất thiết phải dựa trên một mẫu ảnh được cung cấp và xác thực bởi NCMEC, một tổ chức phi chính phủ đấu tranh chống lại việc bóc lột trẻ em. Không có đường truyền tự động nào về các chi tiết liên lạc của nghi phạm cho các cơ quan chức năng, một phân tích về con người được thực hiện một cách có hệ thống ở thượng nguồn. Điều này khiến bạn yên tâm, vì các công cụ tự động này có thể xảy ra lỗi, ngay cả khi Apple chỉ ra rằng cơ chế của nó là “đặc biệt chính xác”; dấu hiệu của nhu cầu khớp 100% để khởi chạy cảnh báo? Apple cũng nói rằng việc quét này sẽ giới hạn ở ảnh được lưu trữ trên iCloud, ảnh chỉ được lưu trữ trên iPhone sẽ không được quét.

EFF vẫn tin rằng “ngay cả một cửa hậu được nghiên cứu cẩn thận, suy nghĩ cẩn thận, có phạm vi hẹp vẫn là một cửa hậu.” Về chủ đề này, mọi người sẽ có ý kiến ​​riêng của họ: một số sẽ cho rằng “họ không có gì phải che giấu” và mục tiêu được tìm kiếm là hoàn toàn chính đáng. Rõ ràng là họ sẽ đúng về tính hợp pháp của mục tiêu, nhưng như EFF đã nói rất đúng, một cửa sau vẫn là một cửa sau. Những quyết định này củaApple trên thực tế, làm giảm mức độ bảo mật được đảm bảo cho người dùng, vì tất cả ảnh của họ được lưu trữ trên iCloud đều có thể được quét.

Một xã hội mà mọi thứ đều được kiểm soát bởi chính quyền, hoặc trong trường hợp cụ thể này, bởi các công ty tư nhân, nơi camera và cảm biến dọc đường phố và nơi mọi trao đổi dưới dạng văn bản, ảnh hoặc video được phân tích, chắc chắn sẽ là một xã hội an toàn hơn; nhưng đây có phải là xã hội mà chúng ta mong muốn được sống không? Rõ ràng là chúng tôi không có ở đó với “phân tích đơn giản” về các bức ảnh của Applevà một lần nữa: mục tiêu mong muốn không thể chính đáng hơn. Nhưng loại quyết định này nhất thiết phải dẫn đến việc kiểm soát thư tín và lưu trữ cá nhân, đồng thời đặt ra những câu hỏi thực sự về việc đặt câu hỏi về tính bảo mật của dữ liệu.