Apple giết chết kế hoạch quét của bạn

[ad_1]

Cài Win online

Vào tháng 8 năm 2021, Apple đã công bố kế hoạch quét ảnh mà người dùng lưu trữ trong iCloud để tìm tài liệu lạm dụng tình dục trẻ em (CSAM). Công cụ này nhằm mục đích bảo vệ quyền riêng tư và cho phép công ty gắn cờ nội dung có khả năng gây vấn đề và lạm dụng mà không tiết lộ bất kỳ điều gì khác. Nhưng sáng kiến ​​này đã gây tranh cãi và nó nhanh chóng vấp phải sự chỉ trích rộng rãi từ các nhà nghiên cứu về quyền riêng tư và bảo mật cũng như các nhóm quyền kỹ thuật số, những người lo ngại rằng bản thân khả năng giám sát có thể bị lạm dụng để phá hoại quyền riêng tư và bảo mật của người dùng iCloud trên toàn thế giới. Vào đầu tháng 9 năm 2021, Apple cho biết họ sẽ tạm dừng triển khai tính năng này để “thu thập ý kiến ​​​​đóng góp và cải thiện trước khi phát hành các tính năng cực kỳ quan trọng để đảm bảo an toàn cho trẻ em này”. Nói cách khác, một vụ phóng vẫn đang đến. Giờ đây, công ty cho biết rằng để đáp lại phản hồi và hướng dẫn mà họ nhận được, công cụ phát hiện CSAM cho ảnh iCloud đã ngừng hoạt động.

Thay vào đó, Apple nói với WIRED trong tuần này rằng họ đang tập trung nỗ lực chống CSAM và đầu tư vào các tính năng “An toàn giao tiếp”, mà công ty đã công bố lần đầu vào tháng 8 năm 2021 và ra mắt vào tháng 12 năm ngoái. Cha mẹ và người chăm sóc có thể chọn tham gia các biện pháp bảo vệ thông qua tài khoản iCloud gia đình. Các tính năng này hoạt động trong Siri, tìm kiếm Spotlight của Apple và Tìm kiếm Safari để cảnh báo nếu ai đó đang xem hoặc tìm kiếm tài liệu lạm dụng tình dục trẻ em và cung cấp tài nguyên tại chỗ để báo cáo nội dung và tìm kiếm trợ giúp. Ngoài ra, cốt lõi của biện pháp bảo vệ là An toàn giao tiếp cho tin nhắn mà người chăm sóc có thể thiết lập để đưa ra cảnh báo và tài nguyên cho trẻ em nếu chúng nhận được hoặc cố gắng gửi ảnh có ảnh khỏa thân. Mục tiêu là ngăn chặn tình trạng bóc lột trẻ em trước khi nó xảy ra hoặc trở nên nghiêm trọng và giảm thiểu việc tạo ra CSAM mới.

“Sau khi tham khảo ý kiến ​​rộng rãi với các chuyên gia để thu thập phản hồi về các sáng kiến ​​bảo vệ trẻ em mà chúng tôi đã đề xuất vào năm ngoái, chúng tôi đang tăng cường đầu tư vào tính năng An toàn liên lạc mà lần đầu tiên chúng tôi cung cấp vào tháng 12 năm 2021,” công ty nói với WIRED trong một tuyên bố. “Chúng tôi đã quyết định tiếp tục không tiếp tục với công cụ phát hiện CSAM được đề xuất trước đây cho Ảnh iCloud. Trẻ em có thể được bảo vệ mà không cần các công ty kiểm tra dữ liệu cá nhân và chúng tôi sẽ tiếp tục hợp tác với chính phủ, những người ủng hộ trẻ em và các công ty khác để giúp bảo vệ những người trẻ tuổi, bảo vệ quyền riêng tư của họ và làm cho internet trở thành một nơi an toàn hơn cho trẻ em và cho tất cả chúng ta .”

Bản cập nhật CSAM của Apple đi kèm với thông báo hôm nay rằng công ty đang mở rộng đáng kể các dịch vụ mã hóa đầu cuối cho iCloud, bao gồm thêm bảo vệ cho các bản sao lưu và ảnh được lưu trữ trên dịch vụ đám mây. Các chuyên gia về an toàn trẻ em và các nhà công nghệ làm việc để chống lại CSAM thường phản đối việc triển khai mã hóa đầu cuối rộng rãi hơn vì nó khiến các công ty công nghệ không thể truy cập dữ liệu người dùng, khiến họ khó quét và gắn cờ CSAM hơn. Các cơ quan thực thi pháp luật trên khắp thế giới đã viện dẫn tương tự vấn đề nghiêm trọng về lạm dụng tình dục trẻ em để phản đối việc sử dụng và mở rộng mã hóa đầu cuối, mặc dù nhiều cơ quan trong số này có lịch sử thù địch với mã hóa đầu cuối nói chung vì nó có thể làm cho một số cuộc điều tra trở nên khó khăn hơn. Tuy nhiên, nghiên cứu đã liên tục chỉ ra rằng mã hóa đầu cuối là một công cụ an toàn quan trọng để bảo vệ nhân quyền và những nhược điểm của việc triển khai nó không lớn hơn lợi ích.

An toàn giao tiếp cho tin nhắn là tùy chọn tham gia và phân tích tệp đính kèm hình ảnh mà người dùng gửi và nhận trên thiết bị của họ để xác định xem ảnh có chứa ảnh khỏa thân hay không. Tính năng này được thiết kế để Apple không bao giờ có quyền truy cập vào tin nhắn, mã hóa đầu cuối mà Tin nhắn cung cấp không bao giờ bị phá vỡ và Apple thậm chí không biết rằng một thiết bị đã phát hiện thấy ảnh khỏa thân.

Công ty nói với WIRED rằng mặc dù chưa sẵn sàng công bố mốc thời gian cụ thể để mở rộng các tính năng An toàn giao tiếp, nhưng công ty đang nỗ lực bổ sung khả năng phát hiện ảnh khỏa thân trong video được gửi qua Tin nhắn khi bật tính năng bảo vệ. Công ty cũng có kế hoạch mở rộng việc cung cấp ngoài Tin nhắn sang các ứng dụng liên lạc khác của mình. Cuối cùng, mục tiêu là giúp các nhà phát triển bên thứ ba có thể kết hợp các công cụ An toàn Giao tiếp vào các ứng dụng của riêng họ. Apple cho biết càng nhiều tính năng có thể sinh sôi nảy nở, thì càng có nhiều khả năng trẻ em sẽ nhận được thông tin và sự hỗ trợ mà chúng cần trước khi chúng bị lợi dụng.

Công ty cho biết trong tuyên bố của mình: “Việc bóc lột trẻ em tiềm năng có thể bị gián đoạn trước khi nó xảy ra bằng cách cung cấp các công cụ chọn tham gia cho phụ huynh để giúp bảo vệ con cái họ khỏi những liên lạc không an toàn”. “Apple tận tâm phát triển các giải pháp bảo vệ quyền riêng tư sáng tạo để chống lại Tài liệu lạm dụng tình dục trẻ em và bảo vệ trẻ em, đồng thời giải quyết các nhu cầu riêng tư đặc biệt về liên lạc cá nhân và lưu trữ dữ liệu.”

Tương tự như các công ty khác đã đấu tranh công khai để giải quyết CSAM—bao gồm cả Meta—Apple nói với WIRED rằng họ cũng có kế hoạch tiếp tục làm việc với các chuyên gia về an toàn trẻ em để giúp người dùng báo cáo nội dung và tình huống lợi dụng cho các tổ chức vận động và luật pháp dễ dàng nhất có thể thực thi.

Chống lại CSAM là một nỗ lực phức tạp và nhiều sắc thái với rủi ro rất cao đối với trẻ em trên khắp thế giới và vẫn chưa biết mức độ thu hút mà Apple đặt cược vào sự can thiệp chủ động sẽ nhận được. Tuy nhiên, những gã khổng lồ công nghệ đang đi đúng hướng khi họ làm việc để cân bằng khả năng phát hiện CSAM và quyền riêng tư của người dùng.

cài đặt phần mềm online
[ad_2]

Chat Zalo
0903064855