苹果公司于去年停止了iCloud云服务的儿童性虐待材料(CSAM)检测计划,因为这项计划备受争议。该计划主要针对存储在iCloud中的CSAM图像资料进行检测,但是苹果公司最终决定放弃这项功能,以保护...
苹果公司于去年停止了iCloud云服务的儿童性虐待材料(CSAM)检测计划,因为这项计划备受争议。该计划主要针对存储在iCloud中的CSAM图像资料进行检测,但是苹果公司最终决定放弃这项功能,以保护用户隐私和数据安全。一家名为Heat Initiative的儿童安全组织要求苹果公司重新考虑这项计划,并提供更多工具来保护儿童安全。苹果公司回应称,尽管儿童性虐待材料令人憎恶,但检测每个用户存储的iCloud数据可能会导致数据泄露和其他风险。苹果公司表示,将加大投资力度,保护儿童安全,同时维护用户的隐私权。
最新评论