随着周三测试版的发布,苹果也在 iOS 15.2 中提到了即将于未来推出的“儿童安全”功能。 在今年 6 月的全球开发者大会(WWDC 2021)期间,苹果“应用隐私报告”就详细概述了各类 App 对用户数据和设备传感器信息的访问。在此基础上,苹果还不断引入新的工具套件,以引入新的软硬件透明度级别。
(图 via Apple Insider )
据悉,应用隐私报告(App Privacy Report)位于“设置 -> 隐私”板块,允许用户深入了解相关 App 在 7 日内访问的用户位置、图片、相机、麦克风、以及联系人等信息的频率。
报告中的 App 会按时间降序排列,且新功能可追踪最近的网络互动,揭示 App 直接访问、或通过 Web 视图中加载的内容而访问的域,以便用户深入追查过去一周发生的事件。
除了应用隐私报告的用户界面,iOS 15.2 测试版还包含了“通讯安全”(Communication Safety)功能的详细代码描述。
MacRumors 指出,该功能内置于 Messages 消息应用中,可借助机器学习算法来自动隐藏设备上被认为不适宜的图像内容,以保护儿童免受色情图片的侵害。
当检测到有此类内容被查看时,系统会向 13 岁以下儿童的监护人发出消息提醒,但对于 13-17 岁之间的用户群体又是另一套措辞。
报告中分享的警示消息有如下几类:
● 裸体照片和视频或被用于对他人权益的侵害,且内容一经分享就无法撤回。
● 虽然错不在你,但敏感照片和视频可被用于侵害你的权益。
● 即使当下得到了你的信任,但接受者仍可在未经许可的情况下向他人永久分享。
● 接收该消息的人可以与任何人分享它,相关内容可能长存于世,且分享本身也可能是违法的。
【背景资料】
通信安全是一项旨在限制儿童虐待材料(CSAM)在 苹果 主要平台上传播的一项重要举措。
在 8 月公布之后,苹果将通过三管齐下的方式来监管消息传递、Siri 搜索、以及存储在 iCloud 中的照片内容。
其原理是给上传到 iCloud 的用户照片添加标记,并与已知的 CSAM 哈希数据库进行匹配。
但在遭到行业专家与隐私倡导者的强烈反对之后,苹果最终推迟了 9 月的发布计划。
【来源:cnBeta.COM】
网友评论