图片来源,盖蒂图片由克里斯·瓦利斯科技记者
meta表示,将在今年晚些时候推出一款新的安全工具,阻止儿童接收并阻止他们发送裸照,包括在加密聊天中。
该工具可能是可选的,成年人也可以在Instagram和Facebook上使用。
此前,meta开始默认加密Messenger聊天记录,遭到政府和警方的批评。
他们表示,加密将使该公司更难发现虐待儿童的行为。
根据meta的说法,这个新功能完全是为了保护用户,尤其是女性和青少年——13岁以下的人是不允许使用其平台的——不被发送裸照或被迫发送裸照。
它还宣布,默认情况下,未成年人将无法在Instagram和Messenger上接收陌生人的消息。
本月早些时候,警察局长表示,青少年发送裸照导致英格兰和威尔士儿童性犯罪案件增加。
最近公开的法律文件是针对meta的美国诉讼的一部分,据称该公司的文件显示,每天约有10万名Facebook和Instagram的青少年用户在网上受到性骚扰。meta指责该诉讼错误地描述了其工作。
但在周四,这家科技巨头透露了一项计划中的新功能,以帮助保护青少年免受信息中不恰当图片的侵害。
该系统还将用于加密聊天,更多细节将于今年晚些时候公布。
meta最近决定用端到端加密(e2ee)默认保护Facebook Messenger聊天记录,这一决定受到了政府、警方和主要儿童慈善机构的强烈批评。
E2ee意味着只有发送者和接收者可以阅读信息,这意味着,批评人士说,meta不能发现和报告信息中的虐待儿童内容。
苹果(Apple)的iMessage、Signal和meta-owned旗下的WhatsApp等其他即时通讯应用也在使用这项技术,并对这项技术进行了强烈辩护。
然而,一些批评人士表示,平台应该部署一种名为客户端扫描的技术,以检测通过加密应用程序发送的虐待儿童信息。
客户端扫描指的是用户设备上的系统,在加密和发送消息之前,扫描消息是否与已知的虐待儿童图像相匹配,并向公司报告任何包含可疑非法内容的消息。
儿童慈善机构NSPCC表示,meta的新系统“表明,在端到端加密环境中,平衡用户安全和隐私权的妥协是可能的”。
根据meta的说法,它的新功能不是客户端扫描,它认为这破坏了加密的主要隐私保护功能,即只有发送者和接收者知道消息的内容。
据BBC了解,它将只使用机器学习来识别裸体,并将完全在设备上工作。根据meta的说法,使用机器学习来识别虐待儿童要困难得多,如果在其数十亿用户中尝试这样做,将会有严重的错误风险,可能会报告无辜的人带来严重后果。