文章揭示了Instagram在2018年就注意到私信渠道中存在对未成年人有害的内容,但直到2024年才上线保护性内容模糊机制,间隔长达6年。Instagram主管Adam Mosser辩解称公司一直在平衡用户隐私与安全,而Meta发言人则表示公司长期与专家合作改进服务。
2 月 28 日消息,近日解禁的 Instagram 主管 Adam Mosser 法庭质询记录显示,这一社交媒体平台早在 2018 年就注意到私信渠道中存在暴露色情在内的对未成年人有害内容,然而保护性的内容模糊机制直到 2024 年才正式上线,两者间隔长达 6 年。
Adam Mosser 辩解称,公司始终寻求在用户隐私权益与对安全的关注之间实现平衡,用户在 Instagram 和其它即时聊天应用里一直可选择举报不友好的内容。
Meta 发言人就相关事宜向外媒 TechCrunch 表示:
十多年来,我们始终倾听家长心声,与专家及执法部门协作,并开展深入研究以把握核心问题。我们运用这些洞察实施实质性改进 —— 例如推出内置防护功能的青少年账户,并为家长提供管理子女使用体验的工具。我们为取得的进展感到自豪,并将持续追求更完善的服务。
相关阅读:
- 《Instagram CEO:日刷 16 小时社交媒体不算“临床成瘾”》