苹果砍掉的防色情功能,居然真翻车了?
前阵子,因为百度网盘“被曝人工审核用户照片”的事儿,又引起了网友对个人隐私问题的关注。
毕竟很多人的“学习资料”都放在这里,被别人“学习”可是不太行。
最终,百度网盘对此事件发布严正声明称“不存在所谓的照片人工审核,关于百度网盘照片真人审核的内容是谣言”。
这个事儿到这虽然算告一段落了,但关于个人隐私的担忧却并没有减少。
其实,以个人隐私安全为重的苹果也在这方面翻过车。
2021 年 8 月,苹果宣布在 2021 年晚些时间开始在 iCloud Photos 中扫描CSAM(儿童性虐待照片)内容。
理由是扩大对儿童的保护。
这消息一出,可谓是一石激起千层浪,立即引起了许多果粉的反对。
大家认为这是变相获取用户隐私,如果同意这项举措,就意味着苹果公司可以直接扫描用户的所有照片内容。
简直是打着保护儿童的旗号,对用户实施监控。
一开始头铁的苹果表示,自己使用的是本地哈希算法,不会直接查看用户相册,不存在泄露隐私的情况。
但网友对此说法仍然不买账,这个头一开,以后万一以其他名头要其他权限怎么办?
最终,苹果头不再铁,只能无限期推迟这个计划。已经过去一年了,苹果仍然没有重新提起这个计划的打算。
妹想到啊,头这么铁的苹果都放弃的计划,居然有别的公司扛起了大旗。
没错,它就是谷歌,而且这个计划已经开始很久了。
早在 2018 年,谷歌官方就发布了一款免费 AI 工具,主要就是用于识别儿童性虐待内容。
这个工具一经推出,审核人员效率可是提高不老少。
有数据显示,截至去年,谷歌提交了超过 62 万份涉嫌虐待儿童的报告,禁用了超过 27 万名用户的账户。
它确实为控制儿童犯罪,提供了不少帮助。
但也确实造成了一些比较乌龙的麻烦。
前段时间,据《纽约时报》报道,一位旧金山的父亲,用手机拍摄自己孩子腹股沟感染的照片,发给医生进行线上问诊。
毕竟现在国外疫情也挺严重的,线上问诊更安全些。
离谱的事发生了,谷歌把这些照片标记为儿童性虐待内容,并把他的谷歌账号封禁了
不仅如此,谷歌还生成一份报告,将其提供给警方。
真是人在家中坐,锅从天上来,就给孩子看个病,给自己看成犯罪嫌疑人了,求这个爸爸的心理阴影面积。
还有更离谱的,他被谷歌全网封杀,失去了对自己电子邮箱、联系人、照片的所有访问权限。
个人生活可以说受到了很大的影响。
虽然最后被警方认定无罪,但他的谷歌账号仍然找不回来。
一方面,自动备份可以防止重要数据丢失。但最近发生的种种事件,又不禁让我们担心隐私信息泄露的问题。
嗐,喵喵还是整个硬盘吧,自动备份还是有风险
初代 iPhone 价值 24 万?早知道不换盆了… 格局打开了… |
全面屏、指纹解锁,这 iPhone 15 也太秀了吧! 这才是梦中情机啊… |
iPhone 14 Pro 机模曝光,这配色着实辣眼睛… 这配色认真的? |
看来 AI 算法
吹嘘的万无一失
失一次就够普通人崩溃的
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
随时掌握互联网精彩
- 1 落子西部 4915152
- 2 网友拍到青岛海市蜃楼 4916167
- 3 张颂文回应砍价被吐槽穷酸 4898328
- 4 各地经济发展方案“定制化” 4766210
- 5 博世:问界M7事故车未搭载博世智驾 4609270
- 6 宋雨琦 反正他们听不懂 4534950
- 7 汽车隐藏式门把手成救援拦路虎? 4494671
- 8 古天乐坚持十年每天只吃一顿饭 4392107
- 9 黑色餐具不能用?上海官方辟谣 4226834
- 10 9.9的风终于还是卷到了星巴克 4196154