新足迹

 找回密码
 注册

精华好帖回顾

· 自己做腐乳肉 (2005-7-31) moth · 自排档使用注意事项 (2008-7-25) 车友
· 制作工作间的工具架 (2009-8-5) ranger · 从会计和税务的角度谈生意的种类 (2004-12-10) astina
Advertisement
Advertisement
查看: 8941|回复: 73

反对 Apple 扫描手机内容行为的公开签名 [复制链接]

发表于 2021-8-8 13:41 |显示全部楼层
此文章由 Delawarean 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 Delawarean 所有!转贴必须注明作者、出处和本声明,并保持内容完整
本帖最后由 Delawarean 于 2021-8-8 13:50 编辑

On August 5th, 2021, Apple Inc. announced new technological measures meant to apply across virtually all of its devices under the umbrella of “Expanded Protections for Children”. While child exploitation is a serious problem, and while efforts to combat it are almost unquestionably well-intentioned, Apple's proposal introduces a backdoor that threatens to undermine fundamental privacy protections for all users of Apple products.

Apple's proposed technology works by continuously monitoring photos saved or shared on the user's iPhone, iPad, or Mac. One system detects if a certain number of objectionable photos is detected in iCloud storage and alerts the authorities. Another notifies a child's parents if iMessage is used to send or receive photos that a machine learning algorithm considers to contain nudity.

Because both checks are performed on the user's device, they have the potential to bypass any end-to-end encryption that would otherwise safeguard the user's privacy.


公开信地址:https://appleprivacyletter.com/
签名地址:https://github.com/nadimkobeissi ... N%5D+Your+Name+Here
Advertisement
Advertisement

发表于 2021-8-8 16:25 |显示全部楼层
此文章由 Zia 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 Zia 所有!转贴必须注明作者、出处和本声明,并保持内容完整
保護兒童是每位兒童的父母應該做的事情,而不是apple, google這些公司應該做的事情,這違背了Privacy Policy 和基本人權。 況且objectionable photos的決定權不在每位父母手中。 相比審查data,我認為儘快教導孩子學會如何辯證思考、換位思考才是更重要的事情。

发表于 2021-8-8 18:09 |显示全部楼层
此文章由 coffee_bean 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 coffee_bean 所有!转贴必须注明作者、出处和本声明,并保持内容完整
看Apple的这个机制,并不是打开用户的个人照片找有没有裸露的照片,而是比对客户存储的照片文件是否包含已经被公开标记过的儿童色情照片,普通用户自己的照片是不会被辨识的,只有下载这些标记过的儿童色情照片才会被监测到。如果Apple的机制违背Privacy Policy的话,会被罚到妈都不认识的。经过欧盟GDPR法规洗礼的这种大企业不可能出现这么低级的问题的。

评分

参与人数 2积分 +4 收起 理由
tenglongroy + 2 我很赞同
joseph2019 + 2 我很赞同

查看全部评分

发表于 2021-8-8 18:35 来自手机 |显示全部楼层
此文章由 hgaox 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 hgaox 所有!转贴必须注明作者、出处和本声明,并保持内容完整
Zia 发表于 2021-8-8 16:25
保護兒童是每位兒童的父母應該做的事情,而不是apple, google這些公司應該做的事情,這違背了Privacy Polic ...

维护基本人权是这些公司应该做的事情吗?

发表于 2021-8-8 19:20 |显示全部楼层
此文章由 Zia 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 Zia 所有!转贴必须注明作者、出处和本声明,并保持内容完整
hgaox 发表于 2021-8-8 18:05
维护基本人权是这些公司应该做的事情吗?

遵守法律是這些公司應該做到的事情嗎?
維護人權是遵守法律應該做到的事情嗎?
公平正義是維護人權應該做到的事情嗎?

发表于 2021-8-8 19:26 |显示全部楼层
此文章由 hgaox 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 hgaox 所有!转贴必须注明作者、出处和本声明,并保持内容完整
Zia 发表于 2021-8-8 19:20
遵守法律是這些公司應該做到的事情嗎?
維護人權是遵守法律應該做到的事情嗎?
公平正義是維護人權應該做 ...

所以机扫上传到云端的内容(照片视频) 有什么错误?

注意不是机扫手机本地的内容 是扫描上传到云端的

icloud可选择关闭

基本事实要搞清楚吧?
Advertisement
Advertisement

发表于 2021-8-8 19:28 |显示全部楼层
此文章由 hgaox 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 hgaox 所有!转贴必须注明作者、出处和本声明,并保持内容完整
Zia 发表于 2021-8-8 16:25
保護兒童是每位兒童的父母應該做的事情,而不是apple, google這些公司應該做的事情,這違背了Privacy Polic ...

【而不是apple, google這些公司應該做的事情】

不对

是这些公司应该做的事情 搜索引擎就有针对此类搜索的alert机制

你应该知道吧?

发表于 2021-8-8 20:04 来自手机 |显示全部楼层
此文章由 gifox 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 gifox 所有!转贴必须注明作者、出处和本声明,并保持内容完整
同意三楼

发表于 2021-8-8 20:25 |显示全部楼层
此文章由 Delawarean 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 Delawarean 所有!转贴必须注明作者、出处和本声明,并保持内容完整
本帖最后由 Delawarean 于 2021-8-8 20:36 编辑
coffee_bean 发表于 2021-8-8 18:09
看Apple的这个机制,并不是打开用户的个人照片找有没有裸露的照片,而是比对客户存储的照片文件是否包含已 ...


这不是技术上的问题,是个道德伦理问题。这种内容审查一旦滑坡,后果很严重。
更何况这个技术并不能保证100%的正确,也完全不能杜绝儿童色情。
最后,这个系统的最终是有人工审查的,这个和苹果对隐私的标榜也是非常大的出入。
说白了,这就是这两年疯狂左倾的结果。为了政治正确,可以牺牲个体的利益。Apple作为业界的领头企业,对这种技术的认可,很可能会很快普及到其他企业,其他国家。这样大家就只能天天说政治正确的话,看政治正确的东西度过一辈子了。

我作为一个老苹果用户,遇到这种情况,非常气愤。

评分

参与人数 1积分 +3 收起 理由
greatfire + 3 感谢分享

查看全部评分

发表于 2021-8-8 20:48 |显示全部楼层
此文章由 coffee_bean 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 coffee_bean 所有!转贴必须注明作者、出处和本声明,并保持内容完整
Delawarean 发表于 2021-8-8 20:25
这不是技术上的问题,是个道德伦理问题。这种内容审查一旦滑坡,后果很严重。
更何况这个技术并不能保证1 ...

这真是一个用纯粹的技术试图解决一个道德伦理问题。Apple的内容审查不是你理解的需要打开文件检查里面的图片具体内容(更加不需要人工介入审查)。

https://www.apple.com/child-safety/

这里是Apple关于这个技术的详细解释,其中的“CSAM“就是这个检测技术,我的研究方向是隐私保护,所以对这方面的技术比较了解,CSAM其中提到的”Hashes“,”private set intersection“, ”secret sharing“等等都是密码学的一些最新成果在基于隐私保护的多方合作计算领域的一些前沿技术,都是为了在不了解客户隐私的情况下比对敏感信息。一幅图片经过hash处理后,就是一堆没有任何意义的字符串,任何人都不能根据hash字符串倒推出图片的具体内容,但是hash技术又保证了同一份图片文件的hash是唯一的,所以Apple做的就是看客户存储在icloud里头照片的hash值,是不是有和已经被标记过儿童色情的照片Hash值一致,如果有一致,就说明这个客户下载了儿童色情图片并且存到了自己的icloud里头。

如果有兴趣,可以用这几个关键词找一下关于这些技术的详细解释了解就明白了。

评分

参与人数 1积分 +2 收起 理由
商务车 + 2 感谢分享

查看全部评分

发表于 2021-8-8 20:57 |显示全部楼层
此文章由 pengruijun 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 pengruijun 所有!转贴必须注明作者、出处和本声明,并保持内容完整
有支持的签名地址吗,我去签。
科技公司运用技术手段,阻断儿童色情图片传播,很正确啊

评分

参与人数 1积分 +3 收起 理由
xunhua + 3 有共鸣

查看全部评分

Advertisement
Advertisement

发表于 2021-8-8 21:03 |显示全部楼层
此文章由 Delawarean 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 Delawarean 所有!转贴必须注明作者、出处和本声明,并保持内容完整
本帖最后由 Delawarean 于 2021-8-8 21:11 编辑
coffee_bean 发表于 2021-8-8 20:48
这真是一个用纯粹的技术试图解决一个道德伦理问题。Apple的内容审查不是你理解的需要打开文件检查里面的 ...


技术本身并没有问题,但是应用这个技术的出发点是问题,懂了吗?技术不是能解决一切问题的。
好比,枪本身没问题,但是把枪无差别的指到所有人的脑袋上来防止某个想杀你的人的这种做法是有问题的。

另外,苹果是有提到人工审查的。当你匹配的hash数量达到一定threshold以后。这个threshold是多少,你不知道;这个人工审查的标准是什么,你也不知道;人工审查出来以后,会怎样对你,你也不知道。更何况,如果这个技术被应用到其他冠冕唐皇的方面,比如“维稳”,“反恐“,”保护少数族裔“,会发生什么?

发表于 2021-8-8 22:03 |显示全部楼层
此文章由 商务车 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 商务车 所有!转贴必须注明作者、出处和本声明,并保持内容完整
本帖最后由 商务车 于 2021-8-8 22:05 编辑
coffee_bean 发表于 2021-8-8 20:48
这真是一个用纯粹的技术试图解决一个道德伦理问题。Apple的内容审查不是你理解的需要打开文件检查里面的 ...


如果有被标记过的照片网站,放广告在一些正常网站
如果用户在不知道的情况下不小心点中了广告跳转到这个被标记网站,但是马上关闭
但是图片还是被存在了用户手机浏览器缓存
被标记对比出来
之后...

发表于 2021-8-8 22:12 |显示全部楼层
此文章由 kksp 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 kksp 所有!转贴必须注明作者、出处和本声明,并保持内容完整
反正以后看谁不爽塞一张进他iCloud里面随便抓
当然,我是相信民主的美国以及私营的苹果的