Delawarean 发表于 2021-8-8 13:41

反对 Apple 扫描手机内容行为的公开签名

本帖最后由 Delawarean 于 2021-8-8 13:50 编辑

On August 5th, 2021, Apple Inc. announced new technological measures meant to apply across virtually all of its devices under the umbrella of “Expanded Protections for Children”. While child exploitation is a serious problem, and while efforts to combat it are almost unquestionably well-intentioned, Apple's proposal introduces a backdoor that threatens to undermine fundamental privacy protections for all users of Apple products.

Apple's proposed technology works by continuously monitoring photos saved or shared on the user's iPhone, iPad, or Mac. One system detects if a certain number of objectionable photos is detected in iCloud storage and alerts the authorities. Another notifies a child's parents if iMessage is used to send or receive photos that a machine learning algorithm considers to contain nudity.

Because both checks are performed on the user's device, they have the potential to bypass any end-to-end encryption that would otherwise safeguard the user's privacy.


公开信地址:https://appleprivacyletter.com/
签名地址:https://github.com/nadimkobeissi/appleprivacyletter/issues/new?assignees=nadimkobeissi&labels=signature&template=sign-letter.yml&title=%5BSIGN%5D+Your+Name+Here

Zia 发表于 2021-8-8 16:25

保護兒童是每位兒童的父母應該做的事情,而不是apple, google這些公司應該做的事情,這違背了Privacy Policy 和基本人權。 況且objectionable photos的決定權不在每位父母手中。 相比審查data,我認為儘快教導孩子學會如何辯證思考、換位思考才是更重要的事情。

coffee_bean 发表于 2021-8-8 18:09

看Apple的这个机制,并不是打开用户的个人照片找有没有裸露的照片,而是比对客户存储的照片文件是否包含已经被公开标记过的儿童色情照片,普通用户自己的照片是不会被辨识的,只有下载这些标记过的儿童色情照片才会被监测到。如果Apple的机制违背Privacy Policy的话,会被罚到妈都不认识的。经过欧盟GDPR法规洗礼的这种大企业不可能出现这么低级的问题的。

hgaox 发表于 2021-8-8 18:35

Zia 发表于 2021-8-8 16:25
保護兒童是每位兒童的父母應該做的事情,而不是apple, google這些公司應該做的事情,這違背了Privacy Polic ...

维护基本人权是这些公司应该做的事情吗?

Zia 发表于 2021-8-8 19:20

hgaox 发表于 2021-8-8 18:05 static/image/common/back.gif
维护基本人权是这些公司应该做的事情吗?

遵守法律是這些公司應該做到的事情嗎?
維護人權是遵守法律應該做到的事情嗎?
公平正義是維護人權應該做到的事情嗎?

hgaox 发表于 2021-8-8 19:26

Zia 发表于 2021-8-8 19:20 static/image/common/back.gif
遵守法律是這些公司應該做到的事情嗎?
維護人權是遵守法律應該做到的事情嗎?
公平正義是維護人權應該做 ...

所以机扫上传到云端的内容(照片视频) 有什么错误?

注意不是机扫手机本地的内容 是扫描上传到云端的

icloud可选择关闭

基本事实要搞清楚吧?

hgaox 发表于 2021-8-8 19:28

Zia 发表于 2021-8-8 16:25 static/image/common/back.gif
保護兒童是每位兒童的父母應該做的事情,而不是apple, google這些公司應該做的事情,這違背了Privacy Polic ...

【而不是apple, google這些公司應該做的事情】

不对

是这些公司应该做的事情 搜索引擎就有针对此类搜索的alert机制

你应该知道吧?

gifox 发表于 2021-8-8 20:04

同意三楼

Delawarean 发表于 2021-8-8 20:25

本帖最后由 Delawarean 于 2021-8-8 20:36 编辑

coffee_bean 发表于 2021-8-8 18:09 static/image/common/back.gif
看Apple的这个机制,并不是打开用户的个人照片找有没有裸露的照片,而是比对客户存储的照片文件是否包含已 ...

这不是技术上的问题,是个道德伦理问题。这种内容审查一旦滑坡,后果很严重。
更何况这个技术并不能保证100%的正确,也完全不能杜绝儿童色情。
最后,这个系统的最终是有人工审查的,这个和苹果对隐私的标榜也是非常大的出入。
说白了,这就是这两年疯狂左倾的结果。为了政治正确,可以牺牲个体的利益。Apple作为业界的领头企业,对这种技术的认可,很可能会很快普及到其他企业,其他国家。这样大家就只能天天说政治正确的话,看政治正确的东西度过一辈子了。

我作为一个老苹果用户,遇到这种情况,非常气愤。

coffee_bean 发表于 2021-8-8 20:48

Delawarean 发表于 2021-8-8 20:25 static/image/common/back.gif
这不是技术上的问题,是个道德伦理问题。这种内容审查一旦滑坡,后果很严重。
更何况这个技术并不能保证1 ...

这真是一个用纯粹的技术试图解决一个道德伦理问题。Apple的内容审查不是你理解的需要打开文件检查里面的图片具体内容(更加不需要人工介入审查)。

https://www.apple.com/child-safety/

这里是Apple关于这个技术的详细解释,其中的“CSAM“就是这个检测技术,我的研究方向是隐私保护,所以对这方面的技术比较了解,CSAM其中提到的”Hashes“,”private set intersection“, ”secret sharing“等等都是密码学的一些最新成果在基于隐私保护的多方合作计算领域的一些前沿技术,都是为了在不了解客户隐私的情况下比对敏感信息。一幅图片经过hash处理后,就是一堆没有任何意义的字符串,任何人都不能根据hash字符串倒推出图片的具体内容,但是hash技术又保证了同一份图片文件的hash是唯一的,所以Apple做的就是看客户存储在icloud里头照片的hash值,是不是有和已经被标记过儿童色情的照片Hash值一致,如果有一致,就说明这个客户下载了儿童色情图片并且存到了自己的icloud里头。

如果有兴趣,可以用这几个关键词找一下关于这些技术的详细解释了解就明白了。

pengruijun 发表于 2021-8-8 20:57

有支持的签名地址吗,我去签。
科技公司运用技术手段,阻断儿童色情图片传播,很正确啊

Delawarean 发表于 2021-8-8 21:03

本帖最后由 Delawarean 于 2021-8-8 21:11 编辑

coffee_bean 发表于 2021-8-8 20:48 static/image/common/back.gif
这真是一个用纯粹的技术试图解决一个道德伦理问题。Apple的内容审查不是你理解的需要打开文件检查里面的 ...

技术本身并没有问题,但是应用这个技术的出发点是问题,懂了吗?技术不是能解决一切问题的。
好比,枪本身没问题,但是把枪无差别的指到所有人的脑袋上来防止某个想杀你的人的这种做法是有问题的。

另外,苹果是有提到人工审查的。当你匹配的hash数量达到一定threshold以后。这个threshold是多少,你不知道;这个人工审查的标准是什么,你也不知道;人工审查出来以后,会怎样对你,你也不知道。更何况,如果这个技术被应用到其他冠冕唐皇的方面,比如“维稳”,“反恐“,”保护少数族裔“,会发生什么?

商务车 发表于 2021-8-8 22:03

本帖最后由 商务车 于 2021-8-8 22:05 编辑

coffee_bean 发表于 2021-8-8 20:48 static/image/common/back.gif
这真是一个用纯粹的技术试图解决一个道德伦理问题。Apple的内容审查不是你理解的需要打开文件检查里面的 ...

如果有被标记过的照片网站,放广告在一些正常网站
如果用户在不知道的情况下不小心点中了广告跳转到这个被标记网站,但是马上关闭
但是图片还是被存在了用户手机浏览器缓存
被标记对比出来
之后...

kksp 发表于 2021-8-8 22:12

反正以后看谁不爽塞一张进他iCloud里面随便抓:wbs:
当然,我是相信民主的美国以及私营的苹果的

hgaox 发表于 2021-8-8 22:25

Delawarean 发表于 2021-8-8 20:25 static/image/common/back.gif
这不是技术上的问题,是个道德伦理问题。这种内容审查一旦滑坡,后果很严重。
更何况这个技术并不能保证1 ...

【这不是技术上的问题,是个道德伦理问题。这种内容审查一旦滑坡,后果很严重。】

新技术应用必然有风险 如果收益超过风险 就是饿可以接受的

【更何况这个技术并不能保证100%的正确,也完全不能杜绝儿童色情。】

没有任何技术措施可以100%有效 是不是都不能应用了?

【最后,这个系统的最终是有人工审查的,这个和苹果对隐私的标榜也是非常大的出入。
说白了,这就是这两年疯狂左倾的结果。为了政治正确,可以牺牲个体的利益。Apple作为业界的领头企业,对这种技术的认可,很可能会很快普及到其他企业,其他国家。这样大家就只能天天说政治正确的话,看政治正确的东西度过一辈子了。】

左派恰恰是倡导个体利益的 种族平等 宗教平等 性别平等 性取向平等 保障残障人士权益都是与你的说辞【牺牲个体的利益】相反的

【我作为一个老苹果用户,遇到这种情况,非常气愤。】

气愤很可能是基于错误的信息而产生的心理波动

hgaox 发表于 2021-8-8 22:28

Delawarean 发表于 2021-8-8 21:03 static/image/common/back.gif
技术本身并没有问题,但是应用这个技术的出发点是问题,懂了吗?技术不是能解决一切问题的。
好比,枪本 ...

【技术本身并没有问题,但是应用这个技术的出发点是问题,懂了吗?技术不是能解决一切问题的。】

不应用新技术更不能解决问题

【好比,枪本身没问题,但是把枪无差别的指到所有人的脑袋上来防止某个想杀你的人的这种做法是有问题的。】

这个比喻不符合实际 因为与法律冲突

【另外,苹果是有提到人工审查的。当你匹配的hash数量达到一定threshold以后。这个threshold是多少,你不知道;这个人工审查的标准是什么,你也不知道;人工审查出来以后,会怎样对你,你也不知道。更何况,如果这个技术被应用到其他冠冕唐皇的方面,比如“维稳”,“反恐“,”保护少数族裔“,会发生什么?】

拭目以待

coffee_bean 发表于 2021-8-8 22:33

商务车 发表于 2021-8-8 22:03
如果有被标记过的照片网站,放广告在一些正常网站
如果用户在不知道的情况下不小心点中了广告跳转到这个 ...

我看苹果的解释,监测的是儿童色情狂自己把色情图片保存到icloud里头,不是点击网站后的缓存记录。

Delawarean 发表于 2021-8-8 22:43

hgaox 发表于 2021-8-8 22:25 static/image/common/back.gif
【这不是技术上的问题,是个道德伦理问题。这种内容审查一旦滑坡,后果很严重。】

新技术应用必然有风险 ...

【【这不是技术上的问题,是个道德伦理问题。这种内容审查一旦滑坡,后果很严重。】

新技术应用必然有风险 如果收益超过风险 就是饿可以接受的 】

1.是什么让你觉得收益超过风险呢?2.电车难题,用1个人救5个人,因为收益大,就更正确?


【【更何况这个技术并不能保证100%的正确,也完全不能杜绝儿童色情。】

没有任何技术措施可以100%有效 是不是都不能应用了?】

典型的以偏概全,你是怎么从”这个技术不能100%正确,也不能完全杜绝儿童色情(反而会有隐私上的侵害,所以应该反对)“ 得出 “不能100%有效的技术,都不能应用”这个命题,并用来证明前者是错误的?


【【最后,这个系统的最终是有人工审查的,这个和苹果对隐私的标榜也是非常大的出入。
说白了,这就是这两年疯狂左倾的结果。为了政治正确,可以牺牲个体的利益。Apple作为业界的领头企业,对这种技术的认可,很可能会很快普及到其他企业,其他国家。这样大家就只能天天说政治正确的话,看政治正确的东西度过一辈子了。】

左派恰恰是倡导个体利益的 种族平等 宗教平等 性别平等 性取向平等 保障残障人士权益都是与你的说辞【牺牲个体的利益】相反的】

左派倡导个体利益?你是不是对左右有点误解?

最后的针对个人的我就不做回复了。


Delawarean 发表于 2021-8-8 22:57

本帖最后由 Delawarean 于 2021-8-8 23:12 编辑

hgaox 发表于 2021-8-8 22:28 static/image/common/back.gif
【技术本身并没有问题,但是应用这个技术的出发点是问题,懂了吗?技术不是能解决一切问题的。】

不应用 ...

【【技术本身并没有问题,但是应用这个技术的出发点是问题,懂了吗?技术不是能解决一切问题的。】

不应用新技术更不能解决问题】】

如果这个技术应用也不能解决问题,反而会带来问题呢?


【【好比,枪本身没问题,但是把枪无差别的指到所有人的脑袋上来防止某个想杀你的人的这种做法是有问题的。】

这个比喻不符合实际 因为与法律冲突】

请分清楚什么叫比喻,什么叫类比。首先,比喻和类比本身就不需要符合实际。其次,个类比非常贴切,因为把枪头指到每个人头上法律是可以制定的。就好像“废除自由堕胎的法律,派出月经警察这样的政策是可以出现的”一样(这才叫做比喻)。

【【另外,苹果是有提到人工审查的。当你匹配的hash数量达到一定threshold以后。这个threshold是多少,你不知道;这个人工审查的标准是什么,你也不知道;人工审查出来以后,会怎样对你,你也不知道。更何况,如果这个技术被应用到其他冠冕唐皇的方面,比如“维稳”,“反恐“,”保护少数族裔“,会发生什么?】

拭目以待】

这种事情没有刹车,能避免悲剧发生,就别等着悲剧发生了再去反思。很难理解拭目以待悲剧发生再做打算的人。

coffee_bean 发表于 2021-8-9 00:16

Delawarean 发表于 2021-8-8 21:03
技术本身并没有问题,但是应用这个技术的出发点是问题,懂了吗?技术不是能解决一切问题的。
好比,枪本 ...

嗯,这点我支持Apple的做法,目前Apple几乎是在客户隐私保护方面做得最好的一个厂商了,任何事情都可以用阴谋论来解释(包括现在对疫苗的争论),对于你这样的阴谋论假设,我没法讨论。

Delawarean 发表于 2021-8-9 00:54

coffee_bean 发表于 2021-8-9 00:16 static/image/common/back.gif
嗯,这点我支持Apple的做法,目前Apple几乎是在客户隐私保护方面做得最好的一个厂商了,任何事情都可以用 ...

你支持就支持,别乱扣帽子。我说了苹果的阴谋了?我说你个虚伪天真的黄左你高兴吗?
苹果隐私做的好,和它将来隐私做的好不好有必然关系么?这个审查机制是对苹果隐私政策客观的损坏,有什么不好承认的?

明月星光 发表于 2021-8-9 00:58

下一步:政府要求苹果扫描所有政府不喜欢的图片。
最后:天网主动删除所有反对AI统治的信息。:{}:

frank_1982 发表于 2021-8-9 06:46

儿童色情是法律规定不允许的,所以他们才尝试去做。
但是,中东国家禁止同性恋,国内禁止言论自由,集会游行自由
只要给国家权力机关开了一个口子,他们就可以塞进来无数要审查的理由。
而且这项技术最终需要人工审查的

Questions 发表于 2021-8-9 08:53

能扫照片,就能扫手机里的文件,app, app里的数据,网络使用情况,甚至浏览器里的历史记录和保密登陆密码等等。

等于对苹果开放了所有。

hgaox 发表于 2021-8-9 09:18

Delawarean 发表于 2021-8-8 22:43 static/image/common/back.gif
【【这不是技术上的问题,是个道德伦理问题。这种内容审查一旦滑坡,后果很严重。】

新技术应用必然有风 ...

【1.是什么让你觉得收益超过风险呢?2.电车难题,用1个人救5个人,因为收益大,就更正确?】

这与电车难题丝毫没有关系 是AI非人类的自动Hash值匹配


【典型的以偏概全,你是怎么从”这个技术不能100%正确,也不能完全杜绝儿童色情(反而会有隐私上的侵害,所以应该反对)“ 得出 “不能100%有效的技术,都不能应用”这个命题,并用来证明前者是错误的?】

AI可以非人类读取数据的的前提之下阻挡很多儿童色情材料的传播 这是没有疑问的吧?虽然不100%准确,就不可以应用了吗?

【左派倡导个体利益?你是不是对左右有点误解?】

种族平等 平权运动 欢迎移民 善待难民就来自于左派 左派推动了社会的进步 误解的是你吧?

注意:国际通行的左派概念与天朝国内的不同

天上不会掉馅饼 发表于 2021-8-9 09:20

由此引申出,
其他的手机厂商是否有保留后门给政府机构?

aoe1453 发表于 2021-8-9 09:24

Cook弄不好又要被叫去国会听证,被问你们如管理Google Photo的

hgaox 发表于 2021-8-9 09:24

Delawarean 发表于 2021-8-8 22:57 static/image/common/back.gif
【【技术本身并没有问题,但是应用这个技术的出发点是问题,懂了吗?技术不是能解决一切问题的。】

不应 ...

【如果这个技术应用也不能解决问题,反而会带来问题呢?】

所以你未知先觉自带上帝视角,必定带来问题,必定不能解决问题(即使是某种程度解决问题也不可能?)

新技术的应用有风险 有收益 不经过实践的检验 仅仅依据【如果】是非常不可靠的,你说对吗?

【请分清楚什么叫比喻,什么叫类比。首先,比喻和类比本身就不需要符合实际。其次,个类比非常贴切,因为把枪头指到每个人头上法律是可以制定的。就好像“废除自由堕胎的法律,派出月经警察这样的政策是可以出现的”一样(这才叫做比喻)】

还是不恰当 仔细思考一下为什么不恰当 不知道你能自我找寻到答案吗?

【这种事情没有刹车,能避免悲剧发生,就别等着悲剧发生了再去反思。很难理解拭目以待悲剧发生再做打算的人。】

你这是未卜先知 直接把自己的想象当作未来必然发生的客观事实了 混淆了想象与现实

可否具体给出悲剧的定义和概念?

hgaox 发表于 2021-8-9 09:35

Delawarean 发表于 2021-8-9 00:54 static/image/common/back.gif
你支持就支持,别乱扣帽子。我说了苹果的阴谋了?我说你个虚伪天真的黄左你高兴吗?
苹果隐私做的好,和 ...

【苹果隐私做的好,和它将来隐私做的好不好有必然关系么?】

也得不出 将来苹果的隐私做的必然【不好】把?

【这个审查机制是对苹果隐私政策客观的损坏,有什么不好承认的?】

如何定义对隐私的客观损坏?

请你思考这个问题:

隐私权利是不是具有排他性 与其他利益冲突时候超越其他权利和利益的地位

现实生活显然不是这样的

比如 看医生的时候 病患就需要让渡或者放弃隐私权的保护 与医护人员分享自己的很多隐私 即隐私不再局限于当事人 不在是【隐藏起来的私】与他人分享了 当然医护人员有保护病人隐私的道德和法律义务

现在的前提是AI扫描上传到iCloud的内容 检索儿童色情制品 收益超过了对隐私权的担忧

不知道你明白了吗?

hgaox 发表于 2021-8-9 09:36

明月星光 发表于 2021-8-9 00:58 static/image/common/back.gif
下一步:政府要求苹果扫描所有政府不喜欢的图片。
最后:天网主动删除所有反对AI统治的信息。 ...

显然美国政府没有这样的权利 也不敢这样做
页: [1] 2 3
查看完整版本: 反对 Apple 扫描手机内容行为的公开签名

Advertisement
Advertisement