【摘要】 74%Facebook用户对收集、分析信息的事实不知情
2018年9月4日到10月1日,Pew调查了963位Facebook美国用户,这些用户年龄均在18岁以上,调研过程使用了GfK的KnowledgePanel。
Pew Research Center调查发现,大部分用户对Facebook为定向广告追踪、收集并分析用户信息的行为不知情。
具体数字如下: 74%的受访用户并不清楚Facebook会制作用户兴趣、特征列表,以便定向广告,当调查人员告知用户存在广告偏好页面时,他们才意识到这件事。51%的Facebook用户告诉Pew,他们对Facebook的行为感到不舒服。27%的受访者认为Facebook生成的广告偏好列表并不精准。研究人员还发现广告偏好页面为88%的受访用户生成了部分资料。
去年,Facebook创始人扎克伯格参加听证会时表示,用户对上传至Facebook平台的信息和Facebook平台为定向广告收集的数据具备绝对的控制权。
但问题的关键在于用户根本不知道Facebook做了些什么,如何“完全控制”这些信息。这是美国立法者在草拟完善的联邦隐私法时需要仔细思考的问题。
Facebook通过用户不了解广告技术业务功能的特点,来“应付”用户对算法同身份连接在一起的信息控制权,也就是说用户掌握的控制权实际上是微乎其微的。
Facebook一直标榜为社交平台,帮助人与人之间建立联系,而不是大型的监控用户、分析信息的广告投放机器。事实上,除非广告技术行业的一份子,大部分用户不清楚扎克伯格描述的服务的细微差别。
与此同时,用户对Facebook收集并分析数据的行为并不知情,导致用户禁止兴趣爱好被分类用以广告投放的比例降到最低,这不是Facebook的漏洞,只是其业务特点,凭借这个特点,Facebook从中获利。
去年四月,扎克伯格呼吁立法者制定一套简单而又实用的方法解释数据的用处,但这对Facebook提供的服务没有任何限制。
从用户的角度来看,即便清楚Facebook提供广告管理设置,也不会花费大量时间阅读条款。
很多用户甚至都不会查看信息流中的旧日志,更别说是专门查看广告管理设置,弄清楚每个按钮有什么意义。
Facebook加大对广告自助服务体验的宣传,强化广告定向对用户有价值的观点。但Facebook对用户和非用户的背景监控——巨大隐私交易没有对大众进行详细的阐述。
值得注意的是,Facebook没有为用户提供不再被追踪、定制列表的选项,更没有为用户提供影响定向广告的广告设置。
无论扎克伯格在国会上承诺过什么,“影响”不等同于控制。公司只允许用户摆弄几个小按钮,而不是关闭整个监控系统,Facebook用户是无法理解这些广告选项的。
Facebook算法不仅可以定制用户列表,还包含用户政治倾向、种族、所属文化等信息。
Pew研究人员调查了两个明确的类别,发现51%的受访用户被 Facebook列为偏好政治的特点,21%的受访者则列为偏爱多元文化。
被 Facebook列为偏好政治的用户中,73%的用户认为Facebook对政治偏好的分类非常或部分准确;27%的受众认为描述不准确。
37%的受访者认为,Facebook对自己的政治偏好描述准确,14%受访者认为Facebook的描述不准确。
Facebook使用个人数据操纵选举成为一系列业务丑闻的导火索,剑桥分析公司在未经用户允许的情况下,以竞选为目的滥用用户数据。
在其他选举中,Facebook广告避开了竞选支出规则。如2016年英国脱欧公投中,大量广告借助Facebook平台非透明的定向到用户。
为了干预选举,针对民众推送虚假政治新闻。例如,2016年,克里姆林宫操纵了美国大选。
去年,英国数据监管机构长期调查后出于对大规模数据应用的担忧,呼吁各国在道德层面上,暂停在政治选举活动中使用社交媒体数据,
虽然外界对Facebook操纵政治选举的行为不满,但其平台标记用户政治倾向的事实却被忽略。
剑桥分析公司利用Facebook数据给用户标记政治标签,用于定向广告,该标签也是 Facebook平台的核心功能——允许任何规模的广告主根据算法对政治倾向的定义,在未经授权的情况下有偿定向用户。(根据欧洲数据保护法,政治倾向属于敏感信息,也就是说Facebook在该地区面临越来越严格的监管。)
被标记为多元文化亲和力的受访者中,60%的受访者认为他们对该群组具备较强偏好,37%的受访者认为不符合。57%的多元文化亲和力受访者认为,Facebook对其种族偏好描述相符
根据Facebook算法,在“多元文化偏好”人群中,43%的受访者感兴趣非裔美国文化;43%的受访者感兴趣西裔文化;偏好亚裔美国文化的受访者占10%。
Pew指出,Facebook定向广告工具不提供白人文化的亲和力分类,这一定程度上体现了固有偏见。
近年来,Facebook算法为用户贴上了种族偏好的标签,并推送歧视性广告引起了争议。
2016年末,为保护房屋租赁、信用卡相关广告,Facebook将不再使用种族偏好标签定向广告。但一年之后,该公司的广告审查系统未能阻止潜在的歧视性广告。
从选举事件到歧视性广告我们可以看出,Facebook利用算法给用户定义标签带来了很多危机。大多数用户意识到标签之后会感到不舒服。
对Facebook而言,当立法者修改隐私条例,以有效的方式保护用户个人数据才是Facebook最大的危机。
UCL机器学习和数据权研究员Michael Veale表示:“Facebook处理数据的手段没有达到用户的预期,除此之外,Facebook的行为违反了欧洲法律,这引起了他们的担忧。如果Facebook承认推断政治倾向和种族偏好属于收集信息,那么其必须得到用户认可或用户必须选择拒绝,Facebook才不能进行下一步。”
Facebook表示,用户要求“查看大量的网络和app追踪数据,并将其同ID联系起来生成文件”的要求是不合理的,Veale表示,我曾和爱尔兰数据保护委员会发起一项深度调查,Facebook对用户和非用户数据收集的程度让人震惊。
Pew在2018年5月29日到6月11日展开了第二项调查,该调查使用Pew美国趋势小组,样本来自于使用社交媒体(Facebook、Twitter、Instagram)的美国成年人。Pew调查人员发现,社交媒体用户认为社交媒体平台可以根据手机的数据和记录轻而易举的描绘用户的关键特征。
Pew调查发现,84%的受访者认为社交媒体平台可以描绘用户的种族特征,79%的认为可以描述兴趣爱好,71%的认为可以描绘政治偏好,65%的认为宗教信仰。不过28%的受访者认为,社交平台无法得出用户的政治观点。
因此,即便用户平时不关注社交媒体收集数据、分析用户的行为,也能轻易推断出社交媒体平台会根据用户信息推出敏感结论。
Pew互联网和技术研究主管Lee Rainie表示,本次研究的目的是为讨论消费者隐私、商业政治活动广告的微观定向、算法如何塑造新闻和信息系统等话题,提供更多参考数据。
本文来自海外媒体techcrunch,原作者Natasha Loma,由Morketing进行编译原创发布,转载请联系guoruiling@morketing.com
已有0人收藏
+1已有0人点赞
+1转发
发表评论
请先注册/登录后参与评论