原标题:会员价更高?大数据时代平台“杀熟”怎么破?专家解读 来源:央视
许多消费者曾质疑,为什么并不是旅游旺季,机票价格却越搜越高;为什么聊天时随口提到某款商品,转眼就会在各大平台上看到相关的广告推送?为什么使用一款App,会弹出几十页翻不完也读不懂的隐私政策,而要使用它,你必须点击“同意”?当有一天你不想再使用它时,却怎么也找不到注销按钮在哪里?
大数据时代,我们总能更快地找到自己想要的信息,却似乎越来越难躲开其中暗藏的算法陷阱。
会员价比非会员价还高?平台运用算法进行“杀熟”
不久前,一篇质疑某外卖平台运用算法进行“杀熟”的文章引发热议。该平台的一位会员用户肖先生指出,同样的订单,他的配送费定价时常比非会员用户的更高。
肖先生:
经常点同一家(的外卖),有一天我开了会员之后发现配送费价格一下就较之前涨出了三倍。然后那天我试了几乎一小时,配送费一直是比平时高出了六元。
肖先生告诉记者,之后的一周,他在点外卖的时候,经常同时用两部手机,分别登录会员账号和非会员账号,进行对比实验,发现配送费上的差别总是存在。于是他将这些观察总结成一篇文章发表了在个人公众号上。
肖先生:
后来我这篇文章出来之后,很多网友在我后台留言都有这种会员“杀熟”的情况。比如说一个鼠标,非会员购买的时候100元,但是用会员买价格变成了110元。结果我开了会员之后,反而比非会员价格还要高,那我开会员的意义在哪。
文章引发热议后,相关外卖平台联系了肖先生。针对他提出的质疑,平台方给出的回复是:配送费上的价格差异是由于系统缓存而导致的误差。
肖先生:
我尝试了很多次,在一周之内都是这种情况。那缓存的说法肯定说不过去。何来的位置缓存呢?在同一个地方,差异就是存在于会员和非会员之间。咨询了一些技术方面的朋友,造成这么大的误差是不可能的。
“杀熟”≠差别定价,相关投诉不断增多
肖先生的疑惑,最终还是没能得到一个明确的解答。但是他的经历,却让大数据杀熟这个话题再次走进公众的视野。围绕这个问题,记者对中国消费者协会和有关法学专家进行了采访。
中国消费者协会投诉部主任陈剑:
经常会有消费者抱怨说我是老会员了,可是我的价格却比普通会员(用户)的价格要高。比如说在一些网约车的平台、电影订票平台、订机票的平台等等,都会出现这类问题。第二种情形就是有一些消费者如果多次浏览一个页面,会出现(商品)价格上涨的情况。消费者可能基于害怕涨价或者是发现比如机票很紧张的情况,就匆忙下单,结果等他下单之后发现,很快地这个价格又回落了。
据专家介绍,大数据杀熟,最关键的一步就是要对客户非常“熟悉”,并由此提供差异化选择,这在以往的一些商业模式中其实早已存在,而且很少有负面评价。
北京航空航天大学法学院副教授裴炜:
大数据杀熟本身来说,它背后的现象其实是差异化定价。比如说保险,不同的人的保金、保额或者保险的强制期限都会不一样。所以如果单纯用差异化的定价来说的话,它不一定构成一个负面性的东西。我们所反感的是没有正当性基础的差别定价。
清华大学人工智能国际治理研究院副院长梁正:
交通保险会根据你的事故状况、你的驾驶行为,来决定是否给你折扣,还是要加价。这个行为可能还在大家所接受的是客观的行为,或者是客观的个人差别上。现在大家更关注的是,我的个人信息被利用去生成我的数据画像,然后对我进行定价上的这种区分。
据专家介绍,大数据杀熟与常见的差别定价不同,当它无视消费者的知情权和主动权时,也就违背了消费者贡献数据的初衷。而在我国现行法律体系下,《价格法》《消费者权益保护法》和《反垄断法》都针对“大数据杀熟”可能涉嫌违法的情形进行了规制。
北京航空航天大学法学院副教授裴炜:
2020年的时候,我们专门针对在线旅游服务出了一个相应的规范,要求在线旅游经营服务者,不能够滥用大数据或者是相应的技术,针对用户他的个性化的特征来进行一个差异化的待遇。《消费者保护法》里面本身就有相应的规定,我们有获得公平交易的权利,这本身就意味着要有一个价格的合理性。同时这个“杀熟”有可能还会涉及到比如说反垄断法上的一些相关内容。问题是存在的,但是我们也看到我们国家的立法,确实也是在不断地去回应这些现实的问题,努力地去保护我们用户的一些合法权益。
据中消协介绍,消费者对“大数据杀熟”等问题投诉不断增多,问题的核心是互联网平台对算法技术的应用问题,集中体现在推荐算法、价格算法、评价算法、排名算法、概率算法和流量算法等方面。
中国消费者协会投诉部主任陈剑:
比如说消费者在买商品或者服务的时候,平台会根据消费者浏览过的页面、消费者一些喜好,包括他的行踪轨迹,来对他形成一些个性化的推荐。其实可能经营者对他进行了一些精准的个人数据画像。这种画像相关的商品和服务只推荐给了他,所以他所获取的知情权就是存在很大的缺陷。
互联网平台是如何“熟悉”每一位用户的呢?答案是通过用户画像。在精准的用户画像背后,是平台所累积的大量个人数据。
清华大学人工智能国际治理研究院副院长梁正:
用我的这些数据,你最后对我作的这样的一个(刻画),这个是不是准确?太准确了的话,大家会担心被操控。稍微深入一点讨论就会发现,我在意的到底是本身这个叫做歧视性的定价,还是说背后所反映出来的我的信息被不当地采集和利用?
平台累积大量个人数据 “算”制用户画像
基于大数据的用户画像,能让商家摸清你更爱吃辣还是酸,并通过算法把更符合你口味的餐厅排序靠前。用户数据,往往是通过一个个手机App被互联网平台所采集的。而在我们和这些App打交道的过程中,同样也有令大家担忧的问题不断出现。
App究竟是如何实现高精度地智能推送?普遍被用户感知的“App偷听”是否真实存在呢?
App治理工作组由全国信息安全标准化技术委员会、中国消费者协会、中国互联网协会、中国网络空间安全协会的一批网络安全法律、技术专家组成。
技术专家首先通过一款由他们开发的模拟“App偷听测试程序”。通过测试,证实了当测试程序置于前台运行时,“偷听”是可以实现的。
此外,经过对比实验,技术人员告诉我们,在测试程序退至后台,或者在手机处于锁屏的情况下,录音依然可以持续进行一段时间,但都会自行终止。只是不同的手机操作系统,锁屏下持续录音的时长略有不同。
那么,在技术上可以实现的“偷听”手段,是否在市面上的App中被滥用了呢?
App治理工作组技术专家何延哲:
我们在做实际地对偷听的这种检测的时候,发现目前还没有发现真正意义上哪款App有这种,把语音信息上传之后的偷听行为。
App治理工作组专家介绍,偷拍、偷录虽然在技术上可以实现,但是这种方式成本高昂、效率低下,而且存在高昂的法律风险。
App治理工作组专家表示,目前无论是行业标准还是技术层面,都在进一步强化对手机麦克风等敏感权限调用的透明度,以做到让手机使用者知情。
App治理工作组技术专家何延哲:
现在我们看到有一些手机操作系统,已经实现了对麦克风使用的实时提示。我们叫摄录指示器,也就是说当你要调用麦克风的时候,有一个状态栏,有一个红点或者说有一个提醒。
刚刚和朋友聊起健身计划,转眼网购平台都开始向你推荐健身用品;或者在一个平台检索过火锅底料,许多平台都开始向你频繁推荐涮锅食材甚至是锅具。如此精准的个性化推荐是如何实现的呢?
App治理工作组技术专家何延哲:
一个App可以把一个用户做360度的画像。这个画像我相信,它是一个常年积累的结果,这是第一; 第二,是多个渠道汇聚的结果。
据专家介绍,画像的准确性,主要是通过对我们的购买记录、浏览记录、搜索记录,甚至是下载过的应用程序清单等信息进行大数据分析,最终得以实现的。
App治理工作组技术专家何延哲:
为什么说有时候你会感觉被偷听呢?提供大数据的这个来源,它不是当前的这个App,它可能是其他App。你去做过一些操作,它会把相应的信息汇总到一起,它可能还会关联你的好友、关联你同一个区域内的人员。然后他们有的一些动作,也可能会成为它推送广告的一个方向。
专家提示,用户可以在手机操作系统的权限设置里,找到麦克风权限,检查目前有哪些App被授权使用麦克风。根据自己的需要,用户是可以随时关闭对App使用麦克风的授权的。
App违法违规收集个人信息更应被重视
即使是原本不属于个人信息的数据,在大量汇聚之后,也能挖掘出事物之间不为人知的联系。因此在App治理工作组专家看来,更应该被重视的,是App违法违规收集使用个人信息的行为。而在他们近日对市面上的App进行检测时,发现了隐私政策篇幅长、用户难以读懂;账户无法注销等诸多问题。
App治理工作组技术专家 何延哲:
治理工作会非常关注收集个人信息最小化的问题。事实上这个问题我们从实际上来看,从这两年来看的话,其实是解决了一部分问题。但是解决问题的速度包括效果可能还不太理想,包括那个隐私政策,确实有了,但是它写得好不好?注销有了,那他注销的条件合不合理等,这方面有一些问题。
我们举一个例子。在测试的过程中,我们发现这一款壁纸的App ,它的隐私政策竟然有一万多字。那我们看它到底写了什么。我相信没有任何一个人,会把这个隐私政策读完的。即便是像我们这种每天读隐私政策的人看得都很头疼。就比如说,这个隐私政策中写的这个位置信息。App说我要位置信息,它说了一大堆理由,但是我看它这个理由和壁纸都没有什么关系。
北京航空航天大学法学院副教授裴炜:
隐私政策究竟有没有真的服务到用户,有没有真的保护到个人,这块其实是属于一个断裂的状态。所以未来比较担心的一点,就是这种保护的形式化。
App治理工作组设有“App个人信息举报”微信公众号平台和专用举报邮箱。专家告诉记者,账号注销难,是目前用户投诉量很大的另一个问题。
中国人民大学未来法治研究院副院长丁晓东:
我们从信息法律的研究上来说,经常有一个术语叫做“数字烙印”。在这个网络社会上,踩的脚印全部都是被永久留痕的。在我们国家的个人信息保护法里专门作出了规定,这个我们说从法律权益上来说,它是属于个人的一种删除权。
北京航空航天大学法学院副教授裴炜:
信息技术安全国标,其中涉及到个人信息安全规范里面,就专门提到关于这个注销。就是说用户你在注销或者是停止使用某种服务的时候,它的途径和方式应该尽可能地与你使用这个服务的时候,它的这个途径和方式是相同的。那么同时你在注销的过程中被要求提供的信息,不应该比你在使用App的时候使用的这些信息、提供的身份信息更多。
专家介绍,在数据要素的流通过程中,个人信息的采集,只是其中一个环节。保护个人信息安全,数据的储存、处理和流通环节,同样需要关注。
中国人民大学未来法治研究院副院长丁晓东:
如果把前端环节(数据搜集)就给封闭的话,其实对于人工智能和数据产业的发展,其实会造成很大的影响。那怎么样去调和呢?我想一个很重要的方面就在于说个人信息的搜集之后,一定要对它进行一个非常严格的全生命周期的一个管理。我们要有匿名化机制、模糊化机制。处理的时候我们可能要采取一些数据最小化的处理原则,处理必要的数据。在储存和流通环节以及保护泄露的问题上,尤其要采取一个非常高的标准。
法律还存一定短板,安全边界该划定还需探索
现在,技术带来的便利和个人信息的保护,正处在一个摇摆天平的两端。在这个天平的“配平”过程中,法律扮演什么样的角色?
中国人民大学未来法治研究院副院长 丁晓东:
我们传统上的消费者保护法,还要包括合同法对于格式条款上的应用、侵权法对于侵权问题上的应用,以及行政监管里面的很多问题。在这些法律里面都可以在一定程度上去援引。但是另一方面,由于很多问题都是由于个人信息和算法这些新技术所带来的,所以在一定程度上来说,也还存在着一定的短板,立法机关也在积极跟进当中。我们的民法典生效,可能会对个人信息的保护,会提供很多法律上的支撑。那么个人信息保护法(草案)、还有数据安全法(草案)的制定,未来的话肯定也会提供很多的额外的保护。
如今,我们每个人都在大量地生产信息。专家表示,在当下这个由算法和大数据驱动的社会生活里,法律扮演的更多是兜底保障的角色。安全边界的划定,需要监管机构、平台和用户三方在互动中来探寻。
清华大学人工智能国际治理研究院副院长梁正:
我们也不是一味地通过比如说一些禁止的方式,就能解决它。技术的进步你都会看到它会带来新问题,但是这个问题的解决呢,也是靠这些技术本身去给我们解决的。
业内人士田天:
数据要素作为一项很重要的生产力,去通过数据赋能产业链的上下游,促进数据的流通,包括去促进数据的交易等等。由于存在大量的个人隐私信息,或者说一些商业的数据资产等等,就导致数据的分享、流通和利用,其实中间存在很大的困难。现在其实在学术界相应的一些联邦学习等等,这种技术都是在解决这个问题,推动相关的标准规范等等,就是并不希望大家因为这种数据安全的一些问题,就因噎废食。
从事人工智能安全研究的技术专家告诉记者,目前,技术手段上,已经能够做到在数据依然储存在原始位置的情况下,达到同样的分析效果。
业内人士 田天:
相当于数据明文并不出库,但是通过加密的一些方式,就可以实现人工智能在加密数据上的运算。能够感知到的效果就是说,我的数据资产并没有泄露,也没给到别人。没有任何隐私信息的泄露,但同时我得到一个在更加丰富的数据上训练得出来的模型。
清华大学人工智能国际治理研究院副院长梁正:
从法律法规的层面来讲呢,应该是兜底。然后我们划定一些红线,不能够去影响到公共的安全。像数字经济的甚至有一些商业模式的迭代是很快的,这方面不能完全等到法律制定出来。针对每一个问题都可以有相应的技术解决方案来应对它,不是没解的。关键是我们要把规则制定清楚。