Hi小姐复盘Day97―得到.《算法的陷阱》

首先,咱们进入第一部分,说说书中带来的第一个提醒,这个提醒针对我们个人。作者说,要当心算法将我们引入价格歧视。价格歧视,是一个法律经济学的专有名词。这里的歧视是个中性词,不带有任何贬义,它的意思是区别对待。价格歧视,指的就是价格上的区别对待。

举个例子,很多人去健身房办过会员卡,除了一些大牌的连锁健身房,大多数小健身房的办卡流程都是不透明的。一个销售员先向你展示一套会员定价目录,然后告诉你,我们现在正在搞活动,会给你一些折扣。最后,你以比标价更低的价格办了卡。直到某一天,你跟身边健身的伙伴聊天时才知道,别人是跟你同一天办的卡,但办卡的费用,比你更低。

同一件商品,同一个时期,卖给几个人的价格却不一样,这种因人而异的定价方式,就叫价格歧视。

要想实现价格歧视,有两个条件,第一,是差别化的定价能力,也就是判断消费者的购买意愿和支付能力,并且针对每个人单独定价。说白了就是察言观色,看人下菜碟。健身房里,销售员做的就是这个工作,他的目标是弄清你的保留价格,也就是你愿意为这件商品支付的最高价,只要这个保留价格高于商家的成本价,那这笔生意就有得做。比如一张健身卡成本是800块钱,有人有迫切的健身需求,不在乎钱,愿意出2000,而有人觉得健身可有可无,只愿意出1500。那这两笔生意都是划算的,只是赚多赚少的问题。

价格歧视的第二个条件,是有限的套利空间。为了避免这些花1500办卡的人,把健身卡用1600的价格,转手卖给那些愿意出2000的人,健身房会制定一个规定,就是会员卡转让必须向健身房交500元的转卡费。说白了,就是确保这笔差价只有健身房能赚,别人赚不到,防止消费者之间倒买倒卖。也有的商家是采取转手后取消售后服务,或者像飞机票那样,索性不允许倒卖,目的都是提高买家之间的交易成本,限制套利空间。

当然,你在健身房里的遭遇,只是价格歧视的一种表现方式。再强调一遍,价格歧视不是个贬义词,只要是同一种商品的区别定价,在经济学上都可以称为价格歧视。比如拿着学生证去公园,门票可以打折,减肥药的厂商可以针对有潜在需求的人派发优惠券,航空公司可以针对订票的时间不同,给予一些不同的票价折扣,等等。

有关价格歧视,是个非常复杂的命题,我们在这里就不多说了。作者担心的事,不是那些促进市场交易,提升商家效率,并且让消费者拿到实惠的价格歧视,而是像健身房里那样,有点趁人之危的价格歧视。也就是没有统一的明码标价,而是根据消费者的需求程度和承受能力,故意抬高价格。消费者从中是得不到实惠的。

你可能会说,网络的出现,不是恰恰让价格歧视无所遁形了么?这是一个公开透明的交易环境,我们可以货比三家,找性价比最高的选择。但是别忘了,算法的本质工作,就是像健身房里的推销员一样,来了解我们的信息,它可以通过你在网上的一举一动,分析出你到底需要什么,你的经济能力如何,愿意为这件商品掏多少钱。这些以前需要通过大量的人力沟通、调查才能完成的工作,已经被算法轻而易举地搞定了。这就给一些别有用心的商家提供了可乘之机。

最著名的例子是2000年,美国亚马逊搞的一次大数据杀熟。当时,一款 DVD碟片,对老用户的报价是26.24美元,但对新用户的报价是22.74美元。被发现之后,亚马逊官方马上发出声明,说这只是一次技术测试,公司会把多花的钱返还给顾客。

再比如2012年,《华尔街日报》曝光了办公用品公司史泰博的价格歧视行为。史泰博采取的方法是,看地图。先看你所在的位置附近,有没有卖办公用品的实体店,假如方圆20公里之内都没有,就说明你大概率不会跑到20公里之外去专门买办公用品,只会在网上买,史泰博的网上商城,就会给你显示一个高价。注意,在这个场景里,算法针对的不是一个人,而是居住在这个区域里的一群人,即使你问问邻居,他们拿到的也是同样的报价,完全不会引起你的怀疑。

真正让作者担心的,不是亚马逊和史泰博的个案,而是从亚马逊到史泰博,所呈现出来的趋势。越来越强大的算法,已经让价格歧视来得越来越悄无声息,难以察觉了。而且这背后,还释放出一个更值得注意的信号,就是算法正越来越了解你,但它到底有多了解你,你自己却一无所知。算法是个黑箱子,我们和它之间,信息完全不对称。

它可能很懂你。有个真实的故事,说的是美国塔吉特超市数据系统。这家超市曾经给一个高中女生寄送了一些生育用品的优惠券,女生的父亲很愤怒,把超市狠狠地指责了一顿。但是几周后,这位父亲又向超市道歉,因为他发现,他女儿真的瞒着他怀孕了。塔吉特超市的数据系统里,记录了25种孕妇最常购买的商品,再对比这个女孩的购物记录,系统就可以猜出来,女孩很可能怀孕了。换句话说,塔吉特超市的数据系统,比这个女孩的父亲更了解她。

但是,它也可能很不了解你,比如 Facebook,搜集了用户的98项数据,包括年龄、收入、家庭情况、信用等级等等,按理说应该很了解你,但是,它也经常向用户推送一些错得离谱的广告。比如你前两天,很不情愿地被朋友拉着看了《速度与激情》,而 Facebook 却一厢情愿地把你当成跑车达人,整天向你推送跑车广告。这有可能是算法真的很傻,只注意到了相关性,也有可能是在装傻,故意把你包装成跑车爱好者,因为这样的你,对于他们来说更值钱,广告商愿意出更多的钱购买你的信息。

算法到底有多了解你,咱们并不知道,但可以肯定的是,它以后会越来越了解你。自从我们上网的那一刻起,就等于走进了羊圈,这些信息就像割羊毛一样被算法搜集走了,你的每一个行为,都伴随着一轮收割。

说到这,我们可以开个脑洞,假如算法发展到极致,会是什么样?答案并不是多了一个很了解你的私人管家,而是在云端生成了另一个你。

有一部英剧叫《黑镜》,其中一集讲了这么个故事。说一对夫妻,丈夫出意外去世了,算法就根据丈夫生前的网上数据,在云端模拟出了一个程序,这个程序里记录着他的全部习惯,包括喜欢听什么音乐、吃什么东西、被开玩笑时会做出什么反应等等。这个程序每天陪妻子聊天,渐渐的,妻子甚至以为这套程序就是自己的丈夫。

当我们每天打开电脑或者看手机的时候,云端的另一个你,可能正在成形,它正在一步步地观察你、模仿你,越来越像你。这可不是阴谋论,而是算法发展的客观逻辑,当这个“你”完全成形之后,就意味着我们的全部行为习惯,都已经存在云端,且不说它会产生什么后果,这件事本身,已经足够引起我们的重视了。

但是,算法技术毕竟已经成为现代商业的基础设施,我们又不可能因为一个理论上存在的风险而拒绝算法。这本书的价值就在于,把算法的隐患以及其中的逻辑展现给我们,给读者赋能,同时,发起议程设置,建议我们尽早把控制风险的解决方案提上日程。

作者也发出了两点方向性的呼吁,第一是加强隐私保护意识,免费的东西可能更昂贵,要知道网购平台、社交软件、手机应用,这些服务并不是白用的,只不过我们支付的不是钱,而是个人信息。第二是呼吁商家尊重用户的知情权,比如使用弹窗广告时,要告诉用户点开后,会获取到你的哪些数据,在区别定价时,也要告诉用户,这是针对某一类用户的个性定价,不是统一的市场价。

好,以上是第一部分内容,作者对个人作出的提醒,总结一下,算法正在变得越来越强大,越来越了解人。但我们和算法之间,却存在严重的信息不对称,这给别有用心的商家提供了可乘之机。我们要对此予以重视,加强隐私保护意识,并且呼吁商家尊重用户的知情权。

你可能感兴趣的:(Hi小姐复盘Day97―得到.《算法的陷阱》)