打开网易新闻 查看更多图片

“推荐”——根据自由选择摆在用户面前的明显程度来改变用户行为的策略——自2008年芝加哥大学经济学家理查德·塞勒(Richard Thaler)和哈佛法学院教授卡斯·桑斯坦(Cass Sunstein)推广这一概念以来,已经取得了长足的进展。有了这么多关于个人用户的数据,也有了人工智能来处理这些数据,公司越来越多地使用算法来管理和控制个人——尤其是员工。这对工人的隐私会产生影响,被一些人视为操纵。笔者概述了企业在恪守道德界限的同时利用这些策略的三种方式:创造双赢局面、分享数据业务信息以及对算法本身保持透明。

企业越来越多地利用算法来管理和控制个人,不是通过强制手段,而是以推荐他们做出合意行为的方式——换句话说,从他们的个性化数据中了解信息,并以某种微妙的方式改变他们的选择。比如,自2017年剑桥分析公司丑闻(Cambridge Analytica Scandal)以来,众所周知,Facebook上大量有针对性的广告和高度个性化的内容可能不仅会促使用户购买更多产品,而且会诱引和操纵用户为特定的政党投票。

芝加哥大学经济学家理查德·塞勒和哈佛大学法学院教授卡斯·桑斯坦在2008年推广了“推荐”(nudge)一词,但由于人工智能和机器学习方面的最新进展,算法推荐比非算法推荐强大得多。有如此多关于员工行为模式的数据在手,企业现在可以制定个性化策略来大规模改变个人的决定和行为。这些算法可以实时调整,让该方法更为有效。

随着公司使用文本、游戏机制和推送通知来影响员工队伍,算法推送策略越来越多地应用于工作环境中。比如,叫车服务公司优步(Uber)一直采用奖励徽章的心理技法,激励他们的300多万独立、自主司机延长工作时间,而不是强迫他们这样做。同样,Deliveroo将通知推送到其食品配送员工的智能手机上,以促使他们更快地工作。

对于许多企业来说,向员工推荐是一种大有希望的方法,通过提高员工业绩以及/或者节约成本来实现企业目标。比如,维珍大西洋航空公司(Virgin Atlantic)据报道通过督促飞行员减少燃油消耗来影响员工的行为,帮助这家英国航空公司大幅降低了成本;谷歌据报道采用了推荐的做法,旨在鼓励其员工吃更健康的快餐食品,减少自助餐厅的食物浪费。在我们对Uber四年的研究中,我和同事发现,与传统的管理方式相比,算法管理和推荐方法让企业以相对低的成本高效地协调了庞大的员工队伍。

不过,企业应保持警惕:这些做法已因其受人质疑的道德问题而遭到批评,也越发受到监管机构和广大公众关注。这些做法面临的质疑主要表现在对侵犯隐私的关注、指责推荐会操纵不知情的个人并使其处于不利地位的指控,以及对算法透明度和偏见的担心。目前,采用这种技术的企业主要是零工经济中的企业,工人在这些企业中不被视为员工。这一名头在很大程度上保护了雇主免受这一领域的监管,不过,这种情况可能正在开始改变。

比如,2020年7月,英国优步司机对优步公司提起诉讼,声称该公司未能按照欧洲数据保护条例(GDPR)规定履行其法律义务,指出其算法缺乏透明度。同样,在美国,联邦贸易委员会(Federal Trade Commission)多次对研究予以了资助,并发布了消费者指南,以提升消费者隐私和算法责任。这种与隐私相关的担忧因亚马逊员工腕带等涉及企业可疑行为的新闻而加剧。亚马逊腕带可以通过振动向仓库工作人员指示产品方向,但也可以跟踪员工的一举一动。

但企业不应放弃算法管理,通过推荐来控制员工。基于优步行之有效——和那些无效——的方法,以及我通过对有关Facebook、亚马逊和谷歌的公开报道而观察到的方法,以下是对那些希望进行算法管理和推荐、但又希望避免道德和监管罗网的企业提供的三条建议。

创造双赢局面

优步对员工的推荐、Facebook对社交媒体用户的推荐,以及亚马逊对员工的推荐明显更服务于企业利益,而非消费者或员工利益,因此很容易认为所有的推荐都违背了个体目标对象的利益。然而,我相信企业可以创造一个双赢的局面,从而让相关各方全都得益于推荐。

塞勒和桑斯坦的研究表明,推荐可以鼓励个人通过积极强化自己的决定来提升健康、财富和幸福感。

如果将此转换为工作和算法管理的背景,那么,企业应该寻求实施同样有益于员工的、人工智能支持的个性化奖励系统。虽然我不知道现在有哪家公司在这样做,但我可以想象这样一个世界,这些系统会促使员工提高自身安全,并向他们传达一种感激之情。将来,为鼓励员工多存钱,企业可以默认员工加入退休储蓄计划。许多这样的行为反过来也有助于企业,因为员工的安全和满意度有利于企业的最终盈利。

虽然优步最初的推荐完全关注的是有益于公司而不是员工的结果,但最近,该公司已开始通过其Uber Pro奖励服务,朝着兼顾性更强的方式迈出第一步。保持高评分和低取消率等某些要求的司机现在有机会获得奖励,从健身房会员折扣到燃油购买返现。虽然完全回应司机的需求尚需要做更多的工作,但目前的方案是一个起点。

共享数据收集和存储方面信息

从事算法推荐的企业需要对这些数据的收集和存储情况保持透明。GDPR在这方面设置了一个很好的标准:它要求企业主动提供所收集和存储的个人用户(包括工人!)数据性质的信息。比如,为遵守GDPR的规定,Twitter更新了其服务条款和隐私设置,其中包括确保向用户提供的有关其数据使用情况的沟通和信息简洁、透明、易于访问,使用的是清晰明了的语言。

与此相关的是,企业向第三方出售数据是一种普遍做法。企业应该尽可能避免这种情况,或至少适当向消费者和员工披露其意图。

解释算法的逻辑

向员工清楚地表明算法在用他们的数据做什么事情,这对于恪守道德界限也至关重要。显著受到机器学习模型结果影响的个体应当考虑如何做出特定决策。在涉及人的剖析研究时——利用数字技术的新进展,使算法决策能够针对特定的个人进行调整,这一点非常重要。信息透明度至关重要,以便让员工在是否选择退出算法问题上做出知情决定,并证明自动决定并不具有种族或性别偏见的倾向。

然而,共享信息(比如,为何某些工作人员所受的待遇不同于他人,或者特定推荐策略的预期结果是什么)可能是一项挑战,尤其是考虑到这些算法总会根据不断变化的环境动态地调整自己。即便如此,越来越多的企业开始投资于可解释的人工智能解决方案,采用技术的目的是为了确保复杂的计算结果能够被人类利益相关者理解。

解决这个问题的一种方法是反事实的解释。这些解释表明,如果个体具有不同的特征或属性,那么决策算法对于特定的个人会有什么样结果——这是一种简单、非技术性的方法来显示算法是如何发挥作用的。

比如,优步共享的详细信息可以涉及哪些因素(如司机评分、乘车接受率、客户投诉数量)会影响到每位司机在奖励计划中被评为黄金、白金还是钻石会员。更理想的是,分享关于什么确切的评级和接受率,或多少客户投诉会导致特定的司机被提升到下一个级别的详细信息。

由于企业可以获取的员工数据越来越多,技术进步迅猛,行为推荐未来可能还会继续。加入这一潮流的企业需要谨慎地管理他们的推荐技巧,以便通过创建双赢的解决方案、投资员工数据收集、存储和处理的透明度来保持合法性。

马雷克·默尔曼(Mareike Möhlmann) | 文

马雷克·默尔曼是本特利大学(Bentley University)的助理教授。此前,她曾任华威商学院(Warwick Business School)助理教授,伦敦经济学院(London School of Economics)教学助理/访问助理教授,纽约大学斯特恩商学院(New York University Stern School of Business)博士后研究员。她于汉堡大学(University of Hamburg)获得博士学位。

刘隽 | 编辑

《哈佛商业评论》联系方式

投稿及内容合作 | zhenminma@hbrchina.org

公众号ID:hbrchinese