央行欧洲代表处王正昌:数字平台的算法与监管


来源:中国金融杂志   时间:2021-03-12 18:43:13


原标题:《中国金融》|数字平台的算法与监管

来源:《中国金融》2021年第5期

作者:王正昌 系中国人民银行欧洲代表处

编者按

数字时代人们消耗更多的时间在网上社交、点餐、浏览新闻、购物,这些网络活动往往离不开算法。算法在提升效率的同时,却也从多方面抑制了竞争,损害了消费者。国际上已有大量报告建议成立专门监管部门,比如英国政府计划于2021年4月正式在英国竞争与市场监管局(CMA)内成立专门的数字市场部门,CMA近日还发表了《算法如何抑制竞争并损害消费者》(Algorithms:How they can reduce competition and harm consumers),表明其对数字平台算法进行事前规范的重视。

利用算法对消费者利益的侵害模式

算法设计在不经意间就会影响消费者的决策,如购物网站“购买”按键的位置、信息栏的颜色、默认的支付方式等。这些网络架构虽然可以使消费者受益,但也可能使商家利用消费者的弱点,诱导其决策,损害消费者利益和市场竞争。CMA总结了算法对消费者利益的多种侵害形式。

个人化定价。商家可以通过大量的用户数据,结合用户的购买意愿,利用算法对不同类型的客户提供不同的报价,例如,给予不同的折扣,从而获取尽可能高的利润。这一模式在消费者难以转换至其他提供者的平台型企业等数字市场提供者中尤为有效。许多情况下,个人化定价可以通过减少消费者搜索成本、更好地匹配供应商和消费者来增加总产出和消费者福利,为消费者提供精准折扣也能帮助新进入者获取竞争优势,特别是存在转换成本的市场领域。但在更多情况下,个人化定价会损害消费者,如在市场缺乏竞争情况下,企业可以因此实施价格歧视行为。如果个人化定价导致消费者对网络市场缺乏信任,还将会影响整体经济效率。个人化定价还可能使消费者多次搜索以规避额外定价,这增加了搜索和交易成本,同样削弱经济效率。

个性化排名。企业往往基于消费者的行为进行个性化展示,如电子购物网站基于消费者搜索记录、地理位置等信息进行有关商品推荐。这种个性化排名展示会影响消费者的决策立场,企业可以以此操纵消费者选择,如向支付意愿较高的消费者展示价格更高的产品,达到与个人化定价相似的效果。在实际中,个性化排名的使用远比个人化定价普遍。

推荐和过滤算法。推荐和过滤算法是通过决定呈现给消费者的信息和选项从而影响其决策的系统,如社交媒体和视频媒体向用户的内容推荐。这种推荐算法会让用户对有关媒体更上瘾,用户基于算法推荐会愈来愈关注特定少数领域,导致用户对真实世界认知的碎片化。这不仅会加强社交媒体的垄断力量,而且对社交媒体的上瘾事实上会降低产品或服务的质量,从而减少消费者福利。

操纵用户轨迹。企业可以利用算法判断是否及何时向用户发送关于用户体验的提醒,最终影响用户决策和竞争。例如,企业可根据用户特征和互动历史,预测其对企业产品的评分,再基于此发送给予评价的推送,从而诱导可能给与高评价的客户进行评价,最终导致评分膨胀,使得评分对消费者的参考意义降低。

算法性歧视。基于客户特征使用算法提供个性化产品或内容可能会形成法律禁止的歧视。在英国,《平权法》禁止个人和组织基于年龄、性别、种族、信仰等受保特征采取歧视性服务,特别是更难察觉的间接歧视行为。算法性歧视的典型形式有以下几种。一是地理区域目标族群设定。具有受保特征的人群在地理上并非均匀分布,因此企业可采取地区差别定价或差别服务,这构成间接歧视。例如,研究表明,美国亚裔集中地区SAT备考费用是其他地区的两倍。二是在线共享经济平台。平台在设计中没有消除用户的歧视性行为,特别是在平台通过减少匿名和提供服务提供者信息来试图构建信任和促进交易过程中。例如,短租平台Airbnb展示房东和租客的信息,实证表明黑人房东收入更少,黑人租客更容易被拒。三是歧视性定向广告。在线平台允许广告商使用受保特征发布定向广告。例如,房产商在脸谱平台中根据种族特征发布定向广告。

不公平排名。企业可以通过设计得当的默认选项、排名等显示架构来帮助消费者快捷找到理想结果。但是如果企业的有关显示标准不透明,那么显示结果可能会更多基于企业利益,而消费者一般会认为有关结果是客观的,就会依赖企业的默认显示结果或排名。企业采取算法改变显示结果来影响消费者感知以获取商业利润的行为即为不公平排名。平台企业实施不公平排名有两条重要的途径。一是显示结果偏向于商业利益伙伴,例如,CMA发现部分酒店预定网站优先显示佣金率更高的酒店。二是黑暗模式(dark pattern),企业利用消费者的弱点,通过不同的选项架构来诱导消费者作出计划外甚至是有害的决定。例如,酒店预订网站显示有多少人近期浏览该酒店,给消费者造成一种即将售完的紧迫感,而实际上网站显示的浏览人数包括了不同日期不同房型的浏览,这构成了对消费者的误导。

算法合谋(Algorithmic collusion)。企业之间可以通过算法使显性合谋更加稳定,或是在没有达成明确协议的情况下开展隐性合谋。整体而言,算法合谋主要有三方面的危害。一是价格数据可获得性的提高以及自动化定价系统使用有利于明示合谋,企业能够更容易察觉到价格偏差,并予以纠正,使明示合谋更加稳定。二是企业使用第三方提供的同一算法系统制定价格,或将定价决策委托给同一中间体,这形成“毂辐状”结构,便利企业交换价格信息。三是形成“自主默契型合谋”,尽管企业采取不同的定价算法系统,但因为设计相似,理性地实施价格跟随行为,因此尽管企业没有达成任何协议,但仍形成隐性合谋。

平台监管无效形成伤害。平台会采取监管算法来阻止虚假评论等危害,但如果监管算法不是完全有效,且缺乏透明度,不能被外界评估,那么也会损害消费者权益,带来广泛的社会危害。例如,电商平台不能有效地删除或减少使用机器伪造的虚假评论,社交媒体未能屏蔽仇恨等社会危害言论。根据美国1996年《通信规范法》第230条,平台基本无需因用户言论承担责任,除非该言论违反知识产权法或刑法等。英国方面认为,从消费者保护角度上看,平台应该确保能检测到非法或误导性内容。

强势企业利用算法阻止竞争者的主要做法

偏袒自身(Self-preference)。部分电商平台和搜索引擎有强大的市场地位,是连接消费者和企业的重要枢纽,因此它们的结果显示架构能对企业的利润有重要的影响。当这些主导平台在结果显示中偏向于自身产品和服务时,就会破坏竞争,尤其是平台的偏袒并非以市场表现为基础。例如,欧盟委员会发现谷歌在网络购物的搜索结果中,通过特定算法过滤质量较差内容,避免其出现在搜索结果前列,但是谷歌的电商服务却得到该算法豁免。排名并非自身偏袒的唯一方式,平台还可以利用用户的默认效应或商品突出性设置。例如,在Amazon平台中同一商品有多个卖家出售时,其往往将自营商品设置为默认选项。

操纵平台算法排斥竞争者。数字平台中的企业利用平台的显示算法,暂时压制新进入者的曝光度,达到驱逐竞争者的目的。通常而言,平台的搜索和显示算法不仅未能很好地控制这种打击竞争的行为,还系统性地偏好现有的在位者,让消费者更难发现新进入者,甚至因帮助在位者巩固地位而收取分成。此外,如果法律要求脸谱、谷歌等平台修改其复杂的算法系统,这会让进入者难以适应,无意中起到排斥新进入者的效果。

掠夺性定价。企业不仅可以通过个人化定价来获取最大利润,还可以通过算法识别出最有可能转换提供商或对新进入者尤为重要的客户,为其提供定向优惠。这可以使企业以更低成本更轻易也更有效地实施掠夺性定价,排除或边缘化竞争者。

调查算法危害的技术

无法直接获取企业数据和算法。在此情况下难以将一个单独算法的影响从整个算法体系中剥离,通常做法是将搜集或模拟的相似数据输入到该算法体系,对模拟结果进行分析。该做法存在若干缺陷。一是有些算法系统的输入数据比较模糊或完全无法观测,如基于用户行为的推荐算法,对外界来说使用哪些行为难以断定。二是部分算法的结果无法观察,如将人群分类的聚类分析算法,个人消费者对其分组情况并不知情。三是在算法合谋等情形中,企业之间算法的互动会形成损害,给识别个体算法的影响带来极大挑战。学术界已研究出几种方法,以在不能直接获取数据和算法情况下,应对上述挑战。一是招募消费者充当数字化“神秘顾客”,以判断真实客观的企业定价。二是使用爬虫技术进行“爬虫审计”(scraping audit),将消费者信息剥离出来,分析有关信息的偏离程度。三是构造大量不同特征的虚假人物来模拟算法结果,这可以规避个人信息搜集面临的数据保护问题。

能够直接获取企业数据和算法,外界可以对算法的决策体系进行全面的评估,不需要再额外搜集处理数据。在此情形下,有三类调查方式:一是动态分析法,即通过执行算法代码进行自动测试;二是静态分析法,即不实际执行程序的情况下,对代码语义和行为进行分析;三是手动代码评估,但对于复杂的算法软件而言难度很大。其中,动态分析法效果最好,因为后两者无法反映算法与外界因素的反身性。在审核数据和代码前,评估方应获得算法机构的虚拟代码、解读说明等文件,以帮助了解算法的发展历程。此外,算法的输入和输出数据也能帮助评估方更好评估算法,特别是在机器学习算法中,往往是数据而非代码导致算法偏离公正的最优算法。通常而言,在能获得算法和数据的情况下,评估效率远高于无法获得的情况。因此,监管者的监管能力很大程度上取决于企业是否积极配合。

监管者的职责

许多损害消费者的算法系统设计越来越隐蔽,使消费者难以察觉并惩戒有关企业,同时许多占据市场主导地位的企业也设计有关算法,因此依靠市场力量不能阻止有关不良实践,最终损害消费者利益和竞争。对此,CMA等监管机构需采取积极的干预措施。

为企业提供指引,设立或明确标准。许多研究报告指出,设立清晰的指引和标准能帮助企业理解监管预期和遵守法规。例如,为人工智能(AI)技术提供指导意见能帮助企业适当地使用机器学习算法,防止算法性歧视等行为。指引文件可以要求企业使用个人数据进行系统性分析前进行数据保护影响分析,也可鼓励企业将算法系统透明化,持续解释其复杂的算法系统。美国联邦贸易委员会在2020年4月份强调算法的透明,并向消费者解释算法决策机制。指引文件可以由公共部门与企业、消费者、研发人员等共同参与制定,以吸收行业内最佳实践,但公共部门需解决指引文件缺乏法律效力的问题。

识别并修补存在的损害。CMA的数据科技分析部门通过对投诉、新闻、论文的监测,识别算法危害的潜在趋势,之后对此算法进行调查,主动识别潜在危害。社会舆论在CMA识别算法危害中发挥了重要作用,因此CMA鼓励学术界、媒体界等社会团体就算法的潜在危害活跃地进行调查。如果有足够的证据表明一家企业的算法损害消费者权益或是竞争,CMA可正式展开调查,要求有关企业提供更多信息,便利CMA进行深入评估,CMA也可就有关收购获得产品服务的供给进行市场研究或是市场调查。如最终认定算法造成不良后果,企业可以主动整改,达到CMA的要求,或是CMA向企业提出整改建议。事后,CMA监测整改的执行情况,评估整改效果。

持续对算法进行监测。企业算法并非静态,而是常常更新,因此一次性的评估可能会很快失效,需要持续对算法进行监测。除上一段落中获取信息的方法外,监管沙箱对监管者而言是十分有效的工具,能在真实环境中测试算法,而又不用担心引发严重后果。但监管沙箱也有局限性,难以设计出反映真实运营环境的沙箱环境,沙箱中的算法也难以表现出真实环境中与其他算法互动后的进化性。此外,通过对企业的算法合规性要求,也可以持续保持对企业算法的监测。当前,国际上有大量报告建议成立专门的监管部门,对数字平台进行事前规范。英国政府已宣布在2021年4月将正式在CMA内成立专门的数字市场部门。

建设并使用数字化能力,加强部门与国际合作。CMA已经投入大量资源进行算法研究,聘用了数据专家和行为专家来研发应用新的算法调查技术,监测企业和视察,对算法危害进行提前预判。CMA还与英国信息专员办公室等其他监管者分享信息,通过数字监管合作论坛等机制打击有害算法。在国际上,CMA也与他国竞争监管机构合作,促进相互学习,交流良好实践。在算法应用全球化的情况下,国际合作尤为重要。

  版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“融道中国”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场。

延伸阅读

最新文章

马斯克V.S薛其坤:立足当下 对人类未来展开无限想象 马斯克V.S薛其坤:立足当下 对人类未来展开无限想象

精彩推荐

图文观赏

众安在线扭亏为盈:2020年净利5.5亿 数字生活生态驱动增长 众安在线扭亏为盈:2020年净利5.5亿 数字生活生态驱动增长

热门推荐