您的位置:首页 > 资讯频道 > 国际商业 > 独家商业>正文

信也科技王春平:价值观在前的人工智能算法发展

时间:2021-10-08 19:19:19    来源:企业供稿    浏览次数:    我来说两句() 字号:TT

  9月27日,由玛娜数据基金会主办的“促进人工智能算法性别平等”报告发布会暨政策研讨会在上海举行,联合国妇女署驻华办公室,项目官员马雷军、上海市浦东新区妇女联合会副主席国云丹、玛娜数据基金会秘书长张唯、玛娜数据基金会课题组专家负责人周旅军、专家况琨,以及小米集团科技委员会技术向善议题召集人朱汐、信也集团首席算法科学家王春平、Thought Works(中国)数据智能团队解决方案架构师任添石等各界嘉宾出席了本次会议,共同探讨如何促进人工智能算法中的性别平等。

  作为金融科技企业信也科技集团的代表,也是在人工智能领域取得优秀成就的女性从业者,王春平博士在会上阐述了其对于人工智能在研究、应用中对于数据伦理、性别平等的观点与建议。

  人工智能时代加速,促进性别平等即发展大前提

  人工智能自1956年被提出以来,短短60余年的时间中,这项科学技术的飞速发展给人类社会带来了不小的变化。人工智能算法是以数学方式或计算机代码表达的意见,由算法模型和数据输入决定着预测的后果。

  随着人工智能时代的加速到来,人类将生活在一个算法无所不在的世界,随着算法决策开始介入并主导人类社会事务,算法对人类的生活和未来都将产生不可估量的影响。基于此,由算法偏见可能带来的伦理风险也开始引起人们重视。单就性别角度而言,由于目前人工智能领域目前仍处于男性主导的状况,使得人工智能算法在日常应用中不自觉就容易出现 “性别歧视“的争议。

  据当日发布的《促进人工智能算法性别平等》报告(后文简称《报告》)介绍,目前人工智能算法的诸多应用场景中均存在一定的性别歧视现象。以人工智能开放平台为例,一张“端着水果篮的男性”图片被AI人脸识别平台检测为“女性”,单独截出头像却能够被检测为“男性”。在就业场景中,2018年亚马逊公司的自动招聘算法倾向于给关键词含“女”字的简历打低分,降低了女性工作申请成功率,,弃用了该招聘算法。

  信也科技首席科学家王春平表示:“人工智能算法的基础是数据,但在实际生活中因为种种原因,沉淀下来的很多数据分布是有偏的,从而可能将社会中的一些偏见渗透进算法中。作为人工智能算法的女性从业者,我认为需要通过多种方式去消除这些偏见。”

  消除偏见与歧视,数据算法从业者新课题

  2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南,明确提出要在数据获取、算法设计、技术开发、产品研发和应用过程中消除偏见和歧视。该委员会近日又发布了《新一代人工智能伦理规范》,第十三条特别强调避免偏见歧视,在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

  “算法中存在性别歧视问题,主要源于训练AI的数据集反映了人类社会存在的性别偏见,而算法工程师对这一问题缺乏意识,未将解决性别偏见纳入开发需求,从而使得算法放大了性别歧视。“玛娜数据基金会课题组专家况坤表示。

  据《报告》中专题社会调研的数据显示,58%的人工智能算法从业者不知道算法当中存在的性别偏见问题,73%的从业者不知道存在专门针对女性的恶意算法。从业者对算法性别平等的意识及能力亟需提升。

  王春平博士表示,“对于在人工智能算法中尽可能地促进性别平等,我们认为首先需要从研发者的意识与环境培养开始。比如在信也科技集团内部,我们有很多公司政策都在保证并促进不同性别员工得到平等的机会。比如说我们会有比较完善针对人工智能领域或数字化应用相关的培训课程,这些课程包含了业务场景、算法学习、工程化落地,会开放给所有职位的员工,并且会尽可能地帮助公司内部对于人工智能算法有兴趣的员工参与一些实验性的创新项目,为其提供平等的岗位机会。我们认为保障女性员工获得公平的职业机会,为算法开发团队营造没有明显两性区分的环境,并有意识消除算法工程师们的性别偏见,对于人工智能算法在应用中尽可能实现性别平等是有益的。”

  商业与伦理的平衡,价值观在前的人工智能算法未来

  人工智能算法独特的运行逻辑导致人们社会生活的结构性场景发生了重大变化,加剧了决策者与相对人之间的“数字鸿沟”,人工智能算法独特的运行逻辑正在深刻地改变着以往的生产方式和生活方式,并与人的行为形成了支配关系。这也表示,人们的行为可以借助于数据算法来预测甚至被改变。

  对于企业来说,人工智能算法的准确为商业行为的执行提供了准确的预判,但同时算法发展带来的伦理问题、性别歧视问题同样也是企业需要考虑的问题。

  王春平博士认为,目前为止,人工智能算法在应用中反映的依然是相关性,在开发过程中考虑的因素与得到的决策结果之间,很大程度上只是相关。在很多应用里,性别可能是被引入的一个带有相关性的干扰项,如何排除偏见,公平地看待不同的性别,但是又不会影响到最终的商业判断准确性,具有不小挑战。目前这个问题已经引起了重视,有很多从不同角度试图解决这个问题的尝试,比如基于因果推理理论,寻找与期望预测结果拥有直接因果关系的因素;通过创新性地构造特征表征空间,抑制某些带有偏见的因素,比如由于性别带来差异。

  “虽然很多时候,基于商业行为,我们很难判定部分情况下算法在偏好与偏见之间的界限,但是在算法的创新开发过程中,作为人工智能算法工程师如果拥有正确的价值观,就能尽可能提前审视并察觉歧视偏见的存在,很好地利用对于算法的不断更新去调整它带来的问题,这是我们作为算法,的使命与责任,也是人工智能算法发展的重要前提。” 王春平如是说到。

  信也科技作为国内领先的金融科技企业之一,一直致力于推进科技应用与社会发展的互相融合与发展,尤其是在人工智能领域,信也科技通过在开发过程中纳入社会性别多元化视角,尽己所能为促进算法中的性别平等而努力。作为企业,信也科技致力推动在内部技术开发中的客观认识和理性反思,从而更好地促进科技发展。未来,信也科技将继续通过技术的不断创新,以确立正确价值观,助力促进人工智能时代的性别平等。


免责声明:本网站所刊登、转载的各种稿件、图片均有可靠的来源,市场有风险,选择需谨慎!此文仅供参考,不作买卖依据,并不代表新讯网观点,由此产生的财务损失,本站不承担任何经济和法律责任,本站自动屏蔽违反《广告法》词语。

请选择您浏览此资讯时的心情

相关资讯
网友评论
本文共有人参与评论
用户名:
密码:
验证码:  
匿名发表
主办单位:北京时代互通文化传媒有限公司 技术支持单位:西部数码