365体育直播

国内更专业

人工智能给女性求职者打低分 亚马逊被迫解散团队

增持后,赵建光及一致行动人持有公司股份万股,股比增至%。

  资料显示,截至2017年底,乐视网应收账款账面余额为亿元,其中关联方应收账款账面余额为亿元。

据俄国家新闻社9日报道,俄罗斯老兵波尔费尼奇认为,通过参与叙利亚军事行动,俄军战斗力大幅提升,一些新型军事技术装备经过实战检验。

迄今为止,世界上还没有一个不制造陶器的部落。

  效率提升需求推动机器学习应用  无论是在仓库内部还是在推动定价决策方面,自动化是亚马逊电子商务主导地位的关键。由于低成本计算能力的激增,机器学习在技术领域越来越受欢迎。亚马逊的智能化招聘实验就始于这家全球最大在线零售商的关键时刻。  监管机构的文件显示,自2015年6月以来,亚马逊的全球员工人数增加了两倍多,达到57万多名。

为缓解人力资源部门剧增的工作压力,提升其工作效率,亚马逊爱丁堡工程中心建立了一支研发团队,目标是开发人工智能技术,快速抓取网络信息并发现值得招募的候选人。

  该公司的实验性招聘工具使用人工智能为求职者提供一星到五星的评分,类似于购物者对亚马逊所售产品的评分。研究人员希望这个招聘软件能达到“给软件输入100份简历,它会吐出前5名,然后公司就可优先雇用他们”的目标。

  人工智能招聘软件“重男轻女”  经过培训,亚马逊的计算机模型学习了过去10年内提交给公司的简历,找出了其固有模式,并据此来审查申请人。但从2015年开始,亚马逊意识到在评定软件开发和其他技术职位的申请人时,该招聘系统并非性别中立。因为大多数申请者都是男性,这反映了整个科技行业男性主导地位的现实。  研究团队创建了500个专注于特定工作职能和职位的计算机模型。他们教会每个模型识别过去候选人简历中出现的约5万个术语。这些算法对IT应用程序中常见的技能几乎没有重要意义,例如编写各种计算机代码的能力等。相反,这项技术有利于那些用男性工程师简历中诸如“执行”“捕获”等常见动词来描述自己的候选人。

  事实上,亚马逊的系统通过自学得出了男性候选人更可取的结论。

系统对包含“女性”这个词的简历进行了处罚,如“女子国际象棋俱乐部队长”等。

系统还降低了两所全女子大学毕业生的评级。

  亚马逊曾尝试对程序进行更新,力图使其对特定术语保持中立。

但这并不能保证机器不会根据其他方式来对可能具有歧视性的候选人进行分类。

  性别偏见也不是唯一的问题。

支持模型判断的数据也有问题,这意味着不合格的候选人经常被推荐到各种工作岗位。

亚马逊最终在去年年初解散了该团队,因为高管们对这个项目已失去信心。

  算法公平之路任重道远  根据人才软件公司“职业创造者”2017年的一项调查显示,约55%的美国人力资源经理表示,未来5年内,人工智能将成为他们工作的常规部分。

  长期以来,雇主一直梦想利用技术扩大招聘网络,减少对招聘人员主观意见的依赖。

但亚马逊的失败案例,为越来越多正在寻求自动化招聘流程的大型公司提供了一个教训。

  卡内基梅隆大学机器学习专家表示,如何确保算法公平、真正可理解和可解释的道路还相当遥远。

  《麻省理工技术评论》在此次事件的报道中指出,我们不能将人工智能视为内在的无偏见。

在有偏见的数据上训练系统,意味着算法也会变得有偏见。

如果这样不公平的人工智能招聘计划在实施之前没有被发现,将使长期存在于商业中的多样性问题延续下去,而不是解决它们。

  驻联合国记者冯卫东(科技日报)[责任编辑:金璐]。

截至2017年12月31日,公司拥有86家证券营业部,其中42家位于江苏省内,占营业部总数的%,公司在宁夏地区开设的营业部也有15家。

“区块链是一种网络效应非常强大的技术。

(原标题:儿子向要钱购物买车未果家中放火,获得父亲谅解被判缓刑)湖南芷江县男子张某向父亲要10万元去香港购物,又向母亲要80万去买车,均被拒绝,张某做了一件令人震惊的事:来到父母卧室放火,还持刀阻止他人救火。

中消协有关负责人表示,平台企业要加大审查力度,建立规范的筛查制度和淘汰制度,确保从业人员与车辆信息的真实性;积极回应消费者关切和诉求,畅通投诉受理渠道,对侵害消费者合法权益的状况必须零容忍,严厉杜绝店大欺客行为的发生;平台企业要顺应用户需求变化,积极推进界面管理、操作优化、线路导航、车辆匹配、等待响应、在线支付等环节技术升级,提升从业人员和乘客体验,打造全流程的优质、便捷、高效的产品和服务。

分享:

评论