进入sunbet官网手机登陆

欢迎进入sunbet官网手机版登陆!Sunbet 申博提供申博开户(sunbet开户)、SunbetAPP下载、Sunbet客户端下载、Sunbet代理合作业务

,算法是一面镜子,映射 人类社会 许多固有的 偏见。
2014年,亚马逊的工程师着手开发一款人工智能招聘软件,利用算法和数据分析来筛选候选人,以此避免人类招聘官身上特有的“感情用事”问题。事与愿违,这款软件虽避免了“感情用事”问题,却在“偏见”上犯下更大的错误——软件编写者将人类招聘官的筛选模式写入算法,现实世界中无意识的偏见也带进了机器。 随着智能技术的不断普及,算法做决策成为趋势。避免人类社会的偏见映射到算法世界中,是当下数字化生存中的重要命题。 此前, AI&Society专栏 发布《算法偏见:看不见的“裁决者”》 试图剖析算法偏见所带来的问题, 本文着重梳理当前针对算法偏见的一些解决方案。 在机器学习过程中,算法偏见会从三个环节中被渗透:数据集的构成缺乏代表性,工程师制定算法规则时、打标者处理非结构化素材,都有可能混入偏见。

 在对500名机器学习领域工程师查后得出结论:如今机器学习工程师面临的最大问题之一是他们知道出了一些问题,但是不知道具体是哪里出了问题,也并不知道为什么会出现问题。”前微软公司执行副总裁沈向洋指出

由于算法偏见的不可知、不可查,让反偏见这项工作变得棘手。在现有应对体系下,无论是政策制度、技术突破还是创新型反制,都从不同的角度出发尝试解决这个已经超越技术的问题。

解决思路一:构建更公正的数据集

申博Sunbet官网声明:该文看法仅代表作者自己,与本平台无关。转载请注明:温州二手房网:从性别歧视到招聘不公,如何让AI公平待人?| 算法偏见(下)
发布评论

分享到:

申博Sunbet官网

Sunbet官网QQ:616107390

九江信息网:自动驾驶与智能座舱体验观察 | Kr8观察
你是第一个吃螃蟹的人
发表评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。