加入收藏 | 设为首页 | 会员中心 | 我要投稿 常州站长网 (https://www.0519zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

为什么AI是有缺陷的?

发布时间:2021-08-26 17:42:39 所属栏目:大数据 来源:互联网
导读:人工智能已经成为每个人生活中不可或缺的一部分。 从YouTube建议之类的简单任务到诸如生成可治愈疾病的药物之类的复杂的救生任务,它已经无处不在。 它以比我们意识到的更多的方式影响着我们的生活。 但是,人工智能公平吗? 不,绝对不是。 定义一个公平的AI
人工智能已经成为每个人生活中不可或缺的一部分。 从YouTube建议之类的简单任务到诸如生成可治愈疾病的药物之类的复杂的救生任务,它已经无处不在。 它以比我们意识到的更多的方式影响着我们的生活。
但是,人工智能公平吗? 不,绝对不是。
 
定义一个公平的AI很难。 这是我能想到的最好的解释。 如果输出独立于已经受到社会歧视影响的特定任务的敏感参数(例如性别,种族,性别,宗教信仰,残疾等),则给定的AI模型是公平的。
在此文章中,我将撰写有关AI偏差,AI偏差的现实示例以及解决方法的文章。
问题
AI偏差是由于用于训练模型的数据固有的偏见引起的,从而导致社会歧视。 这导致缺乏平等机会。
例如,假设我的任务是创建一个模型,以位置为参数来计算一个人的信用评分。 某些种族集中在某些地方。 这将使我的模型在种族上偏向那些种族群体,从而在获得信用卡和银行贷款时影响他们。
偏爱的AI模型加剧了当前的社会歧视,并为压迫铺平了道路。
现实生活中AI偏见的例子
这是AI偏见的一些现实例子:
COMPAS:COMPAS(替代性制裁的更正罪犯管理分析)是美国法院用来判断被告(被控犯罪的人)成为累犯(重犯先前犯罪的行为)的软件。 由于数据的严重偏差,该模型预测的黑人违犯累犯率是白人的两倍。
亚马逊的招聘:2014年,亚马逊开发了一个AI招聘系统,以简化其招聘流程。 由于用于训练模型的数据来自过去10年,由于技术行业中男性占主导地位,因此大多数被选为男性的申请人被发现具有歧视性。 亚马逊在2018年取消了该系统。
美国医疗保健:美国医疗保健系统使用的AI模型为黑人分配的相同疾病发病率低于白人。 这是因为该模型针对成本进行了优化,并且由于人们认为黑人支付能力较差,因此该模型将其健康风险等级低于白人。 这导致黑人的医疗保健标准降低。
Twitter图像裁剪:2020年9月,Twitter用户发现图像裁剪算法更喜欢白脸而不是黑脸。 即,当将宽高比与预览窗口不同的图像发布到Twitter时,该算法会裁剪图像的一部分,并仅显示图像的特定部分作为预览。 这种AI模型经常在预览窗口中以白色和黑色面孔显示白色面孔。
Facebook的广告算法:2019年,Facebook允许广告商根据种族,性别和宗教信仰来定位人群。 这导致护理和秘书等工作针对女性,而看门人和出租车司机等工作针对男性,尤其是有色男人。 该模型还了解到,向白人展示房地产广告时,其点击率更高,从而导致向少数群体提供房地产广告的情况有所减少。
这些只是AI偏见的一些常见示例。 无论是否有开发人员的知识,都有许多不公平的AI做法实例。
那么如何解决?
为什么人工智能是有缺陷的?
> Photo by Yancy Min on Unsplash
迈向公平AI的第一步就是承认这个问题。 人工智能是不完美的。 数据不完美。 我们的算法不完善。 我们的技术不完善。 假装没有问题,就不可能找到解决方案。
其次,问问自己这个解决方案是否需要AI。
不要害怕在没有机器学习的情况下发布产品-Google
存在一些不依赖于数据的问题。 诸如发现被告再犯的可能性之类的任务更多地取决于情感而不是数据。
第三,遵循负责任的AI实践。 我在下面添加了Google负责任的AI实践指南中的要点。
负责任的AI实践:
使用以人为本的设计方法:内置适当披露的设计模型,并在部署之前合并测试人员的反馈。
确定多个度量标准以评估培训和监视:使用适合任务的不同度量标准,以了解不同错误和经验之间的权衡。 这些指标可以是来自消费者的反馈,误报率和误报率等。
如有可能,请检查您的原始数据:AI模型反映了用于训练模型的数据。 如果数据有问题,则模型也将有问题。 尝试获得平衡的数据。
了解模型的局限性:经过训练可检测相关性的模型不一定有助于建立因果关系。 例如,一个模型可能会得知购买篮球鞋的人通常平均会更高,但这并不意味着购买篮球鞋的用户会因此变高。
测试:进行严格的单元测试以确定模型中的故障。
部署后继续监视和更新模型:考虑用户反馈,并在部署后根据此模型定期更新模型。
设计一个具有公平性和包容性具体目标的模型:与来自伦理学和社会研究领域的专家合作,以理解和解释各种观点。 尝试使您的模型尽可能公平。
使用代表性的数据集来训练和测试模型:尝试评估数据的公平性。 即,寻找特征和标签之间的偏见或歧视性关联。
检查是否存在不公正的偏见:从不同背景的测试人员那里获得单元测试输入。 这可以帮助确定该模型可能影响的人群。
分析效果:考虑不同的指标。 一个指标的改进可能会损害另一个指标的性能。
开发公平AI的工具
FATE:Microsoft提供的AI中的公平性,问责制,透明度和道德规范(FATE),由Microsoft提供评估可视化仪表板和缓解偏差算法的工具。 它主要用于比较系统的公平性和性能之间的权衡。
AI Fairness 360:AI Fairness 360是IBM提供的一个开源工具包,可帮助您检查,报告和减轻机器学习模型中的歧视和偏见。
ML Fairness Gym:ML Fairness Gym是Google提供的一种工具,用于探索机器学习系统对AI偏见的长期影响。
结论
在过去的几年中,公司和政府已经开始认真对待AI偏见。 许多公司已经开发了评估AI公平性的工具,并且正在竭尽全力对抗AI偏见。 尽管AI具有巨大的潜力,但对我们而言,现在要比以往任何时候都更加重要,要牢记AI系统的潜在歧视性危险并帮助开发公平的AI模型。

(编辑:常州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读