云服务器价格_云数据库_云主机【优惠】最新活动-搜集站云资讯

微软云_文件服务器迁移_怎么样

小七 141 0

独享云主机_阿里云_国家物联网是什么

我们现在正面临着挑战和机遇的重要交汇点。在过去的几个月里,人们的行为和需求发生了根本性的变化,一些人工智能系统正在努力适应。黑人生命物质运动提高了公众对人工智能预测警务和面部识别技术的历史和固有偏见的认识。虽然这种理解对研究和伦理界来说并不是什么新鲜事,但大众媒体上的新闻报道数量猛增,引起了人们对这场对话的广泛关注。

让人工智能变得正确更困难,但比以往任何时候都更重要。在公司致力于以负责任和道德的方式创建和实施人工智能之前,几乎不会有什么改变。

偏见是错误的

为了企业的成功和社会的利益,我们需要人工智能是准确的,这意味着要尽可能消除偏见。

让我们以一家金融机构为例,它试图在批准贷款之前衡量客户的"偿还能力"。假设这个机构的人工智能系统根据敏感或受保护的变量,如种族或性别(顺便说一句,这是非法的)或代理变量(如邮政编码,可能与种族相关)预测某人的还款能力。在这种情况下,他们可能会批准一些无法偿还贷款的人的贷款,并拒绝偿还贷款的人的贷款。如果一个系统比收入更看重种族,它可能会将高收入的黑人家庭排除在贷款之外,而将贷款提供给低收入的白人家庭。由于人工智能是基于错误的因素做出决策的,它使模型中的偏见永久化,使金融机构面临失去资金和客户的风险,并有可能迫使客户群体依赖掠夺性贷款机构。

在他们的模型中包括种族、性别和代理变量,但选择不基于这些变量做出决策将极大地提高准确性并扩大客户群。例如,如果他们看到一些社区拒绝贷款,他们可能会考虑提供小额贷款等替代产品,以更好地满足他们的需求。这种方法创造了一个良性循环,帮助客户改善他们的财务状况,并最终有资格获得银行的传统贷款产品。

组织有责任确保公平和准确的人工智能解决方案-这是一项需要意识和承诺的持续努力。虽然没有"一刀切"的解决方案,但这里有四个策略可以让你开始:

1。识别你的系统和过程中潜在的偏见

最近关于人工智能和偏见的对话挑战了"无偏见数据"的概念。因为所有数据都带有偏见,你需要后退一步,评估历史上一直存在偏见的系统和流程。

检查你的系统基于敏感变量做出的决策:

某些因素,如种族或性别,是否受到过度影响?是否存在地区差异,甚至决策者差异?这些差异是代表了这些地区更广泛的人口,还是某些群体受到了不成比例的影响?

一旦你发现偏差,你需要在使用这些数据训练人工智能系统之前将其从过程中消除。怎样?专注于三个核心领域:员工教育、产品开发和客户授权。

在Salesforce,我们在新员工训练营向所有员工介绍我们的道德和人性化使用原则。从第一天开始,新员工就认识到,他们对道德决策的责任和对良好安全实践的责任是一样的。我们直接与产品团队合作开发道德特性,使我们的客户能够负责任地使用人工智能,并审查道德风险的新特性。

2。询问您对数据所做的假设

以发现并纠正偏差,获得高质量、有代表性的数据,你需要深入了解每一个将受到技术影响的人——不仅仅是买家可能需要的功能,还有下游影响。

对你的数据感到好奇,并提出如下问题:

我们对受影响的人及其价值观做了哪些假设?我们从谁那里收集数据?谁没有代表,为什么?谁受到伤害的风险最大?这种伤害有什么影响,我们如何减轻这种影响?我们是否收集了足够的数据来对所有受人工智能影响的人做出准确的决策?

要确定你的决策是否基于种族、性别、地理位置或收入等不公平标准,你需要通过意识实现公平。这意味着收集敏感变量以查看数据中的相关性,而不是根据这些敏感变量或其代理做出决策。

正如我们在贷款示例中所讨论的,代理变量将影响您的模型,因此我们也必须解决这些问题。例如,在Salesforce,我们很早就了解到,就销售线索得分而言,"约翰"这个名字是预测良好线索的头号指标。""名字"代表性别,也可以代表种族和原籍国。结果,团队删除了"name"作为模型中的一个变量。与可能受技术影响的人接触

因为我们都不能完全了解彼此的现实,人工智能创造者需要征求客户的直接反馈,以了解他们所创造的技术将对任何特定人群产生什么影响。