云服务器价格_云数据库_云主机【优惠】最新活动-搜集站云资讯

网站服务器_网站集约化建设_促销

小七 141 0

亚当福西耶在Unsplash上的照片

算法确定我们在Tinder上遇到的人,识别你的脸来打开无钥匙门,或者在生产力下降时解雇你。机器被用来决定健康、就业、教育、重要的财政和刑事判决。算法被用来决定,谁得到了工作面试,谁得到了捐赠器官,或者自动驾驶汽车在危险情况下的反应。

算法反映并强化了人类的偏见人们普遍错误地认为,算法是客观的,因为它们依赖于数据,而数据不会说谎。人类认为数学模型是可信的,因为它们代表了事实。我们常常忘记算法是由人类创建的,人类选择数据并训练算法。人为的偏见不可避免地潜入人工智能模型,结果,物联网专用卡,算法强化了人类的偏见。例如,Google图片搜索"CEO"产生了11%的女性,尽管27%的美国首席执行官是女性虽然人工智能(AI)的偏见应该一直受到重视,但指控本身不应该是故事的结局。只要人们在开发人工智能技术,对人工智能偏见的调查就会一直存在。这意味着迭代开发、测试和学习,人工智能的进步可能会超出我们之前认为可能的范围——甚至可能会超越人类以前没有去过的地方。然而,有偏见的人工智能是不可掉以轻心的,因为它可以有严重的改变个人生活的后果。了解什么时候,什么形式的偏见会影响数据和算法变得至关重要。最明显和最常见的问题之一是样本偏差,即数据的收集方式使得预期人群中的一些成员比其他人更不可能被包括在内。考虑一个法官用来做出判决的模型。显然,由于历史原因,海淘返现,非裔美国人被判死刑的比例过大,这导致了统计数据中的种族偏见,因此不适合将种族因素考虑在内。但是健康保险呢?在这种情况下,判断男性与女性的不同是完全正常的,但对于人工智能算法来说,这种禁止可能并不那么明显。我们,人类,对道德有着复杂的看法,有时考虑诸如性别之类的属性是好的,有时是违反法律的数据集并不完美,它们本质上是肮脏的,目前,我们开始清理人类偏见的蔓延。不管怎么说,云主机,关键的问题不是偏见的存在,深层次的问题是缺乏对道德的共同理解,因为实际上没有界定没有偏见应该是什么样子。这不仅仅是在计算机科学领域,而是对人类的挑战。在自主汽车的背景下,关于人工智能道德的最大在线实验之一是"电车困境",它收集了233个国家的4000万人的道德决定。不出所料,研究人员发现各国的偏好差异很大:人类对道德的定义不同。电车问题只是理解数据科学中伦理的深度和复杂性的一个简单方法,不用说,它超越了自动驾驶汽车,这就引出了一个问题:机器如何通过承认个体和跨文化的伦理差异来做出"公平"的决定?我们能指望一个经过人类训练的算法比社会更好吗?

自动驾驶汽车必须做出决定的道德困境。

人工智能开始自己做一些令人毛骨悚然的事情承认,我们离科幻场景还有几十年的时间,在科幻场景中,人工智能变得自我意识,并正在接管世界。到今天为止,算法不再是静态的,移动物联网,它们通过对自身行为进行自动修改而随着时间的推移而发展,这种修改会引入所谓的人工智能诱导偏差。一种远远超出人类最初定义的进化。在某个时刻,我们可能需要(或者不需要)通过信任机器来接受结果?!

前进之路:公平设计向前看,我们对人工智能的依赖将加深,不可避免地导致许多道德问题的出现,因为人类将决策转移到机器上,将健康、正义和企业交到具有深远影响的算法手中——影响到每个人。对于人工智能的未来,我们需要回答严峻的道德问题,这些问题需要多学科的方法、领导层的意识,而不仅仅是由技术专家来处理。数据科学知识需要发展成为未来劳动力的标准技能。与火灾类似,机器学习既强大又危险,如何提高效益,将危害降到最低是至关重要的。因为它不仅仅局限于人们所关注的偏见,它还涉及提供决策的透明度、明确责任以及维护人工智能的核心道德价值,如平等、多样性和缺乏歧视。在未来几年里,将道德意识和法规融入其中的能力将成为一项关键挑战,只有通过政府、学术界和企业的密切合作才能解决这一问题。不管挑战有多复杂,大数据分析软件有哪些,它的激动人心的时代是如何活跃和激化人工智能革命,这场革命有可能改善全世界数十亿人的生活Cyrano Chen-高级数据科学家,Joanne Chen-传播主管迈克尔·伦兹-创新总监