云服务器价格_云数据库_云主机【优惠】最新活动-搜集站云资讯

域名解析_cdn资源访问出现问题_多少钱

小七 141 0

正如斯坦福大学(Stanford)的副教授Andrew Ng所描述的那样,"AI是下一个电力,没有回头路了。"正如电力引入后改变了许多行业一样,AI也会改变。因此,对于个人和企业来说,了解这项强大的技术、提出正确的问题并做出正确的权衡是非常重要的。一个深思熟虑的、有目的的方法将带领我们超越人工智能的缺点,走向更美好的未来。

人工智能并不新鲜,它经历了许多"冬天"。然而,我们正进入一个永久的"春天"阶段,这主要得益于神经网络规模和性能的进步。对于神经网络,最常被引用的类比是,它们受到人脑机制的松散启发。然而,现实情况是,我们并没有完全理解人脑是如何工作的,所以这个类比在仔细研究中是站不住脚的,我们可以编写一个简单的神经网络程序,以房屋的面积作为输入,计算房屋的价格。

但是,我们都知道,房屋的面积并不是影响其价格的唯一因素。还有其他因素,包括卧室数量、邮政编码、学区、可步行性等

在神经网络的帮助下,不需要向系统提供这些因素。取而代之的是,建站快速,只需收集房地产数据并将其输入网络即可。它将自动决定任何房子的价格。

这就是人工智能系统的工作方式,这种"黑匣子"方法有一个内在的挑战。

人工智能算法的质量和准确性只与训练数据一样好。如果数据以任何方式有偏差,那么最终的算法也会有偏差。

值得注意的是,"偏差"一词有不止一个含义——它对技术界来说意味着一件事,而在法律意义上则略有不同,这样解释:

在ML技术意义上,偏差是指样本数据和目标人群之间的系统差异。它指的是估计误差,大数据中心是什么,即人口中的某些成员比其他人更容易被抽样。

从统计学上讲,ML系统的目标是训练"符合"或反映现实的数据算法。然而,它可能面临"欠拟合"或"过度拟合"的问题

统计偏差的经典视觉表示是欠拟合-人工智能模型无法表示数据的潜在趋势。在这种情况下,有低方差,但高偏差。

对比与过度拟合,其中有高方差。在这里,模型对微小的变化非常敏感,捕捉到了数据中所有的噪声和信号。

在法律意义上,大数据与数据挖掘,偏见意味着不适当的偏见。它意味着基于先入为主的观念或偏见的判断,而不是对事实的公正评价。公正性是我们许多法律程序的基础。

当现实生活中存在历史偏见时,数据收集在统计上可以是无偏见的,也就是说,有一个完美的匹配。然而,这些培训数据可能导致法律意义上的有偏见的结果,因为结构性的不平等被编码进了这些数据中。

他引用了ProPublica的一项研究,好评返现图片,该研究最好地说明了刑事司法系统中培训数据中的偏见对人类的影响。

今天的法庭正在使用人工智能系统来预测未来的罪犯。这些程序有助于从保释到量刑的所有决定。他们的目的是使刑事司法系统更加公平,并消除人类偏见。

ProPublica测试了一个这样的程序,发现该系统是错误的,对非裔美国人有偏见。

下面是一个例子,说明这种偏见在现实生活中是什么样子:

弗农·普拉特,41.

COMPAS得分:3-低

后续犯罪:闯入仓库盗窃价值7700美元的电子产品,30项重罪,品高云,包括入室盗窃、三级大盗,以及在典当赃物时处理赃物。

Brisha Borden,18.

COMPAS得分:8-高

后续犯罪:无

值得注意的是,法院引入人工智能系统是为了减少决策过程中的人为偏见。然而,他们没有认识到,从过去学习的系统注定要重蹈覆辙。这些算法本身并没有偏见。他们放大了他们训练数据中固有的偏见。

请告朱举例说明。