位置:纸牌赌博 > 游戏开发 > 正文 >

手机捕鱼怎么打大鱼:AI会变成危险分子,是机器学习算法扭曲?

2019年07月24日 12:33来源:未知手机版

纸牌赌博 www.01pure.com 品牌形象定位,洛克王国美妖狐,幼儿园托班工作总结

工程界的许多人都认为 公平 这个话题是模糊的而且令人不快。在他们看来,这与他们在技术开发和软硬件设计方面的工作无关。是这样吗?

几十年前,我曾作为美国出版物EE Times的外派记者在欧洲工作。当我不经意地表示对美国商业惯例的反感,认为这是对隐私的侵犯时,一些行业分析师告诉我: 在美国,消费者愿意用他们的私人数据来获取免费的东西。 至于美国的隐私保护,他们说, 很久以前火车就离开了站台。 现在提出来已经太晚了。

是这样吗?

自欧盟于一年前推出其通用数据保护法规(GDPR)以来,遵守GDPR的压力已扩展到美国的数据平台公司,这些公司的覆盖范围实际是全球性的。此外,即使在美国,加利福尼亚州去年也推出了加州消费者隐私法案(CCPA),该法案旨在增强对州居民的隐私权和消费者权利进行保护。这项规定被一些人视为是比GDPR更强大的保护政策,该法将于明年1月生效。

公众对隐私的重视正在美国迅速发酵。

美国的消费者或许姗姗来迟,但他们正在醒悟他们放弃隐私所付出的代价。将个人数据留在Facebook和谷歌这样的大型技术平台公司手中,而这些公司可能会或可能不会做合乎道德的事情;美国人发现,当他们的个人数据被黑客入侵、窃取、买卖甚至被可疑群体用来影响选举结果时,他们几乎没有任何追索权。

在大数据时代,隐私法正迅速成为任何数字安全对话的主要元素。对于那些业务建立在消费者数据之上的公司,消费者的信任正在发展成为其业务模式的重要组成部分。

相比之下,人工智能的 公平性 还处于20年前隐私讨论的处境。它还没有上升到许多人的意识层面,至少目前还没有。

我意识到在工程界,许多人认为 公平 这个话题是模糊的而且令人不快。在他们看来,这与他们在技术开发和软硬件设计方面的工作无关。

是这样吗?

一些读者认为,EE Times特别项目中所讨论的AI公平是 社会工程 。

许多此类评论暗示工程师们是被要求去操纵技术(或游戏算法或数据集),为了 政治正确性 而改变机器学习的结果,而 政治正确性 这个术语和 公平 一样有着相同的含义。

事实远非如此。

被AI解雇或被AI杀死

真正的问题是 歧视 ,这里暗指那些可能会扭曲机器学习结果的数据集的歧视。而这种歧视通过训练算法的优化策略又被进一步放大。

想想那些不完整的数据集,比如,它忽略了那些坐轮椅的人,忽略了那些穿着绿色荧光夹克的建筑工人们。基于这些数据集被训练的人工智能算法可能会杀死建筑工人,就好比玩保龄球游戏和使得坐轮椅比骑单轮脚踏车更危险。

在这种情况下,人工智能的不准确性最终可能会搭上人们的性命。显然,人工智能的机器决策对那些穿绿色荧光夹克和坐轮椅的人来说是 不公平的 。

市场对AI趋之若鹜,因为每个企业都在寻找自动化其部分业务的方法。在追求自动化的过程中,在整个决策领域,有意或无意地,我们开始屈服于机器。 AI所涉及的工作包括招聘、信用评分、客户服务甚至驾驶。

或许,要了解 AI 的不公平,你需要把自己想象成是机器决策触发的坏消息的承受者。

如果某个 AI 算法算出某个年龄段的员工工作是多余的,那么这些不幸的工人有权质问AI为什么是他被解聘。他可能还想知道他的雇主所依赖的AI系统是否在不知不觉中被设计为对某个年龄组不公平。

一旦觉得被机器冤屈,你很可能会感到一定程度的愤怒,甚至可能比被一个混蛋老板解雇时更愤怒。

算法也是个混蛋吗?

这个问题暴露了一个令人不安的现实,即每个AI算法都是一个黑盒子。没人知道算法在做什么,无论是Facebook这样的社交网络巨头使用的算法,还是Waymo的无人驾驶赛车robocar使用的算法,这使得这个勇敢的新AI时代的一切都变得不透明和不确定。

本文地址:http://www.01pure.com/youxikaifa/60160.html 转载请注明出处!

今日热点资讯