通信科技/NEWS CENTER

哥伦比亚教授周以真:大数据能做哪些恶?

发布时间:2017-12-30

  哥伦比亚大学教授周臻:大数据能做坏事吗?

  网易科技讯2017年10月11日在杭州云起会议的主要论坛上,达默斯学术咨询委员会十位科学家之一,哥伦比亚数据科学研究所所长周义镇先生发表了题为“数据为善:恐怖AI (大数据:可怕的人工智能和大数据威胁)“,在讲话中,她反映了大数据和人工智能可能带来的威胁,周一祯教授在讲话中提出了”很多关于大数据伦理的问题:谁应该负责使用偏见算法和不负责任的数据造成的严重后果?个人和阿里巴巴应该怎样处理?怎样才能用科学技术来保证科学技术是否公平透明?在她的演讲中,她使用FATES这个缩写来描述如何使用这些数据,F是公平的,A是可靠的,T是透明的,E是伦理的al和S是安全的。 “我想给大家一个警钟,我们在使用数据的过程中不负责任的话,会有什么样的后果。以下是关于周恩来有关言论的简短介绍,一个小小的审查,数据可以带来什么样的好处,我在这里有两个方面,一是我们有责任使用这些数据,二是需要使用数据来处理能源,环境,教育,气候变化等巨大的社会问题,这些都是人类的主要命题,但今天我要讲的是负责任的使用数据,因为我们都在使用数据和我们用数据来迎接社会的挑战,我的演讲的目的,给大家一个警钟,我们在使用过程中的数据不负责任的话,会有什么后果呢?我想用FACT(缩写)比喻简称谈如何使用责任,F是代表公平,A是可靠的,T是透明的,E是道德的,S是代表安全的。谁应该对数据有偏差导致的问题负责?所有,看数据,我会先和你分享,先是很简单的ta对于典型的算法和模型,我们使用大数据作为原材料,大数据计算,一些涉及的算法和模型。我们知道机器学习和一个模型的形成,用这个模型,我可以输入新的数据,新的数据,在这个模型之后,可能会产生新的结果,然后我们可以判断和预测这个用户有哪些产品可能被购买。我们知道数据和算法可能会有偏差,所以如果我们的数据和算法有偏差,那么我们的模型可能会有偏差,我们的结果将会有偏差。让我们来看一个例子,几年前,我们看到两个使用美国算法的小偷决定是否适合判断量刑过程,我们看到了这些自主开发的算法,算法被用来帮助裁判判断这些判罚,我发现他们对黑人和白人的判罚结果都不一样,结果不仅是这样,而且我们算法的一些问题本身是有偏见的这些算法是由哈佛大学的学者们开发的,这些算法虽然可以判断,但也可能是错误的,但是两者结合是不可能的,事实上,判断风险得分是不可能的,第二个例子是我的同事呢,和我的同事们在Google上研究广告,发现这些高薪工作更有可能向男性网民展示,看到这些高薪的就业机会会少一些广告,我们认为这不是广告IR。现在我们要考虑这个模型是否公平,这些类别是否公平。我们怎样才能确保这个案子提出另一个可靠性的问题。毕竟,当问题出现时,我们应该责怪谁?似乎这个问题很难找到一个好的答案,但是我们必须在IT界发挥作用,我们是发明这些算法的人,我们是使用这些数据的人,而我们是那些生成和收集那些数据和生成那些有这些结果的,我们要承受。如果你是一个企业,那么如果你是一个负责任的企业,你应该做什么,你可以先发布政策,宣布你的隐私政策,你必须遵守这些政策,如果有人违反规定,这政策,你必须修复你的漏洞。我的微软同事已经在微软研究院做了一些工作,我们看看人们遵守这个公共政策的规模和范围,这涉及到我们编程的语言,我们制作数据地图,这个地图每天晚上在微软运行,帮助我们找到我们的政策差距,所以自动化可以帮助我们在这个领域,让我们承担责任我们对我们发布的政策负责。 152层DNN如何保护其透明度?第三个关键词是透明度。透明度现在是一个大问题,特别是当我们处理这些深度神经网络的时候。我们是否应该相信这个结果?为什么我们相信这个结果呢?我们不知道该怎么做从科学的角度来看,我们实际上并不了解他们是如何工作的。在这种情况下,我们可能会导致一些问题。在给大家举个例子之前,让我先来介绍一下我们最大的DNN,它是一个152级的DNN,所以它被授予了2015年的Image.net大赛,在那里我们可以看到DNN共152层,我们问为什么要到152层,其实我们不知道为什么是152层,结果是这样,对于科学家来说,我们不但满足于这个答案,我们看这个DNN在什么情况下会出错。这个例子展示了我们在进行图像识别时如何使用这个DNN。小心。这是一个视频。在这个视频中,我们可以看到,当我们驾驶一辆汽车,我们开车时,我们可以看到有一个限速标志,右侧可见,右侧停止是停止,左侧是涂鸦45速限制,并且DNN识别右边的停止。它认为,这个涂鸦速度限制卡,不被认为是速度限制,在不到一秒钟的车程,我们可以看到车后面的车,当它非常接近,我们发现这个涂鸦标志也是停下来,但看到时已经太迟了,他觉得这时刹车已经太迟了,此时有可能会发生车祸,现在不仅是熊猫,猴子,还有我们刚才提到的一些例子,大家都能看到,如果我们不知道这个DNN是如何运作的原则,就有可能造成一些威胁,让我们来看一个例子,我们可以看到奥巴马在同一条轨道上,同样,用四种语言发出来,这是一个Youtube的乐趣,对于这样的音频流,你知道任何人都可以模仿任何人的发音,这可能是一个威胁。像阿里巴巴这样的大公司应该做什么?这不仅会造成技术上的问题,也不会成为散文写作的问题。应该说这是一个真正的问题。像阿里巴巴这样的大公司正试图解决其中的一些问题。欧盟也有这样一个政策,所有2018年的大公司都应该遵守这样一个关于数据相关问题的法令,否则你将被罚款或者你的营业收入的4%来生意好。这里有四个标准,一个是可以获得的权利,一个是被遗忘的权力,一个是数据可移植性,有一个可以解释的权利,在2017年到2018年之间,科学家们正致力于深入了解深层次的学习。最后是如何执行工作,能够清楚地解释,这是一个道德问题。在这里我们可以看到,这里是一列火车的问题,我们可以在这里看到一列火车过来,拉这里有一个选择,到底是通过转接员,是去上面的通道还是走下去的通道,以下可能是小孩还是肥胖的人,不管走哪条路,这都会涉及伦理问题。现在我们有了这个自动驾驶仪,我们必须做出这样的决定,比如面对类似的情况,汽车应该做什么样的决定。例如,右边有一个行人,但是这个人在人行道上有其他人。如果要避开这辆车,要逃避谁打什么是一个艰难的决定。这是一个假新闻问题。假消息在美国正在肆虐。这里应该说这个假消息传播并引发了很多问题。我们所有人都看到了微软的一个例子,一个叫做士兵的聊天机器人,一个聊天机器人非常受欢迎,在美国我们有点嫉妒。你们在中国有这么好的聊天机器人。我们在美国还没有这么好的聊天机器人。去年,微软也有这样一个聊天机器人。我们必须在24小时内关闭这个聊天机器人。为什么?因为我们看到由于互联网黑暗的一面存在,我们很快就发现聊天机器人被诱导引来了一些非常不好的话题,这些我们只认识到互联网,这也有一些坏消息传播很快,我们必须附上对道德的重视,要注意设计,而不是在使用的时候。另外一个例子是关于安全性和保密性,比如天猫小精灵,在你家或者汽车上,很容易黑客,所以物联网这样的平台,如果连上互联网这样的东西,很容易被坏人入侵,所以呢会有一些影响。如何运用科技保证自己的公正透明?回头看缩写词,FATEC代表公平和透明。在这方面科学技术能做什么?我们可以看到我们刚刚所说的,我们应该产生各种各样的可能性,有各种各样的模型模板,所以我们希望第三方人员来检查我们的一些产品,同样的道理,比如,他们提供这样的信息和数据,我和我的两个同事也写了一篇论文。如果你有兴趣,你也可以阅读。例如,如果您的数据受到控制,我们现在有许多这样的技术公司。正如您所看到的,一些科技公司正在尽全力确保他们想要使用人工智能和数据。例如,亚马逊,包括苹果,IBM,谷歌,Facebook等机构在内的深思,现在已经有更多的机构和个人加入进来了。人工智能可以造福于人类,但是我们应该在科技界承担这样的责任,确保我们能够取得良好的进展。我们现在有一些新的问题。我们现在有关于机器人的相关立法,也应该制定人工智能,那么人工智能也需要很好的规范,包括这样的平台,包括一些使用,人工智能,这样的管道也应该控制它,如果是要控制的话,谁来控制呢?例如,我们是否有消费者保护,保险政策和一些经济激励措施,以避免这种人工智能的不良应用?包括我们所有的产品是否需要许可证,以及公司是否还需要一个专门负责检查和审计的委员会。因此,我们对这个数据有一个负责任的态度,用它来充分利用它。谢谢。

伯莱娱乐

2017-12-30

更多内容,敬请关注:

伯莱娱乐官网:/

伯莱娱乐新浪官方微博:@伯莱娱乐

伯莱娱乐发布微信号: