虚拟仿真 【科技在线】

本报记者杨清透露了北京的报道

人工智能( ai )给人类带来的惊喜还在继续。

当地时间5月8日(北京时间5月9日凌晨),谷歌I/o开发者大会开幕。 大会上,引人注目的是谷歌助手打电话撒谎,不是吗? 预约理发店时间时,谷歌助手不仅清楚地表达了自己的预约需求,还应对了许多纷繁的谈话场景。 例如,如果理发店的工作人员通知所要求的12点到店的时间已经满了,附近的时间是只有下午1点15分的时间段,则再次询问是否有从早上10点到12点的列。

在前一次微软build开发者大会上,微软语音助理小娜也同样展示了自己的演技。 在智能会议室的现场展示环节,演示者使用搭载小娜的智能设备预约了会议室。 并且,每个参加者一进入会议室,小娜就可以读名字,自己打招呼,进行各种各样的交流,和普通人没什么不同。

但是人工智能真的像看起来那么聪明吗?

当今,由语音识别、拷贝翻译、计算机视觉等技术支撑的人工智能,并没有真正理解自己所接受的新闻的含义。 只是与默认模型一致。 5月8日,在接受21世纪经济新闻记者(以下简称《21世纪》)采访时,微软全球副总裁、微软亚太研发集团主席兼微软亚洲研究院院长洪小文直言,那只是一个黑匣子,仅此而已

与之相对应,人类可以理解。 除了了解自己知道的概念外,面对未知的事物,也可以根据自己过去的经验尝试理解、总结、举一反三。 这就是所谓的白盒。

值得观察的是,白盒虽有智慧,但有偏颇,黑盒虽机械,但更公正,其中各有优劣。 因为,洪小文认为,ai可以帮助人类完成一点专业的任务,面对需要拆解决定的环节,需要人类的智力,ai+hi (人工智能+人类智能)很重要。

但是,尽管ai本身还处于黑匣子阶段,搭载ai终端的智能边缘计算却出现了。 这几个从今年微软build开发者大会上频繁提到智能边缘计算,以及与大疆无人机、高通合作开发相关开发套件中也可以看出。 洪小文说,智能边缘计算一定会发生,特别值得期待。

黑匣子和白匣子

《21世纪》:今年的build大会上现场展示了智能语音技术。 目前,国外智能语音技术正在寻找智能扬声器,营造普及的落地场景,但在国内还在探索中举步维艰。 这背后有中文语音技术本身的问题吗?

洪小文:即使有方言,中文语音识别也不比英语难。 如果收集到了足够的数据,就不是问题。 海外智能音箱,特别是搭载亚马逊alexa的echo之所以普及,还是和亚马逊的电子商务本身有关,外国客户在亚马逊购物后,打算采用更方便的智能音箱进行购物。 另外外国客户的家空之间喜欢广泛地听音乐,本身就有扬声器的诉求,所以这种形式的终端很容易普及。

关于国内的客户,平时喜欢和自己的高端智能手机互动,体验用手机购物和听音乐等功能。 对这些客户来说足够方便直观,已经养成了这种习性,所以智能扬声器在国内并不普及。

《21世纪》:关于声音技术,你说识别不是问题,现在的问题在哪里?

洪小文:目前,人工智能对语音的反馈有三个阶段。 认识、理解和提供服务。 问题的难点是理解。 因为你试图理解的副本本身有无限的组合。 因为没有模型,所以光靠构建模型是无法进行的。 这也是更复杂的言外有意的情况。 今天的ai只是一个黑匣子,但理解本身就是白匣子,也就是人类所拥有的能力。 不仅可以理解收到的新闻本身,还可以推测自己不知道的新闻,部分理解其意义。 这对今天的ai来说非常费解,需要更新的技术。

《21世纪》:黑匣子和白匣子有应用极限吗? 还是黑匣子需要改成白匣子?

洪小文:对于一点推理过程来说,一定需要一个白盒。 没有白盒的系统不容易推理。 即使可以推论黑匣子,也只存在于某个输出正好是下一个输入的情况下。 这就是黑匣子的极限。

但是,黑匣子也有好处,从某种角度来说,它是不偏不倚的,是什么,很公平。 白盒推理有一个默认的角度。 例如,人们的心理状态多少有些偏见。 例如,关于堕胎和性别倾向等容易引起争论的各种问题,都来源于每个人的既定角度。 用这个角度推论的东西必然是偏的。 不能打黑匣子。 法官这样的角色需要黑匣子的思考,所以怎么输入就怎么输出。

因为,现在的合理状态应该是ai+hi (人工智能+人类智能)。 虽然ai可以致力于过程性分解,但是深入的分解、理解、创造仍然需要依赖人类。

可解释的ai

《21世纪》:尽管人工智能还处于黑匣子阶段,但无法解释和理解,无法正确了解内部的结构,从而导致对人工智能的不信任。 实际上,近欧盟也在谋求ai算法的透明化。 你怎么理解这个无法解释的ai?

洪小文:首先,我们来谈谈可以解释的ai。 可解释的ai有两个含义。 第一个意思是,从输入新闻得出结果,可以知道得出结果的理由的角度来说,我想那就可以解释了。 只是,解释的过程非常多且复杂。 例如,阿尔法go在采用强化学习后,最后在棋盘上掉了下来。 虽然不能说明其背后的决定规则,但是我知道是采用强化学习迈出这一步的。 这一步的目的是赢得国际象棋。 只有不知道结果背后的规则是怎样的,才能知道结果,而且一定有规则。 只是,这个规则复杂到不能包罗万象。 这就是可以解释的ai。

一般不能说明的ai,在我看来其实是第二层意思可以说明的ai。 也就是说,这是黑人识别为黑猩猩等普通人无法理解的结果。 我认为这仍然是可以解释的ai。 产生这样的结果是因为训练数据有偏差。 因为这还可以解释。

另外,设计ai系统的人能否预测输入新闻、得出结果后的结果。 如果能够预料到这个结果,一定会准备一系列的理论进行说明,即使遇到危机的情况也能有自己的逻辑。

《21世纪》:因此,从技术角度来说,一般意义上的ai不可解释性是由于数据的偏差。 在这种情况下,ai技术人员可以做什么?

洪小文:数据偏差造成的后果很严重。 以实际生活为例,例如,当某人判断不能贷款时,由于该人来自平均收入较低的地区,根据该基础规则设定的ai将进一步招致偏见和歧视。 对于技术人员来说,事先知道有这样不合理的漏洞,能否堵塞漏洞是其职责。

智能边缘来了

《21世纪》:无论人工智能现在的实力如何,都已经有很多应用,也有在终端上的应用。 与往年相比,今年的微软build大会上智能边缘计算频繁出现,您对未来应用的领域和场景有什么看法?

洪小文: ai APP刚发生的时候,大部分都发生在云端。 但是,现在以视觉APP为例,视频拍摄装置从4k进化到8k,像素数也相应地大幅增加,数据量爆炸性增加。 即使今后5g技术迅速发展,也需要传输庞大的数据量。 因此,我们大胆预测,在多个视觉相关服务和智能工厂等场景中,将会发生大量的终端计算。

《21世纪》:边缘计算场景的优点是什么?

洪小文:大部分数据培训发生在云中。 因为云在数据收集和训练上很有特点。 但是,在智能工厂、智能安全等场景中,需要即时反馈,这大部分终端至少需要运行和识别的能力,所以需要崩溃。

除了传输速度之外,还存在传输能量的问题,大量的数据传输必然存在大量的能量消耗。 事实上,在智能工厂中,即使终端与云交互,也会将短距离传输一起传输到云。 既然有了汇总过程,在这个过程中可以给本地一点解决和智能的功能。 从能源消耗的角度来看,这种方式也是节能的。 所以终端计算必然会发生。

标题:“AI带给人类的惊喜还在继续”

地址://www.manthraah.com/lyxw/21186.html