专访国际人工智能理事会主席杨强:步入下一个AI寒冬的隐患

"我现在正在前线做一些事情来防止(人工智能)变冷."当被问及当前的人工智能浪潮是否会像历史上的几个浪潮一样短暂时,国际人工智能理事会主席兼香港科技大学计算机科学与工程系系主任杨强告诉这位风起云涌的新闻记者。

在他看来,人工智能今天已经突破了计算能力和数据资源的瓶颈,但隐患在于一个“部分”字。例如,在学术研究方面,虽然国内高校已经开始设立人工智能学院和专业,并有望在五年内培养出一批人工智能人才,但许多高校直接将机器学习与人工智能等同起来,逻辑、神经病学等不受欢迎的领域的研究与国外有很大差距。

同样,人工智能产业发展迅速,但它过于强调计算机视觉在安全领域的布局,许多要求尚未得到充分探索。

近年来,杨强所做的是超越专门针对一个领域的深入学习框架,开发机器学习方法,如两个或多个领域之间的转移学习和联邦学习。

他希望多方能够实现数据共享和模型构建,而不泄露他们的数据隐私,从而打破数据碎片的孤岛。在这样的合作框架下,各方享有平等地位和一定的“主权”,但走向“共同繁荣”,就像一个联邦国家。

杨强正与微型银行和其他机构合作,试图利用联邦学习来完成人工智能应用的最后一英里,并促进人工智能在金融、城市管理和其他领域的登陆。"人工智能算法的数据无法更新,就像一辆没有汽油的好车一样."

这位出生于1961年的计算机科学家是第一位被选为国际人工智能协会院士的中国人。他似乎非常擅长从主流角度看待问题。例如,当许多人在讨论机器是否能像人类一样实现无监督学习时,杨强认为无监督学习是一种幻觉,人类监督学习隐藏得很深。如果算法做得足够好,它可以像人类一样从一张简单的照片中提取出无数的标签。

此外,人脑的“软件”已经被称赞了无数次,但“硬件”的优势往往被忽视。杨强注意到人体充满了帮助人脑获取信息的精巧传感器。在硬件发展跟不上的情况下,用算法实现普适性强的人工智能只是奢望。

“只是现在每个人都在摘低挂的水果,还没有深入思考。”杨强说。

以下是汹涌澎湃的记者和杨强之间对话的真实记录。

联邦学习:人工智能应用的最后一公里

澎湃新闻:可以说从深度学习到迁移学习和联邦学习之间存在着渐进的关系?

杨强:迁移学习和联邦学习的共同点是在两个或多个领域之间,这与深度学习完全不同。在一个领域进行了深入研究和以前的研究。

它在两个领域进行。第一层涉及知识转移和共享。第二层涉及加密和安全性。

例如,有一家保险公司根据一些非常粗略的尺寸给汽车保险定价,例如司机的年龄和汽车的年龄。为什么只能出这么高的价格?因为它对用户知之甚少。如果有一个非常年轻但开车非常小心的编码农民张三,他不能理解这一点,也不能个性化这一点。

现在它可以与移动互联网公司合作了。接线员有张三的行为数据,但他对保险领域一无所知。双方都需要合作,但他们不愿意将数据透露给对方,以免出现失控和监管不严的问题。

联邦学习正是为了帮助,不是为了交换数据,而是为了在重叠的数据上建立一个更好的模型。

澎湃新闻:当前联邦研究的着陆场景是什么?

杨强:横向联盟学习的场景是所有各方都有一部分用户数据,而这些用户是不同的。他们可以使用加密共享共同构建模型来获得更好的模型。然而,这个模型不需要使用所有用户的数据。假设有1000万手机用户。您可以从其中选择更有用的300万,并构建一个分布到数千万用户的水平模型。

另一个是纵向联邦学习,这意味着这两个组织输入的数据相同,但维护的数据不同。例如,一个收集用户的年龄和性别,而另一个收集用户的学习成绩和他们的日常必需品。

就金融而言,横向联邦学习场景是许多不同的银行具有相同的维度,都知道信用和还款信息,但是用户不同,因为他们位于不同的城市。

垂直联邦学习是同一个城市和同一个用户,但他接受不同的金融服务。例如,面对小微企业的贷款,我们需要了解这些企业的税收情况和经营情况,但银行没有这部分数据。我们可以找一些专门处理发票的机构来合作。

此外,我们还在探索一些非常不同的业务。例如,我们正与深圳的一家公司合作。它们是工作场所的安全视频检查,是否有火灾,工人是否戴帽子等。然而,不同的建筑工地和不同的公司不愿意交换这样的数据,所以联邦学习可以用来建立一个联邦模型。这种工具比个人数据更可靠。

澎湃新闻:从实验室转移到工业基地的主要困难是什么?

杨强:联邦学习是多党参与。因此,首先,在我们有兴趣参与之前,我们必须确保每个联盟都将受益于机制设计。其次,每个人的数据都有不同的维度、大小和质量。在设计算法时,应该考虑异构框架,这比同构框架更困难。最后,必须就什么是成功达成共识。

这就像一个人打乒乓球,五个人打篮球。我们希望形成雪球效应。可以说联邦学习已经为算法铺平了道路。关键取决于许多方面的投入。

汹涌的新闻:联邦学习在人工智能授权行业的进程中将扮演什么角色?

杨强:我称之为人工智能应用的最后一公里。最后一英里意味着,除非你能到达用户区,否则你最终将无法连接好。那么什么是不相关的呢?是数据。

人工智能算法需要大量的数据,这些数据无法更新。最后,它就像一辆没有汽油的好车。

所以在我看来,最后一公里非常重要。只有通过这种合作,大数据才能真正建立起来。

无监督学习是“假象”

爆炸性新闻:人工智能有一天能从过去中吸取教训并向他人学习吗?

杨强:还有很长的路要走,但是我们现在做的一些实验已经证明了这是可能的。例如,在转移学习之前,一些博士生和研究人员设计了它。现在有一种叫做自动机器学习的算法,它与转移学习相结合,成为自动转移学习。

自动迁移学习是什么样的?例如,看到自然语言领域的新需求,它将把已建立的模型和新应用程序之间的差异转化为目标函数,从而设计出一种算法。整个过程可以自动化。如果能做到这一点,机器就有可能从其他例子中学习推论,但仍有很长的路要走。

澎湃新闻:你认为人们更加关注的深度学习瓶颈是什么?

杨强:事实上,人们现在关心的问题之一是可解释性,因为深入学习是一个黑匣子。我认为这个问题迟早会解决的。为什么?你看,人类大脑实际上在某种程度上正在进行深度学习。每个人的大脑都有许多对身体进行深度学习的神经元。同时,我们可以解释我们的一些决定。医生可以向病人解释为什么开这种药,老师也可以向学生解释什么是错的。人们有这种功能,我相信机器肯定能开发出类似的功能,但是我们现在还没有找到办法。

此外,深度学习的稳定性也是世界上的一个热门研究课题。目前,许多人工智能会被虚假数据所欺骗,这表明人工智能的鲁棒性不是很好。

这很自然。一种技术出现后,人们将开始关注非功能属性,如健壮性、可伸缩性、透明性等,引发第二波研究。以前的数据库和互联网技术也是如此。

爆炸性新闻:有可能实现无监督的深度学习吗?

杨强:我认为无人监管是一种幻觉。每个人都在比较人们做无监督学习,但我的观点是,人们做的是有监督学习,但监督隐藏得很深。

例如,如果你给某人看一朵花,你可以稍后认出它。这是因为这个例子实际上包含了很多信息,目前的算法只能从上面得到一个肤浅的信息,但是仍然有一些深层的信息。

这就是算法的不足之处。算法完成后,所有无监督的数据都将被标记。包括为什么孩子们学得很快?这是因为他的父母以前做过预培训,这与迁移学习的方式非常相似。

我想我们将来一定能从一张图片中找到很多深刻的信息,然后我们可以训练自己彼此靠近。只是现在每个人都在摘低挂的水果,还没有深入思考。

澎湃新闻:你对强大的人工智能有什么期望?

杨强:强大的人工智能是普遍的。一个模特可以做很多事情。人必须是做n件事的模型,但机器现在是只做一件事的模型。我认为强大的人工智能可以在未来实现,但它可能不会以我们现在的方式实现。

为什么?目前的方法是我们准备大量的数据,然后训练一个模型。人们就是这样运作的。人们被比物联网强大得多的传感器覆盖着。因此,除非硬件达到这个水平,否则只谈论人工智能算法是奢望。目前的情况是硬件远远落后,我们必须等待它赶上来。

研究一些不受欢迎的领域

澎湃新闻:从学术界到工业界,你对中国的人工智能生态有什么宏观观察?

杨强:首先,我认为中国的人才培养形势非常令人满意。许多大学正在建设人工智能学院和专业。五年后将会出现大量的人工智能从业者,可能会出现各种各样的情况,但没关系,肯定会有一些精英。其次,国内人工智能产业的发展也相对繁荣。许多公司已经建立了人工智能部门,这是特别好的。

然而,在相对不受欢迎的研究领域,中国与外国仍有很大差距。与许多外国大学都有逻辑推理领域的教授相比,机器学习在中国通常等同于人工智能。此外,中国对神经病学和人工智能相结合的研究比其他国家少。在这些方面,我希望我不要那么功利,而是要研究一些相对不受欢迎和奇怪的方向,这些方向目前没有取得多大进展。

澎湃新闻:总的来说,当前的人工智能浪潮会降温吗?如果天气变冷,原因可能是什么?

杨强:我现在正在前线做些事情来防止他们感冒。过去天气寒冷有几个主要原因,一是计算能力跟不上,二是数据资源不足。现在既有计算资源也有数据资源,但案例制造还不够。

例如,计算机视觉现在主要用于政府安全和其他领域。事实上,这个行业有很多需求,但每个人都做得太多了,没有充分探索。如果一个行业只有一个支柱,那就非常危险。如果人工智能只有远见或者是政府安全的支柱,它也是非常危险的。

你是说有进入另一个冬天的危险吗?有。第二年冬天可能是每个人在蜂房里做的事情还没有真正完成的时候,这群人可能会失望。然而,那些试图做不同事情的人现在可能会有新的惊喜。

澳洲三分 北京28下载 安徽快3投注


《松树》10月10日正式发售 限时9折发售中

罕见老手艺“重出江湖”

猫宁联合发布5G战略:在手机存量时代提升零售效率

被问baby却不停擦汗转移话题 黄晓明晒照疑回应婚变传言

沪指跌0.09% 银行行业跌幅最大