㈠ ai在辩论场上战胜人类是可喜还是可悲”这个论题的关键在哪关键词是什么
技术是由人发明的,程序是由人编写的,不是技术战胜了人类,而是人类集体智慧的结晶战胜了某个人或某几个人。
㈡ 2019年AI人工智能领域都发生了什么
作者 | David Foster
译者 | Sambodhi
2019 年无疑是忙碌的一年。人工智能的进步和新闻频频登上头条新闻,让我们的生活充满了敬畏和自豪的时刻,但一些其他时刻充却斥着一种恼人的想法,那就是这项技术让人们发现,我们的社会并没有准备好迎接人工智能的普及。
2019 年,究竟是人工智能进步的一年,还是幻灭的一年呢?随着研究人员攻城略地,迅速攻克以前难以企及的基准,今天,我们可不可以这样认为,这个领域已经正在步入稳步发展的轨道呢?
在 ADSP(Applied Data Science Partners,意即“应用数据科学合作伙伴”)网站上,我们想后退一步,把 2019 年的人工智能界发生的事件整理好,以让公众能够有个全新的视角。在聚光灯下,重要的是要将一项工作最初吸引人们的兴趣,与它的实际重要性,以及它对该领域产生的影响区分开来。为此,本文将展开人工智能故事的平行线索,并试图分离出它们的意义。多亏了我们出色的内容作家 Elena Nisioti,她将这些故事讲得如此精彩!
让我们坐下来,一起回顾 2019 年的人工智能领域的方方面面。
处在文艺复兴时期的领域如果让我们用一句话来描述 2019 年的人工智能现状,那很可能是:“强化学习(Reinforcement Learning )回归,看起来将永存”。
到目前为止,我们中的大多数人可能已经熟悉了监督式学习(Supervised Learning):有些人收集了大量的训练数据,将它们馈送到机器学习算法中,然后得到一个模型,这个模型可以为我们进行预测和分类。我们中的一些人甚至可能有这样的印象:即,人工智能就是监督式学习的同义词。然而,监督式学习只不过是我们今天拥有的 众多类型的机器学习 中的一种罢了。
在强化学习(Reinforcement Learning,RL)中,智能体用试错的方法,通过与环境进行交互来学习,这种环境会给它们的行为提供奖励回报。当涉及到多个智能体时,它们被称为多智能体强化学习系统(Multi-agent Reinforcement Learning System)。
这个领域已经存在几十年,从概念上来讲,它听起来比监督式学习更像是一种合理的创造智能的学习机制。然而,直到 2015 年,DeepMind 才获得了人们的关注,当时 DeepMind 使用深度 Q 学习(Deep Q-learning)创建了 Atari(雅达利) 游戏的智能体,这是一种结合了经典强化学习算法和深度神经网络的算法。2018 年,OpenAI 也通过 解决 Montezuma’s Revenge(一款被认为难度特别高的 Atari 游戏),从而在这一领域确立了自己的地位。
在过去的几个月里,事态升级了:
这些工作重新唤起了学术界对强化学习的信念,在过去,人们曾经认为强化学习效率低下,过于简单,无法解决复杂的问题,甚至连游戏的问题也不能解决。
今年,另一个大受欢迎的应用是自然语言处理(Natural Language Processing,NLP)。尽管研究人员在这一领域工作了几十年,但近些年的自然语言处理系统生成的文本听起来还是不够自然。自 2018 年底以来,人们的注意力已经从过去的词嵌入转移到预训练语言模型,这是自然语言处理从计算机视觉中借鉴来的一种技术。这些模型的训练是以非监督的方式进行的,这使得现代系统能够从互联网上的大量文本中进行学习。因此,这些模型变得“博闻强识”,并发展出了理解上下文的能力。然后,可以通过监督式学习进一步提高它们在特定任务上的表现。这种通过在不同任务上训练机器学习模型来改进模型的做法,属于迁移学习(transfer learning)的范畴,被认为具有巨大的潜力。
自去年 Google BERT、ELMo 和 ulmfit 等系统在 2018 年底推出以来,自然语言处理一直风头正茂,但今年的聚光灯被 OpenAI 的 GPT-2 给“夺走了”,它的表现引发了人们对 自然语言处理系统的道德使用的大讨论。
实践走向成熟今年,人们也见证了最近一些深度学习技术走向成熟。应用监督式学习,特别是计算机视觉技术,已经催生了现实生活中成功的产品和系统。
生成对抗网络(Generative Adversarial Networks,GAN)是一对神经网络,其中,生成器网络试图通过学习生成模仿训练数据的图像来欺骗判别器网络,现在已经达到了近乎完美的水平。对人工智能来说,创造虚假但又逼真的人物和物体的图像,已经不再是前沿领域了。从 2014 年生成对抗网络的引入 到 2019 年 NVDIA 开源的 StyleGAN,一图胜千言,我们用下面的图片来说明,这可能是理解该领域进展情况的最佳方式:
2019 年,人工智能创造的艺术品甚至脱离了过去几年的假设性讨论,成为了今天 博物馆装置和拍卖 的一部分。
计算机视觉还被应用于一些具有重大商业和社会意义的领域,包括自动驾驶车辆和医学。但是,人工智能算法在这些领域中的应用自然是缓慢的,因为它们直接与人类生活直接互动。至少到目前为止,这些系统还不是完全自主的,它们的目的,在于支持和增强人类操作员的能力。
研究团队正与医院密切合作,开发用于疾病早期预测的人工智能系统,并整理大量的健康数据档案,其中一个值得注意的例子,是 DeepMind Health 和 UCLH 之间正在进行的合作。然而,这些工作中的大部分仍处于试验阶段,迄今为止,唯一获得 FDA 批准的人工智能系统是 SubtlePet,这是一款使用深度学习增强医学图像的软件。
沉睡的巨人AutoML是机器学习的子领域之一,自 20 世纪 90 年代以来就一直存在,在 2016 年引起了人们的极大兴趣,但不知何故从未登上头条新闻,至少不像其他人工智能趋势那样。也许这是因为它并不那么花哨的性质:AutoML 的目的是通过自动化决策来使机器学习的实践更有效,而今天数据科学家是通过手动、蛮力调优做出的决策。
在过去三年中,我们对这一领域的理解已经发生了变化,今天,大多数大公司都提供了 AutoML 工具,包括 Google Cloud AutoML、Microsoft Azure、Amazon Web Service 和 DataRobot 等。今年,随着 学习进化人工智能框架(Learning Evolutionary AI Framework,LEAF)成为最先进的人工智能技术,人们的兴趣转向了“进化”(Evolutionary)方法。然而,AutoML 还没有达到可以让一个完全自动化的人工智能系统比人工智能专家团队执行更好的成熟水平。
对人工智能的担忧尽管取得了压倒性的成功,但今年人工智能领域也给我们带来了一些令人沮丧的故事。其中主要问题之一是机器学习模型中的偏见,这一问题直到 2018 年才显现出来,当时 Amazon 发现他们的 自动招聘系统中存在性别偏见,而美国法院广泛使用的判决工具 COMPAS 也被发现存在性别和种族的偏见。
今年案件的数量有所增加,这可能表明,公众和机构对用于自动化决策的现有人工智能系统越来越怀疑。以下是图景的一小部分:
今年 10 月份,某医院的算法被发现对黑种人患者存有偏见。 去年 10 月,某人权组织指责用于发放英国签证的人工智能系统存在种族偏见。 今年 11 月,Apple 的信用评分系统被客户指责存有性别偏见。偏见是一个特别令人担忧的问题,因为它位于监督式深度学习的核心中:当有偏见的数据被用于训练,且预测模型无法解释时,我们不能真正判断出是否存有偏见。迄今为止,学术界的反应一直是致力于开发技术,以了解深度模型决策背后的原因,但专家警告称,如果我们采用正确的实践方法,那么许多问题都可以迎刃而解。Google Cloud Model Cards 是最近的一次尝试,旨在使组织社区走向开源模式,同时明确描述其性质和局限性。
今年另一个让人担忧的发现是,当一项技术变得越复杂时,它被滥用的可能性就越大。Deepfake就是生成对抗网络的阴暗面,深度学习算法被用来在纯粹虚构的场景中创建涉及真实人物的图片或视频。人们不难看出,这项技术如何被用于传播虚假新闻,从政治宣传到欺凌。这个问题单靠科学家是无法解决的,历史已经证明,科学家并不善于预测他们的发现对现实生活的影响,更不用说控制它们了,这需要社会各界进行广泛的对话。
今天的人工智能有多强大?如今,要量化人工智能的价值真的很困难。但有一点是可以肯定的:人工智能已经脱离了科幻小说和前卫计算机科学的领域,现在,人工智能已成为社会不可分割的一部分,人们对人工智能进行了大量的投资。
今年早些时候,三名主要的深度学习研究人员获得了图灵奖,这是对人工智能作为计算机科学的一个领域的认可,而人们对此期待已久。
㈢ 第四范式涂威威:AutoML 回顾与展望
AI 科技 评论按 ,本文作者第四范式涂威威,该文首发于《中国计算机学会通讯》第15卷第3期,AI 科技 评论获中国计算机学会授权转载。
自动机器学习的研究动机
机器学习在推荐系统、在线广告、金融市场分析、计算机视觉、语言学、生物信息学等诸多领域都取得了成功,在这些成功的应用范例中,也少不了人类专家的参与。Google、 Facebook、网络、阿里巴巴、腾讯等 科技 公司依靠其顶尖的机器学习专家团队来支撑机器学习在企业内部的各种应用,各类科研机构也在花费大量经费,维护着机器学习科学家团队。然而,对于很多传统企业、中小型企业和一般的科研机构,就很难组建出这样的机器学习专家团队,其原因是机器学习专家的缺口太大,人才短缺,人才抢夺激烈,专家团队的管理成本高昂和专家经验不可复制,等等。
为了机器学习能为更多的企业赋能,在更加广泛的场景得到应用,有没有低门槛甚至零门槛的机器学习方法,让更多的人可以在很少甚至几乎没有专业知识的情况下轻松使用,并减少机器学习应用落地对专家人才的依赖?自动机器学习(Automatic/Automated Machine Learning, AutoML)应运而生。其研究目的就是为了使机器学习过程自动化,减少、甚至完全规避人类专家在这个过程中的参与度。
理论出发点
设计机器学习算法是一件困难重重的事情,能否找到一种通用的机器学习算法来解决所有的机器学习问题呢?这个问题在 20 多年前就被解答过,对于所有可能的问题,可以证明的是,如果所有问题同等重要,所有的算法,包括完全随机的算法,它们的期望性能是一样的,所有的算法没有优劣之分,这是著名的没有免费的午餐 (No Free Lunch, NFL)定理的一个不太严谨的直观阐述。
这个定理意味着寻求一种完全通用的机器学习算法是行不通的。于是,研究人员就开始针对不同的问题展开对应的机器学习研究,这导致了机器学习技术广泛应用不可复制的问题。在解决某个特例问题的机器学习算法和针对所有问题完全通用的机器学习算法之间,有一种可能性是存在可以解决某一类而不只是某一个特例的相对通用的机器学习算法。自动机器学习就是从这样的理论考虑出发,试图去寻找更加通用的机器学习算法。
目前自动机器学习研究的主要场景
静态闭环自动机器学习
静态闭环自动机器学习考虑的是静态机器学习问题,即给定固定的训练集,不利用外部知识,寻找在测试集上期望表现最好的机器学习模型。经典的机器学习流程包括数据预处理、特征处理和模型训练。自动机器学习在这三个流程中都有广泛的研究 :
(1) 数据预处理中,研究数据的自动清洗、样本的自动选择、数据的自动增强、数据类型的自动推断等,以达到理解原始数据和提升数据质量的目标。
(2) 对特征处理方法的研究主要包括自动特征生成和自动特征选择。自动特征生成的研究包括单特征变换、多特征组合、深度特征生成、特征学习等。自动特征选择一般会配合自动特征生成使用,先自动生成特征,再进行自动特征选择,对于复杂的特征处理,一般两者交替迭代进行。
(3) 模型训练的研究一般包括自动算法选择和自动算法配置。自动算法试图从广泛的机器学习算法中选择适合问题的某一个或者某几个算法,这些算法又有很多的超参数需要配置,自动算法配置则研究如何进行超参数选择配置,比如如何配置神经网络结构,实际应用中这两者也会配合使用。
外部知识辅助的静态自动机器学习
外部知识辅助的静态自动机器学习试图借鉴人类专家选择数据处理方法、特征处理方法、模型训练算法等的方式进行自动机器学习。人类专家会从以往处理过的机器学习问题中积累经验,并将此推广到之后的机器学习问题中。
动态环境的自动机器学习
动态环境下的自动机器学习研究试图解决的是数据不断积累、概念发生漂移时的问题。
核心技术
自动机器学习的研究核心是如何更好地对数据处理方法、特征处理方法、模型训练方法等基础部件进行选择、组合以及优化,以使学习到的模型的期望性能达到最优(见图 1)。
目前该项研究主要面临三个难点 :
(1) 超参配置与效果之间的函数无法显式表达,属于“黑盒”函数;
(2) 搜索空间巨大,可能的处理方法和组合是指数级,同时不同处理方法拥有各自的超参数,当特征维度超过 20 时,其多目特征组合可能的搜索空间都将远超围棋可能的状态空间 ;
(3) 函数值的每次计算大多涉及数据预处理、特征处理、模型训练的全流程,函数值的计算代价极其昂贵。为了解决这些问题,采用的核心技术是基础搜索方法、基于采样的方法和基于梯度的方法。
图1 自动机器学习的框架
基础搜索方法
搜索方法中最常见的是格搜索方法。该方法通过遍历多维参数组合构成了网格寻求最优化,容易实现,应用广泛,但是,搜索复杂度随参数维度呈指数增长,并且会将搜索浪费在不太重要的参数维度上。随机搜索方法则是对参数空间进行随机采样,各个维度相互独立,克服了维度灾难和浪费资源搜索的问题。在实际应用中,随机搜索方法往往表现得比格搜索要优秀。
基于采样的方法
基于采样的方法是被研究得最多的方法,大多也是具有理论基础的方法,往往比基础搜索方法表现更优。这类方法一般会生成一个或者多个对样本空间的采样点,之后再对这些采样点进行评估,根据评估的反馈结果进行下一步采样,最后寻找到相对较优的参数点(见图 2)。基于采样的方法分为以下四类:
图2 基于采样的方法
该方法试图建立关于配置参数和最终效果的模型,并依据模型来寻求最优化。这类方法一般先基于已经采样到的点的效果评估建立模型,然后基于学习到的模型采用某种采样策略来生成下一个或者下一组采样点,根据新的采样点得到的效果进一步更新模型,再采样迭代,如此寻求对黑盒函数的最优化。由于待优化的函数是“黑盒”函数,在求解过程中只能获得函数值而不能直接计算函数梯度,因此也被称为零阶优化方法(零阶是相对于传统计算一阶或者二阶梯度的优化方法)或者非梯度方法。
这类方法有两个主要的关注点 : 模型和采样策略。构建的模型一般用来预测配置参数对应的效果。由于采样依据的模型仅仅是依据之前采样得到的点的反馈学习,对函数空间未 探索 区域的估计一般是不太准确的,采样策略需要在函数最优化和空间 探索 之间做出权衡,即在开发利用 (exploitation) 和 探索 (exploration) 之间做出权衡,简称 E&E。
贝叶斯优化是一种基于概率模型的方法,一般采用高斯过程、贝叶斯神经网络、随机森林等作为模型,然后采用提升概率、提升期望、交叉熵、GP-UCB 等作为采样策略,这些策略都在显式或者隐式地进行 E&E。最常见的是基于高斯过程的贝叶斯优化方法,这类方法在参数维度较低、采样点较少时表现较优,但是在高维、采样点较多时就很难被使用,因此有学者尝试使用贝叶斯神经网络解决这样的问题。
基于分类方法的随机坐标收缩方法 (RAndom COordinate Shrinking, RACOS) 和基于随机坐标收缩分类模型来进行基于模型的零阶优化,有效地解决了贝叶斯优化方法的计算复杂度高、参数类型受限的问题,它一般采用最简单的 ε-greedy 方法来进行 E&E。随机坐标收缩方法被证明在高维度场景下显著优于基于高斯过程的贝叶斯优化方法。
局部搜索方法一般定义某种判定邻域的方式, 从一个初始解出发,搜索解的邻域,不断 探索 更优的邻域解来完成对解空间的寻优。最常见的方法有爬山法、局部集束搜索等。局部搜索简单、灵活并易于实现,但容易陷入局部最优,且解的质量与初始解和邻域的结构密切相关。
启发式方法主要是模拟生物现象,或者从一些自然现象中获得启发来进行优化,最典型的就是基于演化计算方法。这类方法由于很少有理论依据,实际工作中很难对方法的效果进行分析。
这类方法能够发现一些新的神经网络结构,并被验证具有一定的迁移能力,但是由于强化学习自身的学习算法研究尚未成熟,其优化效率相对低下。
基于梯度的方法
由于对优化部件以及超参数的可微性要求较高,并且计算复杂度也高,因此,直接对优化目标进行梯度求解的方法很少使用。
研究热点
自动机器学习的研究热点是效率和泛化性。解决自动机器学习的效率问题是自动机器学习技术落地的关键之一。效率优化包括六类 :
(1) 混合目标优化,将参数点的评估代价也作为优化目标的一部分,在计算代价和效果之间做权衡。
(2) 同步并行化和异步并行化。
(3) 提前停止迭代,在训练早期就剔除一些表现不太好的参数,节省计算资源,比如最经典的逐次减半策略,每过一段时间都剔除其中一半不好的参数,极大地节省了计算资源(见图 3)。
(4) 对模型训练进行热启动,复用类似参数的训练结果,降低超参数的评估代价。
(5) 对数据进行采样,采用小样本上的参数搜索来代替全样本的参数搜索,由于小样本和全样本最优参数之间可能存在着差异,有一些研究人员试图学习小样本和全样本之间的关系来进行多保真度的自动机器学习(见图 4)。
(6) 将超参数搜索和机器学习过程结合起来,进一步提升效率和效果,比如基于种群的方法。
机器学习关注的核心是泛化性,自动机器学习的目的也是为了提升最终学习到的模型的泛化性。
图3 逐次减半策略
图4 多保真度的自动机器学习
如何判断自动机器学习是否提升了泛化性,一般采用切分训练集和验证集的方式进行估计。为了进一步降低过拟合到验证集的风险,有一些研究关注如何对模型的泛化效果进行更合理的估计。除此之外,由于自动机器学习往往伴随着很多次不同参数的模型学习,与最终只选择一个“最优”的模型不同,选择其中一些模型进行集成学习也是一种提升泛化性的方式。越来越多的工作混合多种效率优化和提升泛化性的策略对自动机器学习算法进行优化。
落地应用
来自不同数据之间解决问题手段的可迁移性 / 可复制性为自动机器学习的落地增加了难度。解决不同问题的手段相似性或者可迁移性 / 可复制性越高,自动化越容易,反之越难。目前自动机器学习落地的应用场景主要有图像数据和表数据。
图像数据
深度学习取得成功的领域来自图像。深度学习的核心在于“自动”学习层次化特征。以前的图像分析需要人工来做,要从原始像素中提取非常多的特征,而深度学习很好地解决了这个问题。深度学习使得特征可学习,同时将人工特征设计转变成了人工神经网络结构设计。对于这类数据,自动机器学习研究的核心是使图像领域的神经网络结构设计自动化。图像数据之间的相似性较大,原始输入都是像素,问题解决方案的可迁移性和可复用性也大,因此,自动机器学习在图像数据上的落地相对容易。
表数据
表数据是抽象数据,不同的表数据之间没有很强的相似性,不同表数据各列的含义千差万别,表数据还与实际业务密切相关,需要解决时序性、概念漂移、噪声等问题,因此自动机器学习在表数据上落地的难度较大,仅仅是自动神经网络结构设计是远远不够的。目前研究的热点还包括如何将分布在多个表中的数据自动转化成最终机器学习所需要的单个表数据。
未来展望
算法方向
在自动机器学习算法方面,未来的工作如果能在 5 个方向上取得突破,将会有较大的价值。
1. 效率提升。效率可从时间复杂度和样本复杂度两方面考量。在给定的计算资源下,更高的效率在一定程度上决定了自动机器学习的可行性,意味着可以进行更多 探索 ,还可能会带来更好的效果。另外,获取高质量有标记的样本往往是非常昂贵的,因此样本复杂度也是影响机器学习落地的关键因素之一。在外部知识辅助的自动机器学习中引入学件 (学件 = 模型 + 模型的规约),利用迁移学习,是未来有效降低样本复杂度的可能方向 (见图 5)。
图5 迁移学习与学件
2. 泛化性。目前自动机器学习在泛化性上考虑较少,泛化性是机器学习最重要的研究方向,未来需要加强。
3. 全流程的优化。与目前大部分自动机器学习只研究机器学习的某一个阶段(比如自动特征、自动算法选择、自动算法配置)不同,实际应用需要全流程的自动机器学习技术。
4. 面对开放世界。现实世界不是一成不变的, 自动机器学习技术需要面对开放的世界,解决数据的时序性、概念漂移、噪声等问题。
5. 安全性和可解释性。为使自动机器学习具有安全性,需要解决攻击应对、噪声抵抗、隐私保护等问题。如果自动机器学习系统被部署到实际系统中与人交互,则需要更好的可解释性。
理论方向
在自动机器学习理论方面,目前研究的甚少,对自动机器学习的泛化能力及适用性也知之甚少。因而,我们一方面要回答目前自动机器学习算法的适用性和泛化能力,另一方面也要回答哪些问题类存在通用的机器学习算法上和更广泛问题空间上的自动机器学习算法的可行性。
作者简介
涂威威
第四范式资深机器学习架构师、资深科学家。第四范式先知平台大规模分布式机器学习框架 GDBT 的设计者,带领团队将 AutoML 及迁移学习应用到工业界并取得显著的效果提升。
更多有关强化学习的学术和论文话题,欢迎点击 阅读原文 加入 AI 研习社强化学习论文小组~
㈣ 初生牛犊不怕虎,自古英雄出少年·华为的天才少年计划
依靠 天才少年 计划,华为取得了丰硕的科研成果。就在不久前,依靠天才少年 钟钊 及其团队,华为 实现了全球首个AutoML大规模商用。
AutoML是英文 Automated Machine Learning,即 自动机器学习 的简称。
2017 年 5 月,谷歌宣布创建了名为AutoML的AI系统,与之前的同类系统相比,该 AI 系统最大的特点是,能够创建自己的 AI 系统。这是一个划时代的成就。
就像第一次工业革命完全实现的标志是机器制造机器一样,AI 系统能够创建自己的 AI 系统,谕示着人类 社会 的信息革命,取得了突破性进展。
AutoML系统就是人工智能时代的人类 社会 的大脑,在突飞猛进的大数据,云计算,和信息技术各领域的不断突破的加持下,这个人类 社会 的大脑,将以极快的速度推进人类 社会 的信息化。
基于 AutoML系统的重要性和独特的战略地位,华为加强了AutoML系统的研发。
在华为内刊《华为人》的一篇文章中介绍,首批 天才少年 之一的钟钊带领自己的团队,把AutoML技术应用到手机上,实现了业界第一次将AutoML大规模商用的突破。
钟钊在AutoML技术的成就,只是华为 天才少年 计划取得巨大成就的缩影。
天才少年 计划启动以来,华为在部分领域迅速取得突破,研发出一系列意义深远的关键成果。
2019年6月,华为发起 天才少年 项目,作为任正非 拖着世界往前走 战略的重要举措。
两年以来,天才少年们已为华为作出了重要贡献,取得累累硕果。
钟钊及其团队的成就,就是其中之一。
华为 天才少年 的招聘非常严格,一般要经过多达七个步骤的流程。简历筛选、笔试考核、初次面试、主管面试、若干部长面试、总裁面试、HR面试。任何一个环节出现问题,都有可能失去进入华为的机会。
少年时代,是一个人活力无限,智力迸发的时代。
少年时代,不但是一个人学习知识的黄金时代,更是一个人创造力最旺盛的时代,初生牛犊不怕虎,自古英雄出少年。少年时代的长足进步,是一个人实现人生的关键。
可惜的是,应试教育下的少年儿童,在创造性学习中快速进步的可能,非常之小,这也说明了素质教育的重要。
任正非曾经说过,这些少年就像 泥鳅 一样,激活我们的组织,激活我们的队伍。
的确如此,这些受过良好教育的 天才少年 ,如果身处良好的环境,受到良好的保护和支持,就能爆发出惊人的创造力。
正如梁启超在雄文 少年中国说 中所论,
今日之责任,不在他人,而全在我少年。少年智则国智,少年富则国富,少年强则国强!
愿更多的少年天才脱颖而出,愿我们的祖国更强大!
㈤ 谷歌发布的人工智能服务工具AutoML如何使用
在加入谷歌一年后,1月18日凌晨,谷歌云负责人、首席科学家李飞飞通过自己的推特账号和博客宣布了谷歌云取得的里程碑进展:可自动设计、建立机器学习模型的服务——AutoML Vision。
AutoML Vison操作界面
那么谷歌是如何做到的?AutoML由控制器(Controller)和子网络(Child)2个神经网络组成,控制器生成子模型架构,子模型架构执行特定的任务训练并评估模型的优劣反馈给控制器,控制器将会将此结果作为下一个循环修改的参考。重复执行数千次“设计新架构、评估、回馈、学习”的循环后,控制器能设计出最准确的模型架构。
2017年3月份,谷歌就推出了机器学习服务Google Cloud Machine Learning Engine,帮助具有机器学习专业知识的开发人员轻松构建适用于任何规模、任何类型数据机器学习模型。不过,那时候的机器学习服务需要使用大量的数据,才能训练出一般(General)的预测模型,难以符合每家企业的需求。这次推出的AutoML则更进一步,直接为企业提供机器学习技术来建立自家的模型,也推动了谷歌“人工智能民主化”的战略目标。
不过,虽然谷歌称AutoML是市面上唯一提供类似服务的产品,但此前Clarif.ai、微软的认知服务,以及IBM的Watson视觉识别也能让曾提供给用户定制预先训练好的视觉、语音识别和决策模型的服务。
㈥ 华为“天才少年”顶级薪酬值了!实现全球首个AutoML大规模商用
2019年6月,华为发起“天才少年”项目,这是华为创始人任正非“拖着世界往前走”战略的重要一环。
在项目启动的两年以来,来共计17人入选,并在部分岗位取得了关键成果。
在华为内刊《华为人》的一篇文章中,提到了首批“天才少年”中钟钊的成果,在入职不到一年的时间里,钟钊与团队把AutoML技术应用到数千万台华为手机上,做到了在业界第一次将AutoML大规模商用的突破。第二年,又将研发端到端像素级AutoML流水线,成功将视频摄影原型算法的复杂度降低百倍,再次突破业界与学术界的极限。
在自述中,钟钊表示,跨过了学术研究将基础研究和商用落地同时进行,通过商用实战使用AutoML这个最新技术,可以说是在一边打仗一边造武器。“也许只有真正向下扎到根,这颗种子才能经受住风雨洗礼,破土而出。”
业内首个AutoML大规模商用
作为引领华为在“无人区” 探索 的年轻队伍,天才少年在内部被视为攻克世界难题的冲锋队。
按照华为此前公开的邮件,天才少年的工资按年度工资制度发放,共有三档,分别为89.6万-100.8万元、140.5万-156.5万元、182万-201万元。
虽然提出了具有吸引力的薪资,但华为“天才少年”的招聘标准非常严格,一般需要经历7轮左右流程:简历筛选、笔试、初面、主管面试、若干部长面试、总裁面试、HR面试。任何一个环节出现问题或表现不佳都有可能失去进入华为的机会。
钟钊则是在“天才少年”计划中拿到最高档位的员工。
公开资料显示,钟钊出生于1991年,本科就读于华中 科技 大学的软件工程专业。刚上大三的他,就在2012全国大学生数模竞赛中获得了湖北一等奖。而后前往中国科学院大学自动化研究所攻读硕士、博士,硕博阶段攻读专业都是“模式识别与智能系统”。
在自述中,钟钊提到受父亲影响,在幼儿园和小学阶段就已接触基础编程。
“我父亲是很早一批的北大学生,之前在中科院的高能物理所(原子能研究所)做研究,是钱三强何泽慧夫妇的学生,他最早是搞核物理研究,就是做两弹一星,主要是氢弹的研究。他们需要用计算机来进行核物理相关的计算,后来又转到计算机领域的研究了。父亲平时工作中有些东西是我可以接触到的,我还记得去机房和办公室找他,得穿鞋套来避免静电。等我父亲下班的过程我拿空闲的电脑玩小乌龟画画(LOGO语言),在DOS系统里寻找大学生上课时偷偷安装的新 游戏 。所以我的兴趣就是在父亲的潜移默化中培养起来了。”
2018年,钟钊去美国参加CVPR(IEEE国际计算机视觉与模式识别会议),偶然得知华为在布局AutoML(Automated Machine Learning)技术。强有力的算力和平台支持以及真实的业务场景吸引了钟钊加入华为。
入职后,钟钊的第一个任务就是研究如何用算法来弥补光学的不足,实现手机拍照超越单反拍照的效果,即通过AutoML技术在保证拍照出图效果的前提下,把算法简化下来,满足产品功耗、速度等指标的要求。
“现在情形下,我们面临的硬件上的约束是非常苛刻的,但通过两个月的拼搏,攻关取得了显著成效。”在钟钊的自述中,2019年到2021年,华为拍照算法在M、P系列多款手机中取得突破,其中AutoML这套系统或者说算法发挥了不可替代的作用。
目前,AutoML技术已成为部门的核心公共能力,也支持了视频、ARVR、河图等众多媒体的关键业务。
激活团队攻坚“世界难题”
钟钊所在的“天才计划”只是华为加强研发布局的一个缩影。
“这些少年就像‘泥鳅’一样,钻活我们的组织,激活我们的队伍。”任正非曾表示,未来3-5年,相信华为公司会焕然一新,全部“换枪换炮”,一定要打赢这场“战争”。
华为曾在一部视频中公开阐述如何培养“天才少年”。
华为云人工智能领域首席科学家田奇在视频中说,“天才少年”多数指的是25岁-30岁刚毕业的博士研究生,他们在这个时间,体力、智力、创新能力都是最好的。
在培养的过程中,田奇提到,第一步是沟通,了解他们的长处;第二步,“好钢用在刀刃上”,把业务痛点、难点介绍给他们,做好创新从0到1到N的链接;第三,鼓励他们主动发现问题、解决问题;第四,提供很好的实验室氛围,鼓励自由思考和讨论。华为对天才少年的期望是“做最强的接触研究,把这些基础研究的成果落地到行业中,最后沉淀到AI平台上”。
据华为官网显示,除了钟钊外,2019年入选华为“天才少年”的左鹏飞和李屹,目前已在华为从事云存储研究工作和操作系统形式化验证工作。
除了天才少年,华为在科学家等人才培养上也连续投入多年。
根据公开数据,华为至少拥有包括700多个数学家、800多个物理学家、120多个化学家,还有15000人在从事基础研究,以及6万多产品研发人员。同时,华为还与全球300多所高校、900多家研究机构和公司有合作,实施了7840个项目,已投资18亿美元,签署了对外付费的研发合作合同达1000多份。
在被问到如何评价基础研究是否有成效,心目中的科学家是什么样时,任正非曾经表示,“评价基础研究,不能采用量化的考核方法。我们应从一个很长的时间轴来看科学家讲的话,不能计较所有内容是否都具有现实性意义。费马大定理是用350年证明的,它并没有对法国经济起多大贡献,如果我们这么狭隘地看问题,人类怎么 探索 前进?但是我们有个约束,方向要大致在公司前进的主航道上。我们对科学家要多一些宽容,对不明白的东西,只要大致对准主航道,我们就多给一点宽容。”
“我们要加强基础研究的投资,希望用于基础研究费用从每年总研发费用150-200亿美金中划出更多的一块来,例如20%-30%,这样每年有30-40亿美金左右作为基础研究投入。”任正非说。
㈦ “AI”能自我进化吗
AI确实进化了,它能做的事情越来越多,成绩斐然。它的背后是AI实现路径的“三级跳”。但是“AI自开发短期内应该无法替代人的工作,还有很长的路要走。”徐文娟说。赵志刚从学术角度分析道:“只有当人类把不同应用领域的AI模型设计出来,并进一步分解出一系列通用模块,如同化学中的元素周期表、生物中的DNA、RNA,这种自开发才能有更多的应用。”
“仅需几行代码就能构建一个回归模型。”程序员认可谷歌AutoML的工作表现,认为AutoML设计的模型和机器学习专家设计的不相上下。日前,谷歌工程师分别在中国和硅谷重点推介谷歌AutoML项目。不明就里的疑惑紧跟着纷至沓来——AI又进化了?!已经会自开发了?能操控自己的进化了?是要摆脱人类吗?
国家超级计算济南中心大数据研发部研究员赵志刚说:“起初我们用数学公式和‘if……then’等语句告诉计算机第一步做什么、第二步做什么,手把手地教,后来给机器n组输入和输出,中间的规则或规律由它自己学会。”
“之前,很多聪明的头脑花一辈子时间研究:如何抽取有效的特征。”专注于智能导购对话机器人的智能一点公司CTO莫瑜解释道,“神经网络算法的发明、深度学习技术的出现,使得AI进化到2.0,抽取特征的工作由AI自己进行,我们的工作也随之发生了变化。”
用数学函数的模式很容易解释“1.0”到“2.0”的转变:如果把识别图像、语义理解、下棋等任务的达成都看成是不同的Y=f(X),即输入的“猫”的图片、声音或棋招是“X”,输出的“猫”、回答、棋高一招是“Y”。深度学习之前,人通过自己的分析寻找函数f对应的公式,告诉给AI。而深度学习之后,人输入大量的X与Y的对应,AI自己发现函数f对应的公式。
“AI找到的函数f的具体内容,可能比人找到的更好,但是人类并不知道,就像一个黑匣子。”莫瑜说,“但是f的形式是AI研究员通过研究设计出来的,如果使用深度神经网络,网络中的模块以及模块之间的组织方式也是提前设计的。”
随着深度学习技术的成熟和普遍化,模型构建出现了特定可追寻的经验。“各种共性神经网络的发布,使得从业门槛越来越低。一些普通的模型构建与优化,刚毕业的学生在网上学学教程就能上手。”赵志刚说。
当构建模型成为可习得的技能,AutoML就出现了。它能做的正是AI研究员的模型设计工作。“将帮助不同公司建立人工智能系统,即使他们没有广泛的专业知识。”谷歌工程师这样推介。AI成功进化到3.0。
事实上,AutoML替代的仍旧是人类能够提炼出经验的工作。“如果说之前人描绘一套寻找函数f的‘路网’,在深度学习的技术辅助下,机器能最快找到优化路径;那么AI现在可以自己设计路网了。”赵志刚言简意赅。
可以看出,不论是深度学习、还是AutoML,都只替代人类的一部分群体已经钻研透了的工作。“机器能做的事情,尽量不要手工劳动”,这是很多程序员的人生信条,这个信条催生了AutoML。本着同样的信条,微软开发了DeepCoder。“它可以用来生成满足给定输入输出的程序。”莫瑜说,但它的表现目前还不尽如人意,只能编写一些简单的程序。
谁是“上帝”答案毫无疑问,人类。
既然AI在进化中走向了更高一阶的模型设计,那么“上帝之手”又发生了哪些变化呢?
“炼丹”,莫瑜用两个字形象地说起自己的工作,“智能一点是专业做智能客服的,研发人员的工作主要集中于问题建模(如何将实际问题转化为人工智能技术解决的问题)和算法优化(如何提升人工智能算法的效果)。”
“炼”意味着不断地调试和完善。“针对特定的人,越投脾气越好,回答越精准越好。”莫瑜说,“我们的X是客户的问话,Y是机器人客服的回复,中间的函数f需要训练。”
这是个不容易的任务。如果把人类社会的经验分为3类:有公式的确定规则、可言传的知识、只可意会不可言传的感觉。最后一类最难琢磨。
“因此,我们想办法构建完善的闭环反馈,了解特定用户的喜好,通过情感、趣味的表达,最终做到投其所好。”莫瑜说,“目前处于人机协同的工作阶段,但是越来越多样本的获取,将帮助我们的智能客服给出精准的、讨喜的回答。”
可见,并不是所有领域都适合交给AI自开发去做,比如问题建模方面,如何将实际问题抽象转换为机器学习问题, AI还无法自主完成。在AI2.0阶段,研发人员还需要人工设计函数f的形式。