2018年人工ai智能关键里程碑是什么?2019如何?
风靡全世界的人工ai智能到底会造福人类?还是会摧毁世界?2019年人工ai智能行业又会发生什么?让我们跟随AI大神们一起展望2019年人工ai智能行业的新发展。
人工ai智能是一门既可拯救世界、又可终结世界的技术。
为终止人工ai智能到底是利是弊的争议与炒作,外媒采访了一些与全球大型科技及工业公司合作多年的杰出人士,获悉了他们关于人工ai智能的正确发展方向的看法。
2018年人工ai智能的关键里程碑是什么?2019年又将会发生什么?以下是谷歌大脑联合创始人吴恩达、Cloudera机器学习总经理及FastForwardLabs创始人希拉里 梅森(HilaryMason)、Facebook人工ai智能研究院创始人YannLeCun和埃森哲全球人工ai智能负责人RummanChowdhury博士的见解。
回顾2018,展望2019,他们中的一些人表示:随着越来越多的人了解人工ai智能能做什么和不能做什么,关于人工ai智能终结世界的说法越来越少,对此他们感到很欣慰。但这些专家也强调,在发展人工ai智能的同时,计算机和数据科学家仍需采取负责任的伦理规范。
RummanChowdhury
2018年人工ai智能的关键里程碑是什么?2019年又将如何?
Chowdhury是埃森哲应用ai智能部门的总经理,同时兼任公司责任AI计划的全球负责人。2017年,她被BBC评为最具影响力的100位女性之一。
Chowdhury说到,在2018年,她很高兴看到公众对人工ai智能的能力和局限性的理解有所增长,也很高兴听到人们对人工ai智能带来的威胁进行了更均衡的讨论,而不是担心ai智能机器像电影《终结者》中那样掌控全球。随此而来的是人们对隐私、安全询问的警惕以及人工ai智能在塑造我们和后代中可能扮演的角色的质疑。
然而,公众对于AI的理解并没有到达她所认为应到达的层面。Chowdhury希望在未来一年里能看到更多的人利用教育资源来理解AI智能语音系统,并可以明智地质疑AI的决策。
她对科技公司与AI生态智能语音系统中的人开始考虑其工作的伦理影响的速度感到惊喜。但她希望看到AI社区可以采取更多实际行动,而非空喊道德口号。
她问道: 就伦理和人工ai智能方面,我希望除了电车难处,我们能深入研究AI将提出的那些困难的、没有明确答案的询问。如:该如何在人工ai智能和物联网监控间取得 合理 平衡?是既能保证安全,又能抵制深化现有种族歧视的惩罚性监控吗?应如何重新分配先进技术的收益从而不进一步扩大贫富差距?接触多大程度的人工ai智能可让孩子成为 人工ai智能土著 ,却又不被其操控或同质化?又该如何利用人工ai智能扩大教育规模并使教育全自动化,同时极大程度培养孩子的创造力和独立思考能力?
在未来一年里,Chowdhury预计全球各地政府将加强对科技公司的审查与管理。
她说: 人工ai智能及科技巨头所拥有的力量引发了许多关于如何监管该产业与技术的询问。2019年,我们将不得不处理这些询问。该如何监管一项具有多用途且结果受具体情境影响的技术?如何制定既不扼杀创新又不偏袒大公司(可承担合规成本的公司)的管理规定?监管范围又该如何确定?全球?国家?还是当地监控?
她还预计人工ai智能在地缘政治询问中扮演的角色会持续演变。
她说道: AI不仅仅是一项技术,更是经济与社会的塑造者。在这项技术中我们能反思、衡量、并实践我们的价值观。对于应建造什么和如何建造的影响上,产业应不要太当真。为了实现这一点,AI产业中常见的理念需要被摒弃,即使我们不构建它,中国也会,而创造正是力量所在之处。
她还说道: 我希望监管机构,技术及研究人员意识到人工ai智能竞赛不仅仅只关乎计算能力与技术敏锐度,就像冷战不仅仅关乎核能力一样。我们有责任以更公平、更公正、更公开的方式去重建世界。这是一个难得的机会,转瞬即逝,我们要抓住这个机会。
从消费者角度来看,她相信2019年人工ai智能将在家庭中应用更加广泛。许多人已更习惯于使用ai智能音箱如GoogleHome和AmazonEcho及其他很多ai智能设备。她很好奇在这方面是否会有特别有趣的东西会从于19年1月第二周将在拉斯维加斯举办的消费者电子展览会中脱颖而出,这可能进一步将人工ai智能融入人们的日常生活。
她说: 我想我们都在等一个电话机器人管家的出现。
2018年人工ai智能的关键里程碑是什么?2019年又将如何?
吴恩达是斯坦福大学计算机科学系副教授。因为很多原因,他的名字在AI圈中广为人知。他是谷歌大脑(将人工ai智能辐射到谷歌所有产品的项目)的联合创始人,也是LandingAI(旨在于帮助公司将人工ai智能融入到运营中的公司)的创始人。他还是YouTube和Coursera(吴恩达创立的在线学习公司)上一些最受欢迎的机器学习课程的讲师。他创建了deeplearning.ai网站,并撰写了一本名为《DeepLearningYearning》的书。
在百度工作三年,帮助此科技巨头向AI公司转型后,吴恩达辞去了百度首席AI科学家的职务。
之后,他加入了拥有1.75亿美元的人工ai智能基金会,同时成为了无人驾驶汽车公司Drive.ai.董事会一员。
吴恩达预计到2019年首要取得进展或变化的地方是AI将在科技产业或软件公司外的行业得到应用。通过援引麦肯锡的一份称AI将创造13万亿GDP的报告,他说到AI行业最大的未开发潜力在软件产业之外。
他说: 我认为2019年,AI应用于软件产业之外的例子会非常之多。AI在帮助谷歌、百度、Facebook及微软等公司中都做得很不错,我与这些公司无任何关系。但就连Square、Airbnb及Pinterest等公司都已开始应用一些AI功能,我认为下一轮创造价值的巨浪会在制造业公司、农业设备公司或医疗保健公司开发一系列的AI方案来推进业务之时。
像Chowdhury一样,吴恩达对2018年公众对AI的能力及局限性上的理解大增感到惊讶。他很高兴关于AI的讨论不再围绕电话机器人杀手或对人工整体ai智能的恐惧了。
他表示他是有准备地回答了询问,并没想到其他人也有相似的想法。
他说: 我试图引用了几个我认为对实际应用十分重要的行业。AI的实际应用会遇到一定的阻碍,但我认为这些阻碍都会被处理。
在未来一年里,吴恩达很高兴看到人工ai智能及机器学习研究两个行业都取得了进展,这将有助于推动整个行业的发展。一方面是AI能通过更少的数据得出精确的结论,该行业的一些人称之为 少量样本学习 。
他说: 我认为深度学习的第一波进展首要是大公司利用大量数据创建巨大的神经网络,对吧?所以如果你想创建一个语言识别智能语音系统,就需要进行10万小时的数据模拟。如果想创建机器翻译智能语音系统,就需要模拟极大量的平行语料库中的句型,从而创造出很多突破性结果。现在我越来越多地看到从小数据中出的成果。所以即使你有1000张照片,你也可以尝试去做出点什么结果。
令一方面则是被称为 通用可见性 的计算机视觉方面的进展。计算机视觉智能语音系统经过斯坦福大学高端X光机拍摄的原始图像的训练,效果可能会非常地好。很多该行业的先进公司及研究人员已创造出了比放射科医生更出色的智能语音系统,但它们并不是很灵活。
但如果你把你的训练模型应用到拍摄图片有点模糊的低端X光机或是其他医院的X光机上,遇到技师让病人右转,导致角度有些许的偏离的情况,结果就会是相比于今天的算法,放射科医生会做的更好。因此我认为有趣的研究是尝试提高学习算法在新情境中的通用性。
YannLeCun
2018年人工ai智能的关键里程碑是什么?2019年又将如何?
YannLeCun是纽约大学教授,Facebook首席AI科学家及人工ai智能研究院(FAIR)创始人。Facebook人工ai智能研究院开发了PyTorch1.0、Caffe2及其他大量的人工ai智能智能语音系统,如Facebook每日使用上十亿万次的文本翻译AI工具和先进的下围棋的强化学习智能语音系统。
他坚信FAIR为其研究及工具所采用的开源政策推动了其他大型科技公司采用该政策,而这推动了AI整个行业的发展。在上月的NeurIPS大会和FAIR50周年之际,LeCun将FAIR称为一家致力于 可实现各种可能的机器学习的技术及数学腹地 的研究院。
他说: 当更多人开始讨论AI研究时,整个行业将更快的向前发展,对AI研究来说这影响重大。今日AI发展速度之快首要是因为更多的人进行了更快更有效的商量,并做了更多的开放性研究。
在伦理层面,LeCun很高兴看到公众开始思考AI工作所带来的伦理影响及带有偏见的决策所带来的危险。
他说: 情况与俩三年前不同了,现在人们已充分认识到伦理方面的询问。
他认为AI行业中的伦理与偏见询问现在还并未成为需要立即采取措施的首要询问,但他认为人们应提前做好准备。
就像现在还未出现急需处理的重大生死攸关询问一样。但询问迟早会来,我们需要了解这些询问并防患于未然。
如吴恩达一样,LeCun期待未来会有更多灵活的AI智能语音系统。这些智能语音系统不需原始输入数据或精确条件,就可以得到准确的输出。
他还提到,虽然研究人员可通过深度学习来很好地处理感知,但却对AI智能语音系统整体的架构缺乏理解。
要想教会机器通过观察世界去学习,需要自我监督学习或基于模型的强化学习。
他说道: 不同的人对此称呼不同,但人类与动物都是通过观察与了解大量的背景知识来感知世界是如何运作的。我们还不知道如何让机器学会这么做,这是一项巨大的挑战。这项研究的成果将会推动AI与计算机的真正发展,从而让机器具有,拥有一些常识,让人们能与机器助手就更广泛的话题进行商量,并不再感到沮丧。
对于有助于Facebook内部运营的应用,LeCun称在自我监督学习及需少量数据输出准确结果的人工ai智能等方面取得的进步将是十分重要的。
他还提到,在询问的处理过程中,我们希望找到减少特定任务如机器翻译、图像识别等任务所需数据量的方法,在这一方向上我们已经取得了一定的进展。我们已经通过使用弱监督或自我监督学习对Facebook机器翻译及图像识别产生了深远影响。因此,这些影响不仅仅是长期的,更能带来短期效果。
在未来,LeCun期待见到AI在建立事件之间的因果关系上能取得进展。这一能力并不仅仅通过观察获得,更需通过实践理解。例如,当人们在使用雨伞时,很可能是下雨了。
他提到,如果你想机器通过观察来了解世界运作原理,它必须要知道它能够做什么要想影响世界,这是十分重要的。假设你在一间房中,你的前面是一张桌子,桌上有一个像水杯样的物体,你知道你推一下水杯,水杯会移动,但你却无法移动桌子,因为桌子又重又大。这类事情都是与因果相关的。
希拉里 梅森
2018年人工ai智能的关键里程碑是什么?2019年又将如何?
在2017年Cloudera收购FastForwardLabs之后,希拉里 梅森出任了Cloudera机器学习的总经理。FastForwardLabs虽被收购,却仍在运营之中。它为用户提供应用机器学习报告与建议,从而预测未来半年到两年公司的发展方向。
2018年,AI行业中的一项与多任务学习相关的发展让梅森感到惊讶。多任务学习可训练单个神经网络在推理时应用多种标签,例如在一幅图像中看到的多个对象。
FastForwardLabs一直就AI智能语音系统的伦理影响为顾客提供建议。梅森也意识构建AI智能语音系统伦理框架的重要性。
梅森说道: 这正是自成立了FastForward我们一直在做的事。5年前,我们在每篇报告中都撰写了伦理方面的规范。但今年,公众才开始真正关注伦理规范。到明年,对此莫不关注的公司与个人都会承担相应的后果与责任。有一点我没有说清楚,我希望未来在数据科学与AI发展的实践中,技术人员和商业领袖在开发AI产品时都能自主地考虑道德和偏见询问,而非像今天熟视无睹。
随着未来一年越来越多AI智能语音系统成为商业运营的一部分,梅森期待处于最佳位置的产品经理及产品负责人将会对AI做出更多的贡献。
她表示: 显然,了解产品整体框架及产业的人知道什么产品是有价值的,什么是没价值的,他们也知道谁是投资方向上的最佳决策人。所以如果让我预测,我认为那些使用电子表格建立简单模型的人会变得很低能,他们自己也会很快意识到将AI应用到自己产品中的机会非常之少。
AI民主化或将AI扩展到公司除数据科学团队外的所有部门,是很多公司所强调的,如KubeflowPipelines及AIHub等谷歌云AI产品,以及CI T公司为确保人工ai智能智能语音系统在公司内部得到实际利用提出的建议。
梅森认为越来越多的公司需要构建管理多个AI智能语音系统的结构。
如开发运维人员所面临的挑战一样,单个智能语音系统可使用手动部署的定制脚本来管理,cron脚本也可管理几十个智能语音系统。但当管理有安全、管理及风险条件的公司中的数百上千智能语音系统时,需要的是更专业、稳健的工具。
她还提到,公司正在从寻求有能力及才华的人才向智能语音系统化追求机器学习及AI机遇转变。
由于Cloudera近期推出了基于容器的机器学习平台,因此对于梅森来说,强调部署AI所需的容器是有意义的。她坚信这一趋势在未来几年将会持续下去,从而公司可在本地AI及云端AI部署两者中做采取。
梅森还相信AI的业务将不仅仅在单个公司而是整个产业中继续不断发展。
她说道: 我们将看到AI专业实践的持续发展。如果你现在是一家公司的数据科学家或机器学习工程师,当你跳槽至另外一家公司后,你的工作将会完全不同:不同的工具、不同的期望和不同的报表结构。但我想一致性还是存在的。
文章转载自今日头条,版权归原作者所有,如作者或来源机构不同意本站转载采用,请通知我们,我们将第一时间删除内容。