在业界,通过独立研究完成的项目组合非常受重视。例如,在百度研究院,招聘机器学习研究人员和工程师时,只根据他们的技能和能力,而不是根据他们的学历和过去的经验(如项目组合所展示的)。认为,掌握机器学习的基础是第一步。之后,鼓励找到项目来工作,并用此来持续学习以及建立项目组合。如果不知道从哪里开始,Kaggle是一个合理的起点;尽管最终可以识别并从事自己的项目。同时,线下活动,如联系教授、参加当地聚会、寻找社区也有很大帮助。这通常足以让在公司找到机器学习的工作,这将进一步加速学习。
攻读博士学位是学习机器学习的一个好方法。但讽刺的是,许多顶尖的机器学习研究者并没有博士学位。鉴于在教育和Coursera的背景,非常相信员工发展。因此,在领导的大多数团队(在百度,以及之前领导谷歌深度学习团队/谷歌大脑时),投入了很多资源来培训人们成为机器学习专家。认为,一些组织可以非常擅长培训人们成为机器学习领域的佼佼者。认为通过Coursera进行独立学习是一个很好的步骤。已经拥有的许多其他软件技能也与机器学习研究高度相关。鼓励继续参加MOOCs并使用免费在线资源(如deeplearning.stanford.edu/tutorial)。通过足够的自学,这足以让在工业界的机器学习团队获得一个很棒的职位,这将帮助进一步加速学习。
许多人在家中或公司中将机器学习应用于自己的项目。这不仅有助于学习,也有助于在简历中建立机器学习项目的组合(如果那是目标)。如果不确定要从事什么项目,Kaggle竞赛是一个很好的起点。尽管如此,如果有自己的想法,鼓励追求这些想法。如果在寻找想法,也可以查看去年斯坦福班级所做的机器学习项目:http://cs229.stanford.edu/projects2014.html
。总是对学生的想法的创造力和多样性感到惊叹。希望这也能帮助激发其他人的想法!
许多深度学习的进步是由计算规模和数据驱动的。例如,认为深度学习的前沿正在转向HPC(高性能计算,也称为超级计算机),这是在百度正在研究的。发现在企业环境中更容易构建新的HPC技术和获取大量数据。希望政府增加对基础研究的资助,以便使这些资源更容易为世界各地的大学获得。
不同问题所需的技能集是不同的。但广泛来说,程序对问题有两类“知识”来源:(i)手工设计的,以及(ii)它从数据中自己学习的。在某些领域(如计算机视觉;预测未来越来越多的语音识别和自然语言处理),数据量的迅速增加意味着(ii)现在是主导力量,因此领域知识和手工设计小特征的能力变得越来越不重要。
五年前,要参与计算机视觉或语音识别研究非常困难,因为必须获得大量的领域知识。但由于深度学习的兴起和数据的增加,认为现在的学习曲线现在更简单/更浅,因为推动进步的是机器学习+数据,现在知道和能够手工设计这些领域的许多特殊情况变得不那么关键。可能有点过于简化,但现在的成功方法越来越多地是编码一个学习算法,只使用适度的领域知识,然后给它大量的数据,让算法从数据中找出问题。
(Adam和Andrew)经常讨论的一件事是研究的影响。在百度,目标是开发影响数亿用户的硬AI技术。随着时间的推移,认为都学会了更加战略性地思考,并学会看到更远的步骤——不仅仅是写一篇论文——规划一条让技术惠及大量人群的路径。如今,这是对工作感到兴奋的原因之一!
研究单层网络的原因之一是,可以快速探索许多认为可能影响这些模型性能的特性,而不需要深度网络当时带来的复杂性(例如,需要逐层训练)。然而,今天有很多证据(实证和理论)表明,深度网络可以表示比浅层网络更复杂的函数,因此,要利用现有的大型训练数据集,可能需要继续使用大型/深度网络来解决这些问题。
幸运的是,与2011年的一些最简单的模型相比,深度网络可能很难工作,但现在有更好的工具和更快的计算机——这让能够快速迭代并探索无法在2011年做到的事情。在某种意义上,为深度学习构建更好的系统使能够以类似于2011年只有非常简单模型的速度探索大型、深度模型。这也是在AI实验室对深度学习系统研究投入很多的原因之一:能够运行实验的速度越快,学习的速度就越快,找到成功模型并理解所有权衡的难度就越小。
认为RNN是一类令人兴奋的模型,用于时间序列数据!实际上,在语音识别方面的最新突破使用了双向RNN。参见http://bit.ly/deepspeech
。也考虑了LSTM。对于特定应用,发现RNN的简单性(与LSTM相比)使能够扩展到更大的模型,因此能够使RNN表现得更好。但在百度,也在将LSTM应用于一些存在时间数据中长期依赖的问题。