十年云计算老兵零基础进军深度学习方法论

发表于:2017-10-19 10:46

字体: | 上一篇 | 下一篇 | 我要投稿

 作者:曹亚孟    来源:51Testing软件测试网采编

  人工智能是当今的热议行业,深度学习是热门中的热门,浪尖上的浪潮,但对传统IT从业人员来说,人工智能技术到处都是模型、算法、矢量向量,太晦涩难懂了。所以本文作者写了这篇入门级科普文章,目标是让IT从业者能看清读懂深度学习技术的特点,希望读者能够从中受益,顺利找到自己心仪的工作。
  第一.人工智能的天时地利人和
  行业的成熟要靠从业者的奋斗(人和),也要考虑大环境和历史的进程(天时和地利)。
  人工智能技术的井喷并不是单纯的技术进步,而是软件、硬件、数据三方面共同努力水到渠成的结果,深度学习是AI技术的最热分支,也是受这三方面条件的限制。
  AI软件所依赖的算法已经存在很多年了,神经网络是50年前提出的技术,CNN/RNN等算法比大部分读者的年龄都要大。AI技术一直被束之高阁,是因为缺乏硬件算力和海量数据。随着CPU、GPU、FPGA硬件的更新,几十年时间硬件算力扩充了万倍,硬件算力被逐渐解放。随着硬盘和带宽的降价提速,20年前全人类都没几张高清照片,现在单个公司的数据量就能达到EB级。大数据技术只能读写结构化日志,要读视频和图片必须用AI,人类已经盯不过来这么多摄像头了。
  我们只有从心里把AI技术请下神坛,才能把它当做顺手的工具去用。AI的技术很深理论很晦涩,主要是这个行业刚刚发芽还未分层,就像20年前IT工程师需要全面掌握技能,现在的小朋友们连字符集都不用关注。
  第二.关联度模型
  深度学习有两步工作,先要训练生成模型,然后使用模型去推测当前的任务。
  比如说我用100万张图片标记好这是猫还是狗,AI把图片内各个片段的特征提取出来,生成一个猫狗识别模型。然后我们再给这个模型套上接口做成猫狗检测程序,每给这个程序一张照片它就能告诉你有多大几率是猫多大几率是狗。
  这个识别模型是整个程序中最关键的部分,可以模糊的认为它就是一个密封黑盒的识别函数。以前我们写程序都是做if-then-else因果判断,但图像特征没有因果关系只看关联度,过去的工作经验反而成了新的认知障碍,还不如就将其当做黑盒直接拿来用。
  接下来我放一个模型训练和推测的实验步骤截图,向大家说明两个问题:
  需要用客户的现场数据做训练才能出模型,训练模型不是软件外包堆人日就行,很难直接承诺模型训练结果。
  训练模型的过程很繁琐耗时,但并不难以掌握,其工作压力比DBA在线调试SQL小多了,IT工程师在AI时代仍有用伍之地。
  第三.动手实验
  本节较长,如果读者对实验步骤和结果没兴趣,而是直接想看我的结论,也可以跳过这一节。
  这个实验是Nvidia提供的入门培训课程——ImageClassificationwithDIGITS–Trainingamodel。
  我们的实验很简单,用6000张图片去训练AI识别0-9这几个数字。
  训练样本数据是6000张标号0-9的小图片,其中4500张是用来做训练(train),1500张是验证(val)训练结果。
  实验数据准备
  训练图片很小也很简单,如下图预览,就是一堆数字:
  —下图是01样本图片—
 
  我做测试的图片是官方教程提供了个白底红字的“2”.
  —下图是02测试图片—
  制作数据集
  首先我们要做一个图片识别的数据集,数据集文件放在“/data/train_small”目录下,图片的类型选择“Grayscale”,大小选28×28,其他都选默认,然后选择创建数据集“minidata”。
  —下图是03初始数据集—
  
  下面是数据集创建的过程,因为我们的文件很小很少,所以速度很快;如果是几千万张高清大图速度就会很慢,甚至要搭建分布式系统把IO分散到多台机器上。
  —下图是04初始数据集中—
  这是创建完成数据集的柱形统计图,鼠标恰好停在第二个柱形上,显示当前标记为“9”的图片有466个。
  —下图是05创建完成数据集—
  开始创建模型
  有了数据集以后我们就可以创建模型了,我们选择创建一个图像分类模型(ImageClassificationModel),数据集选之前创建的“minidata”,训练圈数输30次,其他选项暂时保持默认。
  —下图是06新建模型—
  到了创建模型的下半段是选择网络构型,我们选择LeNet即可,将模型命名为TestA。
  —下图是07选择LeNet—
  
  这次Demo我们没做细节设置,但生产环境可能要经常修改配置文件。
  —下图是08微调LeNet—
  
  接下来就开始生成模型了,小数据集简单任务的速度还是很快的,而且验证正确率很高。但是如果是大任务大模型,可能会算上几天时间。
  —下图是09开始生成模型—
  模型生成完成,我们再看一下验证正确率很高了,如果生产环境正确率太低,可能你要微调创建模型的参数。
  —下图是10训练完成后的accuracy–
 
  调试模型
  在模型页面往下拖就可以看到下载模型、测试模型等按钮,我们选择测试模型,将那个“白底红字2”提交做个测试。
  —下图是11测试模型—
  
  默认是测试Epoch#30,我们先跑10次试试。本来想省点服务器电费,结果只有20.3%的几率识别正确。
  —下图是12TestA模型10圈结果—
 
  我们提高测试圈数到25圈,结果准确率从20.3%提高到了21.9%。
  —下图是13TestA模型25圈结果—
 
  整个模型的上限是30圈,正确识别结果也才21.92%。到了这里我插一句,未正确识别可能是因为我的建模数据是28*28的黑白图,而我给测试图片大小和颜色都不对。
  —下图是14TestA模型30圈结果—
  更换模型继续调试
  在TestA这个模型上可以点克隆任务,即制作一个同配置的模型再跑一次;这个按钮有意思啊,我们以前编译程序不通过的时候,retry十万次也是不通过啊,为什么克隆任务是个面板常用按钮?
  —下图是15克隆模型TestA—
  
  这时好玩的事情发生了,我做出的“TestA-Clone”,识别出数字2的几率是94.81%。
  —下图是16克隆TestA结果—
  
  我们再把老模型克隆一次,结果识别出数字2的几率是63.4%。
  —下图是17再次克隆TestA结果—
  
  我新建一个模型TestB,让它在TestA的基础上再次训练。
  —下图是18新建TestB—
  
  TestB的训练结果反而不如最早的那一版模型,正确率20.69%。
  —下图是19TestB的训练结果—
  
  没有最惨只有更惨,看我新训练的模型TestC。
  —下图是20TestC训练失败—
 
  从这次测试看,最好的模型是TestA-Clone,其次是Clone2。
  —下图是21模型结果汇总—
  
  但这就算找到合适模型了吗?我又手写了个数字2,还特地选的黑底白字28*28,结果这几个模型没一个识别准确的,全部识别失败。
  —下图是22.新图识别失败—
 
  第四.实战才能出模型
  本次实验拿到正确率是94.81%的模型是意外惊喜,那个模型测其他图片失败倒是意料之中的。因为这次实验的初始样本才几千张,如果样本数量够多,过拟合(即噪音特征被纳入模型)的可能性就越小;我用的全部是默认调试选项,添加其他特征项调试模型可能会减少欠拟合(主特征没提取到)的几率;我并未明确定义该模型的使用场景,即没有明确训练数据、测试文件和生产文件是否相同。
  我们看到完全相同配置的模型,只因为点击生成模型的时间不同,对同一个图片的识别结果确千差万别,再次强调这不是因果判断而是相关性计算。实验结论和我上文的主张相同,模型需要拿实战数据进行实际训练,且我们只能预估但不能预测模型生成结果。我做这个实验就是给大家解释,AI模型训练不是软件外包,不是谈拢了价格就能规划人日预估效果的。
  一个AI技术供应商简单点就是卖现成的模型,比如说人脸识别模型、OCR识别模型等等。但如果客户有定制需求,比如说识别脸上有青春痘、识别是不是左撇子签名,那就需要先明确技术场景,再准备数据大干一场。至于练模型的时间是1天还是1个月不太确定,AI模型训练像做材料试验一样,可能半年也可能十年才能发现目标。
  第五.IT工程师的新工作
  前文我提到两个观点,第二个观点就是训练模型的工作并不难,IT工程师可以较为容易的学会训练模型的工作,然后我们就能继续扩展从业范围,在AI大浪潮中分一杯热羹了。
  首先说技术不是门槛,我们举个IT工程师能听懂的例子:一个OracleDBA既没读过数据库源码,也还没摸过新业务场景,甚至缺乏理论知识只能做常见操作;现在这个项目可以慢慢上线,让他离线调试SQL,拿到性能最佳值的点日志保存就完工了。做AI模型调试时,懂原理懂算法会让工作更有目的性,但更有目的性只能保证接近而不能保证命中目标。
  根据上文的实验,我们可以看到有下列工作是需要人做的:
  根据客户的要求,提出对原始数据的需求。这里要动业务方向的脑子,比如说想查一下什么人容易肥胖,天然能想到的是每个人的饮食和运动习惯,但专业医生会告诉你要调取转氨酶胆固醇一类的数据。
  原始数据需要清洗整理和标注,没找到相关性的样本不是未标注的样本。前文试验中6000张图片可都是标注了0-9的数字的,我们测试模型是为了找到“2”这一组图片的相关性。清洗、整理和标注数据的工作可能是自动也可能是人工,自动做那就是我们写脚本或跑大数据,人工做就是提需求然后招1500个大妈给黄图打框,但工程师会对打框过程全程指导。这里还有取巧的方法,友商的模型太贵甚至不卖,那就是直接用友商的公有云API接口,或者买友商大客户的日志,让友商帮你完成数据筛检。
  上文试验中仅仅是图片分类数据集,已经有很多可调整选项了;生产环境不仅有图片还有声音、文字、动作特征等数据集,数据集的设置是否合理,要不要重建数据集都需要多次调试和长期观察。
  实验中生成模型没怎么调参数也只花了一分钟时间,但生产环境的模型生成参数要经常调整,而生成一个模型的时间可能是几小时甚至几天。
  验证结果的准确性,如果是柔性需求可以目测几个测试结果就把模型上线了,但如果是刚性业务可能又要组织十万份以上样本进行测试验证。顺路说一句,用来训练模型的硬件未必是适用于来验证和跑生产环境的,如果是高压力测试可能还要换硬件部署。
  模型也有日常维护,可能随着数据集的更新模型也要定期更新,也可能发现模型有个致命的误判会威胁到业务,这都需要及时处理。
  第六.附赠的小观点
  谈到最后再附赠一些个人观点,随机想的,只写论点不写论证过程了:
  现在搭建和使用AI环境很难,但软件会进步和解决这个问题;三年前云计算平台很难部署和维护,现在遍地都是一键部署和UI维护的云平台方案。
  深度学习这个技术领域太吃数据和算力了,人脑不会像AI这么笨,可能以后会有新技术出现取代深度学习在AI领域的地位。
  因为需要数据和算力,搞个AI公司比其他创业企业更难;现在有名的AI创业企业都是单一领域深耕三年以上,让用户提供数据他们只做单一典型模型。同样巨头企业搞AI也不容易,即使挖到人AI项目也要花时间冷起动,清洗数据不仅消耗体力同样消耗时间。
  深度学习的计算过程不受控制,计算结果需要人来验证,所以它不能当做法务上的证据。当AI发现嫌疑人时警察会立刻采取行动,但它的创造者都无法描述AI下一步会如何下围棋。一个婴儿能尿出来世界地图,某人随手乱输能碰对银行卡的密码,AI会告诉你股市99.99%要暴涨,但这些都不能当做独立单责的证据。
  搞AI需要准备大量数据,中国对美国有个特色优势,可以做数据标注的人很多而且价格便宜,但到模型实践这一步,中国的人力成本太低又限制了AI走向商用。
  不要恐慌AI会消灭人类,对人类有威胁的AI肯定是有缺陷的AI,但人类一样也选出过希特勒这类有缺陷的领袖。也不要鼓吹AI会让人类失业社会动荡的,大家还是老老实实谈星座运势吧,我为什么就不担心自己失业?
  有些事AI的确准率看起来很低实其很高,比如两人对话听能清楚80%的字就不错了,AI只听懂85%了的文字已经越超人类了。你看我打倒颠字序并不影响你读阅啊。
《2023软件测试行业现状调查报告》独家发布~

关注51Testing

联系我们

快捷面板 站点地图 联系我们 广告服务 关于我们 站长统计 发展历程

法律顾问:上海兰迪律师事务所 项棋律师
版权所有 上海博为峰软件技术股份有限公司 Copyright©51testing.com 2003-2024
投诉及意见反馈:webmaster@51testing.com; 业务联系:service@51testing.com 021-64471599-8017

沪ICP备05003035号

沪公网安备 31010102002173号