APP下载

AI趋势周报第174期:吴恩达:做好ML各周期资料品质控管,专案至少快2倍完成!

消息来源:baojiabao.com 作者: 发布时间:2024-10-10

报价宝综合消息AI趋势周报第174期:吴恩达:做好ML各周期资料品质控管,专案至少快2倍完成!

吴恩达表示,他通常建议自己的MLOps团队,在各ML生命周期做好资料品质控管,不只省麻烦,还能缩短专案完成时间。

重点新闻(0716~0722)

  吴恩达      资料品质    MLOps  

吴恩达:做好ML各周期的资料品质控管,不只省麻烦还能快2倍完成专案

吴恩达在一场AI论坛上指出,几年前,ML社群在乎的是建模、调整超参数或选择正确的架构,但现在,产业AI能力大跃进,DevOps在ML生产流程的重要性也随之浮现,不少企业也出现MLOps人才需求。

就模型维运来说,ML指标可用来监控模型表现,但ML模型投入生产时,很多因素会影响模型效能,比如组织业务的扩张(如从100万张信用卡扩展到10亿张),这时就需要MLOps来辅助。吴恩达指出,MLOps至今就像一个新兴学科,还未有完整的定义。一些企业开始找寻或培养内部MLOps人才时,多半也没有一套标准可参考。

但他分享自身经验,他带自己MLOps团队时,会提出一个准则,要求团队确保在所有ML生命周期中,资料品质必须是好的。这些周期包括最初始的专案范围界定、初始资料收集和定义、模型训练,以及模型部署、监控、维运,特别是后续模型表现不佳时的资料改善。他表示,MLOps团队可借助不同工具和准则,来确保连续性的高品质资料,做到这一点,就能解决很多问题,甚至专案还能能快两倍完成,“甚至更快,只要你做好资料品质控管这件事。”(详全文)

 

 

MLOps     GitHub     模型维运  

不知道从何下手?GitHub一款热门MLOps专案手把手教你做

 MLOps掌管机器学习模型生命周期,不仅让资料科学家更了解资料变化,也让营运团队时时掌握业务变化。最近,GitHub上一个MLOps专案:Made with ML开始受到关注,它提供免费的MLOps学习资源和程式码,主打直觉性第一、实际案例应用,要让开发者摸透生产级的MLOps概念和实作。

这个专案由Goku Mohandas开发,他曾帮苹果开发多个大型机器学习系统,也替资源受限的新创开发规模较小的AI系统。他解释,开发者很容易在网络上,找到一堆生产级ML应用和MLOps相关的文章,但要了解这些概念,必须亲手实作才行。可是,受限于专案规模、昂贵的工具和专属内容,一般人很难得知机器学习产线的内部作业原理。而Made with ML提供这类资源,供开发者参考。

再来,这个专案强调直觉第一,也就是先从生产角度来分析机器学习系统的概念,而非从程式码讲起。他的Made with ML专案100%免费,目的是要“分享自己一路上学到经的MLOps通则经验。”(详全文)

  Julia     程式语言     制药  

AZ、莫德纳和Google等上万家企业在用的程式语言Julia获2,400万美元A轮融资

由程式语言Julia核心团队成立的软件公司Julia Computing,日前获得2,400万美元的A轮融资,将用来改善旗下Julia生态系和高效能云平台JuliaHub,要让资料科学家更快更轻松用JuliaHub来开发、部署和扩展Julia模型和程式。

Julia由MIT团队开发,2012年开源,目前已有2,900多万次下载量,也获得全球1万多家企业使用,像是Google、AZ、莫德纳、辉瑞、Intell、NASA、美国联邦储蓄银行等大型企业。Julia当初的设计,是要整合C、C++等高效能语言和Python这类适合编写复杂程式的语言。一般来说,开发模型会经历两个阶段,首先是用高阶程式语言(如Python、Matlab或R)来进行测试、建模、设计原型,再用速度较快的低阶语言(如C或C++)来重写,进行生产部署和扩展,而Julia可解决这个“两阶段”问题。

不过,虽然MIT的开发目标明确,但2018年才释出Julia 1.0版,过程中也历经不少重大修复的阵痛期。但在1.0版问世后,情况改善许多。

在Julia的演进过程中,它的核心开发团队在2015年成立Julia Computing,要把Julia打造为适合制药、金融、高效能运算和能源等领域的精简化程式码。团队在这几年累积不少成果,比如与辉瑞共同模拟新药、与AZ打造毒性预测AI,也与欧洲保险大厂Aviva解决合规问题、与思科打造ML资安方案,最近也往半导体领域扩张。接下来,他们要专注改善JuliaHub平台,加速模型开发、部署和扩展。(详全文)

  Google    照片分辨率       扩散模型  

Google用扩散模型强化照片分辨率,老照片也能很清晰

Google研究人员发表一套图像生成新方法,打破传统扩散模型合成图像品质的限制,结合了反复精细改进(SR3)算法和串连扩散模型(CDM)的类型条件合成模型,让生成图像的品质大胜目前所有方法。

SR3是一种超分辨率扩散模型,以低分辨率作为输入值,并从完全的噪声中,建构出相对应的高分辨率图像。这个模型采用图像破坏过程来训练,也就是说,模型先慢慢添加噪声到高分辨率图像中,直到完全都是噪声,接着再逆转过程,从纯噪声开始,输入低分辨率图像,来引导模型逐步去除噪声。

SR3能产生超高分辨率图像后,研究员将SR3用在类型条件图像生成中。这种串连方法可将跨数个空间分辨率的多生成模型链接在一起,再产生低分辨率资料的扩散模型,仅接着一系列SR3高分辨率扩散模型,来逐渐将生成图像的分辨率提高。总体结果,SR3所生成的超高分辨率图像,在人类评估超过了GAN,而CDM所生成的逼真样本,在评估生成模型创建图片品质的FID分数和分类准确度分数,都远超过目前的顶尖方法BigGAN-deep和VQ-VAE-2。(详全文)

  脑波沟通     语音神经义肢     UCSF  

脑波沟通成真,科学家用AI将脑波转为文字

加州大学旧金山分校(UCSF)研究人员开发语音神经义肢(Speech Neuroprosthesis),能将大脑的讯号翻译成为文字、显示在屏幕上,让重度瘫痪的人,也能用句子与其他人交流。研究人员表示,这次研究是第一次直接从瘫痪者的大脑活动,成功解码出完整的单词。该系统能以每分钟18个字的速度,从大脑神经活动中解码单词,准确度可达93%。

过往沟通神经义肢的研究重点,是以拼字方式,用一个个字母拼凑出完整的文本,但UCSF的研究方法,是翻译控制发声系统肌肉的讯号,而不是以移动手臂来打字的大脑讯号。团队研究UCSF癫痫患者,要从大脑讯号中找出语言相关活动的关系。

团队找来代号为BRAVO1的受试者,BRAVO1是一位30多岁脑干中风的男性,BRAVO1与研究人员合作,使用50个单字的字汇表,建立数百个日常句子。团队在BRAVO1的语音运动皮层,植入高密度电极阵列,纪录BRAVO1尝试说出这50个单字时,说话语音皮层的大脑神经活动。接着,他们利用AI神经网络模型,来侦测BRAVO1尝试说出的单词。BRAVO1被要求尝试说出由50个单字所组成的短句,系统会解析大脑活动,并且在屏幕上显示短句。该系统每分钟可以解码18个单字,在应用类似打字校正等自动更正语言模型,准确率更可高达93%。(详全文)

  Nvidia     Transformer     加速  

Nvidia释出TensorRT 8,加速Transformer热门模型推论速度

Nvidia推出最新AI软件开发工具包TensorRT8,能加速搜索引擎、广告推荐、聊天机器人等AI应用。与前一版版本相比,TensorRT 8可缩短一半的语言查询推理时间。

TensorRT是一个包含推理最佳化器和Runtime的高效能深度学习推理SDK,能提供低延迟和高吞吐量运算。TensorRT广泛支援各个产业,像是医疗、金融服务和制造业等。Nvidia指出,采用TensorRT的应用程序,推理速度比纯CPU平台快了40倍,而且,TensorRT 8还提供为Transformer模型提供最佳化。

进一步来说,TensorRT 8加速所有Transformer模型的对话式AI,推理时间是TensorRT 7的一半,使用A100 GPU运算,执行具有3.4亿个参数的语言模型BERT-Large,其推理延迟能降低到仅剩1.2毫秒。(详全文)

 

 

图片来源/Deeplearning.ai、Google、UCSF、Nvidia

 AI趋势近期新闻 

1. Python扩充套件加入除错器新功能,还简化根目录配置

2. 破解生物学界50年折叠蛋白难题,DeepMind开源模型AlphaFold 2

3. 脸书脑机界面读心术成真,能将意念转化为文字但却宣布不做了

资料来源:iThome整理,2021年7月

2021-07-26 10:47:00

相关文章