模型先数据锻炼,发生多少个模型锻练过程

TensorFlow Flod https://github.com/tensorflow/fold ,《Deep Learning
with Dynamic Computation Graphs》https://openreview.net/pdf?id=ryrGawqex
。深度学习过程,模型磨练多少预处理,不同结构数据剪裁成相同维度、尺寸,划分成批,进入锻炼流程。静态图模型,缺点,输入数据不能一般预处理,模型针对不同输入数据建立不同统计图(computation
graph)分别磨练,没有充分利用处理器、内存、高速缓存。
TensorFlow
Fold(现在还出了Eager情势,可以对照学习),依照不同结构输入数据建立动态总括图(dynamic
computation),按照各种不同输入数据建立不同总结图。动态批处理(dynamic
batching)自动组合总计图,实现输入数据里面批处理,批处理单个输入图内不同节点,不同输入数据间批处理,批处理不同输入图间运算。可插入附加指令在不同批处理操作间移动多少。简化模型磨炼阶段输入数据预处理过程。CPU模型运行速度增长10倍以上,GPU提升100倍。

学习笔记TF067:TensorFlow Serving、Flod、总括加速,机器学习评测系统,公开数据集,tf067tensorflow

TensorFlow Serving https://tensorflow.github.io/serving/

生产条件灵活、高性能机器学习模型服务系列。适合基于实际数目大规模运行,爆发四个模型训练过程。可用来开发环境、生产环境。

模型生命周期管理。模型先数据训练,逐渐爆发起先模型,优化模型。模型多重算法试验,生成模型管理。客户端(Client)向TensorFlow
Severing请求模型,TensorFlow Severing再次来到适当模型给客户端。TensorFlow
Serving、gRPC(Google公司开源高性能、跨语言RPC框架),提供跨语言RPC接口,不同编程语言都足以访问模型。

TensorFlow Serving代码 https://hithub.com/tensorflow/serving
。源代码Bazel编译安装
https://github.com/tensorflow/serving/blob/master/tensorflow\_serving/g3doc/setup.md
,Docker安装。https://www.tensorflow.org/serving/setup 。结合TensorFlow
Serving,磨练好模型,创制Docker镜像,推送到Google Container Registry
https://cloud.google.com/container-registry/docs/
。模型在Google云平台(Google Cloud
Platform)运行。Kubernetes成功安排模型服务。Serving Inception Model with
TensorFlow Serving and Kubernetes
https://tensorflow.github.ic/serving/serving\_inception 。Google ML
Engine,全托管TensorFlow平台,磨炼模型一键转换预测服务。

TensorFlow Flod https://github.com/tensorflow/fold ,《Deep Learning
with Dynamic Computation Graphs》https://openreview.net/pdf?id=ryrGawqex
。深度学习过程,模型磨练多少预处理,不同结构数据剪裁成相同维度、尺寸,划分成批,进入练习流程。静态图模型,缺点,输入数据不可能一般预处理,模型针对不同输入数据建立不同总计图(computation
graph)分别磨炼,没有丰裕利用处理器、内存、高速缓存。
TensorFlow
Fold(现在还出了Eager格局,可以对照学习),按照不同结构输入数据建立动态总结图(dynamic
computation),依照各样不同输入数据建立不同总计图。动态批处理(dynamic
batching)自动组合总结图,实现输入数据里面批处理,批处理单个输入图内不同节点,不同输入数据间批处理,批处理不同输入图间运算。可插入附加指令在不同批处理操作间移动数据。简化模型训练阶段输入数据预处理过程。CPU模型运行速度增长10倍以上,GPU提升100倍。

TensorFlow总括加速。GPU设备,XLA
框架融合OP,分布式总结、参数部分分布到不同机器,硬件总计,CPU更尖端命令集SSE、AVX,FPGA编写襄助TensorFlow总计单元。
CPU加速。pip命令安装,与更宽广机器兼容,TensorFlow默认仅在x86机器使用SSE4.1
SIMD指令。源代码安装可以获取最大性能,开启CPU高级指令集协理。bazel
构建只好在团结机器运行二进制文件。

bazel build -c opt –copt=-mavx –copt=-mavx2 –copt=-mfma
–copt=-mfpmath=both –copt=-msse4.2 –copt=-cuda -k
//tensorflow/tools/pip_package:build_pip_package
bazel-bin/tensorflow/tools/pip_package/build_pip_package
/tmp/tensorflow_pkg

在/tmp/tensorflow_pkg爆发whell文件,再用pip命令安装wheel文件。

TPU 加速、FPGA加速。
谷歌TensorFlow设计专用集成芯片-张量处理单元(Tensor Processing
Unit,TPU)。CPU逻辑运算(if
else)能力很强,总计能力比GPU差,深度学习需要海量总括。GPU有强有力浮点总结单元,GPU着色器(shader)对一批数量以同一步调执行同样指令流水。GPU同一时钟周期执行命令数量千级,3000条。CPU同一时钟周期执行命令数据几十级。数据交互能力远超CPU。GPU逻辑运算能力差,流水线并行能力(同一时钟周期并发执行不一逻辑体系能力)差,需要批数量同步调执行同样逻辑。神经网络需要广大数据交互能力,CNN卷积、矩阵运算操作,通过数量交互大幅提升性能。
GPU出厂后架构固定,硬件原生援助指令固定。如神经网络有GPU不辅助指令,不能直接硬件实现,只可以软件模拟。FPGA加速,开发者在FPGA里编程,改变FPGA硬件结构。FPGA连串布局不同,不是冯·诺伊曼结构,是代码描述逻辑电路。只要片上逻辑门、引脚够多,全部输入、运算、输出都在一个时钟周期内做到。FPGA一个时钟周期执行五回全部烧好电路,一个模块就一句超复杂“指令”,不同模块不同逻辑体系,连串里就一条指令。不同运算单元硬件直连,数据交互、流水线并行共存(GPU流水线并行能力约0),浮点运算能力不如GPU。适合低顺延预测推理,每批大小较小。
TPU,专用集成电路(application specific integrated
circuit,ASIC),硬件逻辑一旦烧写不可再编程,专门为TensorFlow做深度学习开发。TPU目前版本无法完好运作TensorFlow功效,高效预测推理,不关乎磨练。

机器学习评测系统。

人脸识别性能目标。
辨认性能,是否鉴别准确。Top-K识别率,给出前K个结果包含正确结果概率。错误拒绝辨识率(FNIR),注册用户被系统错误辩识为任何注册用户比重。错误接受辩识率(FPIR),非注册用户被系统识别为某个注册用户比例。
阐明性能,验证人脸模型是否充足好。误识率(False Accept
Rate,FAR),将其旁人误作指定人士概率。拒识率(False Reject
Rate,FRR),将点有名气的人士误作其外人员概率。识别速度,识别一副人脸图像时间、识别一个人岁月。注册速度,注册一个人日子。

闲谈机器人性能目标。
回应正确率、任务完成率、对话回合数、对话时间、系统平均响应时间、错误信息率。评价为主单元,单轮对话。人机对话进程,连续经过。http://sanwen.net/a/hkhptbo.html
《中国人工智能学会通讯》2016年第6卷第1期。聊天机器人,机器人答句和用户问句应该语义一致,语法正确,逻辑正确。机器人答句应用有趣、多样,不是直接爆发安全应对。机器人应该个性表明相同,年龄、身份、出生地基本背景信息、爱好、语言风险应该亦然,能设想成一个特出人。

机械翻译评价办法。
BLEU(bilingual evaluation
understudy)方法,2002年,IBM沃森钻探要旨提议。机器翻译语句与人类专业翻译语句越接近越好。下人工评价中度相关。正确句子作参照译文(reference)、正确句子(golden
sentence),测试句子作候选译文(candidate)。适用测试语料具有三个参考译文。相比参考译文与候选译文相同片段数量,参考译文连续出现N元组(N个单词或字)与候选译文N元组相比较,n单位有的(n-gram)相比较。总结完全匹配N元组个数与参考译文N元组总个数比例。与岗位无关。匹配片段数越多,候选译文质地越好。
METEOR,不仅要求候选译文在整整句子上,在句子分段级别上,都要与参考译文更类似。https://en.wikipedia.org/wiki/METEOR\#Algorithm
。在待评价字符串与参考文符串间成立平面图。待评价翻译每个一元组必须映射到参考翻译1个或0个一元组。选用映射交叉数据较少的。

常用通用评价目标。
准确率、召回率、F值、ROC、AUC、AP、mAP。
ROC(Receiver Operating Characteristic,受试者工作特色曲线)、AUC(Area
Under roc Curve,曲线下面积),评价分类器目的。ROC曲线横坐标FPR(False
positive rate),纵坐标TPR(True positive
rate)。ROC曲线越接近左上角,分类器性能越好。AUC,ROC曲线下方面积大小。ROC曲线处于y=x直线上方,AUC值介于0.5~1.0。AUC值越大表示性能越好。专门AUC总计工具
http://mark.goadrich.com/programs/AUC/
AP(average precision,平均准确性)、mAP(mean average
precision,平均准确性平均)。总结机视觉,分类问题,AP模型分类能力重要目标。只用P(precision
rate, 准确率)和R(recall
rate,召回率)评价,组成PR曲线趋势召回率越高准确率越低。AP曲线下边积,等于对召回率做积分。mAP对所有品类取平均,每个类作两回二分类任务。图像分类随笔基本用mAP标准。

光天化日数据集。

图片数据集。
ImageNet http://www.image-net.org/
。世界最大图像识别数据集,14197122张图像,巴黎高等师范高校视觉实验室终身教师李飞飞创制。每年ImageNet大赛是国际总结机视觉一级赛事。
COCO http://mscoco.org/
。微软开创,分割、加字幕标注数据集。目的细分,通过上下文举行识别,每个图像包含两个目的对象,超过300000图像,超过2000000实例,80种对象,每个图像包含5个字幕,包含100000个人关键点。
CIFAR(Canada Institude For Advanced Research) https://www.cifar.ca/
。加拿大先进技术研讨院采访。8000万小图片数据集。包含CIFAR-10、CIFAR-100多个数据集。CIFAR-10,60000张32×32
RGB彩色图片,共10个连串,50000张训练,10000张测试(交叉验证)。CIFAR-100,60000张图像,100个连串,每个项目600张图像,500张练习,100张测试。20个大类,每个图像包含小品种、大品类五个记号。

人脸数据集。
AFLW(Annotated Facial Landmarks in the Wild)
http://lrs.icg.tugraz.at/research/aflw/
,从Flickr收集带标注面部图像大规模wyskwgk,各个姿态、表情、光照、种族、性别、年龄因素影响图片,25000万手工标注人脸图片,每个人脸标注21个特征点,大多数五彩缤纷,59%女性,41%男性。分外适合人脸识别、人脸检测、人脸对齐。
LFW(Labeled Faces in the Wild Home) http://vis-www.cs.umass.edu/lfw/
。United States北达科他大学阿姆斯特分校统计机视觉实验室整理。13233张图纸,5749人,4096人唯有一张图片,1680个多于一张。用于研究非受限状况人脸识别问题。人脸外形不安宁,面部表情、观望角度、光照条件、室内室外、遮盖物(口罩、眼镜、帽子)、年龄影响。为学界评价识别性能标准(benchmark)。
GENKI http://mplab.ucsd.edu
,印第安纳高校筹募。包含GENKI-R2009a、GENKI-4K、GENKI-SZSL。GENKI-R2009a,11159图形。GENKI-4K,4000图片,笑与不笑两类,每个图片人脸姿势、头转动标注角度,专用笑脸识别。GENKI-SZSL,3500图像,广泛背景、光照条件、地理地方、个人身份、种族。
VGG Face http://www.robots.ox.ac.uk/~vgg/data/vgg\_face/
。2622个不同人,每个人1000张图纸,锻练人脸识别大数目集。
CelebA(Large-scale CelebFaces Atributes,大规模有名气的人人脸标注数据集)
http://mmlab.ie.cuhk.edu.hk/projects/CelebA.html
。10177个名士,202599张有名气的人图像,每张图像40个特性标注。

视频数据集。
YouTube-8M https://research.google.com/youtube8m/
。800万个YouTube视频URL,50万钟头长度视频,带有录像标注。

问答数据集。
MS MARCO(Microsoft Machine Reading Comprehension) http://www.msmarco.org
。微软发表,10万个问题和答案数据集。创造像人类一样阅读、回答问题系统。基于匿名真实数据构建。
康奈尔大学影视独白数据集
https://www.cs.cornell.edu/~cristian/Cornell\_Movie-Dialogs\_Corpus.html
。600部好莱坞影片独白。

电动驾驶数据集。
法兰西共和国国家信息与自动化研商所客人数据集(INRIA Person Dataset)
http://pascal.inrialpes.fr/data/human/
。作为图像和摄像中直立人检测啄磨工作有的搜集。图片两种格式,一持有相应注释文件原始图像,二独具原始图像经过正规处理64×128像素正像。图片分只有车、只有人、有车有人、无车无人4个品类。
KITTI(Karlsruhe Institute of Technology and Toyota Technological
Institute) http://www.cvlibs.net/datasets/kitti/
。车辆数据集,7481个教练图片、7518个测试图片。标注车辆档次、是否截断、遮挡处境、角度值、二维和三维框、地点、旋转角度。

年龄、性别数据集。
Adience 数据集 http://www.openu.ac.il/home/hassner/Adience/data.html
。来源Flickr相册。用户用智能手机设备拍摄,2284项目,26580张图纸。保留光照、姿势、噪声影响。性别、年龄推断、人脸检测。

参考资料:
《TensorFlow技术解析与实战》

迎接推荐香港机械学习工作机遇,我的微信:qingxingfengzi

http://www.bkjia.com/Pythonjc/1233241.htmlwww.bkjia.comtruehttp://www.bkjia.com/Pythonjc/1233241.htmlTechArticle学习笔记TF067:TensorFlow
Serving、Flod、统计加速,机器学习评测系统,公开数据集,tf067tensorflow
TensorFlow Serving https://tensorflow.github.io/serving/ 。…

TensorFlow总结加速。GPU设备,XLA
框架融合OP,分布式统计、参数部分分布到不同机器,硬件总计,CPU更尖端命令集SSE、AVX,FPGA编写协理TensorFlow总结单元。
CPU加速。pip命令安装,与更广大机器包容,TensorFlow默认仅在x86机器使用SSE4.1
SIMD指令。源代码安装能够得到最大性能,开启CPU高级指令集扶助。bazel
构建只好在投机机器运行二进制文件。

人脸识别性能目标。
识假性能,是否鉴别准确。Top-K识别率,给出前K个结果包含正确结果概率。错误拒绝辨识率(FNIR),注册用户被系统错误辩识为此外注册用户比重。错误接受辩识率(FPIR),非注册用户被系统识别为某个注册用户比重。
证实性能,验证人脸模型是否丰盛好。误识率(False Accept
Rate,FAR),将其别人误作指定人员概率。拒识率(False Reject
Rate,FRR),将点有名的人士误作其他人士概率。识别速度,识别一副人脸图像时间、识别一个人日子。注册速度,注册一个人岁月。

TensorFlow Serving https://tensorflow.github.io/serving/

聊天机器人性能目的。
回复正确率、任务完成率、对话回合数、对话时间、系统平均响应时间、错误音讯率。评价为主单元,单轮对话。人机对话过程,连续经过。http://sanwen.net/a/hkhptbo.html
《中国人工智能学会简报》2016年第6卷第1期。聊天机器人,机器人答句和用户问句应该语义一致,语法正确,逻辑正确。机器人答句应用有趣、多样,不是平昔暴发安全应对。机器人应该个性表明相同,年龄、身份、出生地基本背景音讯、爱好、语言风险应该相同,能想象成一个优秀人。

生育环境灵活、高性能机器学习模型服务系列。适合基于实际数据大规模运行,爆发多少个模型练习过程。可用于开发条件、生产条件。

自行驾驶数据集。
法兰西国家音信与自动化探讨所客人数据集(INRIA Person Dataset)
http://pascal.inrialpes.fr/data/human/
。作为图像和视频中直立人检测研究工作有的采集。图片两种格式,一存有相应注释文件原始图像,二兼有原始图像经过正规处理64×128像素正像。图片分只有车、只有人、有车有人、无车无人4个类别。
KITTI(Karlsruhe Institute of Technology and Toyota Technological
Institute) http://www.cvlibs.net/datasets/kitti/
。车辆数据集,7481个教练图片、7518个测试图片。标注车辆档次、是否截断、遮挡意况、角度值、二维和三维框、位置、旋转角度。

人脸数据集。
AFLW(Annotated Facial Landmarks in the Wild)
http://lrs.icg.tugraz.at/research/aflw/
,从Flickr收集带标注面部图像大规模wyskwgk,各类姿态、表情、光照、种族、性别、年龄因素影响图片,25000万手工标注人脸图片,每个人脸标注21个特征点,大多数绚丽多彩,59%女性,41%男性。卓殊适合人脸识别、人脸检测、人脸对齐。
LFW(Labeled Faces in the Wild Home) http://vis-www.cs.umass.edu/lfw/
。米利坚宾夕法尼亚大学阿姆斯特分校总计机视觉实验室整理。13233张图片,5749人,4096人只有一张图纸,1680个多于一张。用于钻探非受限情状人脸识别问题。人脸外形不安静,面部表情、观望角度、光照条件、室内室外、遮盖物(口罩、眼镜、帽子)、年龄影响。为文化界评价识别性能标准(benchmark)。
GENKI http://mplab.ucsd.edu
,南达科他大学采访。包含GENKI-R2009a、GENKI-4K、GENKI-SZSL。GENKI-R2009a,11159图纸。GENKI-4K,4000图形,笑与不笑两类,每个图片人脸姿势、头转动标注角度,专用笑脸识别。GENKI-SZSL,3500图像,广泛背景、光照条件、地理地方、个人身份、种族。
VGG Face http://www.robots.ox.ac.uk/~vgg/data/vgg\_face/
。2622个例旁人,每个人1000张图片,练习人脸识别大数量集。
CelebA(Large-scale CelebFaces Atributes,大规模名家人脸标注数据集)
http://mmlab.ie.cuhk.edu.hk/projects/CelebA.html
。10177个有名气的人,202599张名家图像,每张图像40个属性标注。

参考资料:
《TensorFlow技术解析与实战》

机器翻译评价形式。
BLEU(bilingual evaluation
understudy)方法,2002年,IBM沃森探讨中央指出。机器翻译语句与人类专业翻译语句越接近越好。下人工评价低度相关。正确句子作参考译文(reference)、正确句子(golden
sentence),测试句子作候选译文(candidate)。适用测试语料具有两个参考译文。比较参考译文与候选译文相同片段数量,参考译文连续出现N元组(N个单词或字)与候选译文N元组相比较,n单位部分(n-gram)相比较。总括完全匹配N元组个数与参考译文N元组总个数比例。与地方无关。匹配片段数越多,候选译文质地越好。
METEOR,不仅要求候选译文在整个句子上,在句子分段级别上,都要与参考译文更接近。https://en.wikipedia.org/wiki/METEOR\#Algorithm
。在待评价字符串与参考文符串间创制平面图。待评价翻译每个一元组必须映射到参考翻译1个或0个一元组。采用映射交叉数据较少的。

在/tmp/tensorflow_pkg发生whell文件,再用pip命令安装wheel文件。

TensorFlow Flod https://github.com/tensorflow/fold ,《Deep Learning
with Dynamic Computation Graphs》https://openreview.net/pdf?id=ryrGawqex
。深度学习过程,模型磨炼多少预处理,不同结构数据剪裁成相同维度、尺寸,划分成批,进入练习流程。静态图模型,缺点,输入数据不可能一般预处理,模型针对不同输入数据建立不同统计图(computation
graph)分别磨练,没有充裕利用处理器、内存、高速缓存。
TensorFlow
Fold(现在还出了Eager格局,能够相比学习),遵照不同结构输入数据建立动态总括图(dynamic
computation),依照各样不同输入数据建立不同总括图。动态批处理(dynamic
batching)自动组合统计图,实现输入数据里面批处理,批处理单个输入图内不同节点,不同输入数据间批处理,批处理不同输入图间运算。可插入附加指令在不同批处理操作间移动数据。简化模型磨练阶段输入数据预处理过程。CPU模型运行速度增长10倍以上,GPU提高100倍。

生育条件灵活、高性能机器学习模型服务系统。适合基于实际数据大规模运行,发生五个模型锻炼过程。可用于支付环境、生产环境。

bazel build -c opt –copt=-mavx –copt=-mavx2 –copt=-mfma
–copt=-mfpmath=both –copt=-msse4.2 –copt=-cuda -k
//tensorflow/tools/pip_package:build_pip_package
bazel-bin/tensorflow/tools/pip_package/build_pip_package
/tmp/tensorflow_pkg

机械学习评测系统。

机动驾驶数据集。
高卢鸡国家新闻与自动化研商所乘客数据集(INRIA Person Dataset)
http://pascal.inrialpes.fr/data/human/
。作为图像和录像中直立人检测探究工作有的收集。图片二种格式,一独具相应注释文件原始图像,二怀有原始图像经过专业处理64×128像素正像。图片分只有车、唯有人、有车有人、无车无人4个类型。
KITTI(Karlsruhe Institute of Technology and Toyota Technological
Institute) http://www.cvlibs.net/datasets/kitti/
。车辆数据集,7481个教练图片、7518个测试图片。标注车辆系列、是否截断、遮挡情形、角度值、二维和三维框、地方、旋转角度。

模型生命周期管理。模型先数据操练,逐渐暴发初阶模型,优化模型。模型多重算法试验,生成模型管理。客户端(Client)向TensorFlow
Severing请求模型,TensorFlow Severing重回适当模型给客户端。TensorFlow
Serving、gRPC(Google集团开源高性能、跨语言RPC框架),提供跨语言RPC接口,不同编程语言都得以访问模型。

迎接推荐新加坡机械学习工作机遇,我的微信:qingxingfengzi

TensorFlow总计加速。GPU设备,XLA
框架融合OP,分布式总计、参数部分分布到不同机器,硬件总括,CPU更尖端命令集SSE、AVX,FPGA编写襄助TensorFlow总计单元。
CPU加速。pip命令安装,与更常见机器兼容,TensorFlow默认仅在x86机器使用SSE4.1
SIMD指令。源代码安装可以取得最大性能,开启CPU高级指令集帮助。bazel
构建只可以在协调机器运行二进制文件。

图片数据集。
ImageNet http://www.image-net.org/
。世界最大图像识别数据集,14197122张图像,印度孟买理工大学视觉实验室终身讲师李飞飞创设。每年ImageNet大赛是国际总计机视觉一级赛事。
COCO http://mscoco.org/
。微软成立,分割、加字幕标注数据集。目的划分,通过上下文举行鉴别,每个图像包含六个目的对象,超越300000图像,超越2000000实例,80种对象,每个图像包含5个字幕,包含100000个人关键点。
CIFAR(Canada Institude For Advanced Research) https://www.cifar.ca/
。加拿大先进技术琢磨院采集。8000万小图片数据集。包含CIFAR-10、CIFAR-100两个数据集。CIFAR-10,60000张32×32
RGB彩色图片,共10个品种,50000张磨练,10000张测试(交叉验证)。CIFAR-100,60000张图像,100个档次,每个系列600张图像,500张磨炼,100张测试。20个大类,每个图像包含小品种、大品种五个记号。

年龄、性别数据集。
Adience 数据集 http://www.openu.ac.il/home/hassner/Adience/data.html
。来源Flickr相册。用户用智能手机设备拍摄,2284档次,26580张图纸。保留光照、姿势、噪声影响。性别、年龄估摸、人脸检测。

TPU 加速、FPGA加速。
GoogleTensorFlow设计专用集成芯片-张量处理单元(Tensor Processing
Unit,TPU)。CPU逻辑运算(if
else)能力很强,总结能力比GPU差,深度学习需要海量统计。GPU有强有力浮点总计单元,GPU着色器(shader)对一批数量以同等步调执行同一指令流水。GPU同一时钟周期执行命令数量千级,3000条。CPU同一时钟周期执行命令数据几十级。数据交互能力远超CPU。GPU逻辑运算能力差,流水线并行能力(同一时钟周期并发执行不一逻辑系列能力)差,需要批数量同步调执行同样逻辑。神经网络需要广大数据交互能力,CNN卷积、矩阵运算操作,通过数量交互大幅提高性能。
GPU出厂后架构固定,硬件原生补助指令固定。如神经网络有GPU不帮助指令,不能间接硬件实现,只可以软件模拟。FPGA加速,开发者在FPGA里编程,改变FPGA硬件结构。FPGA体系布局不同,不是冯·诺伊曼结构,是代码描述逻辑电路。只要片上逻辑门、引脚够多,全部输入、运算、输出都在一个时钟周期内做到。FPGA一个时钟周期执行一回全部烧好电路,一个模块就一句超复杂“指令”,不同模块不同逻辑连串,连串里就一条指令。不同运算单元硬件直连,数据交互、流水线并行共存(GPU流水线并行能力约0),浮点运算能力不如GPU。适合低顺延预测推理,每批大小较小。
TPU,专用集成电路(application specific integrated
circuit,ASIC),硬件逻辑一旦烧写不可再编程,专门为TensorFlow做深度学习开发。TPU近日版本不可能完全运作TensorFlow功用,高效预测推理,不涉及练习。

机器翻译评价方法。
BLEU(bilingual evaluation
understudy)方法,2002年,IBM沃森研讨中央提出。机器翻译语句与人类专业翻译语句越接近越好。下人工评价中度相关。正确句子作参考译文(reference)、正确句子(golden
sentence),测试句子作候选译文(candidate)。适用测试语料具有两个参考译文。相比较参考译文与候选译文相同片段数量,参考译文连续出现N元组(N个单词或字)与候选译文N元组比较,n单位有的(n-gram)相比较。总计完全匹配N元组个数与参考译文N元组总个数比例。与地点无关。匹配片段数越多,候选译文质料越好。
METEOR,不仅要求候选译文在漫天句子上,在句子分段级别上,都要与参考译文更接近。https://en.wikipedia.org/wiki/METEOR\#Algorithm
。在待评价字符串与参考文符串间创立平面图。待评价翻译每个一元组必须映射到参考翻译1个或0个一元组。选拔映射交叉数据较少的。

闲谈机器人性能目标。
回应正确率、任务完成率、对话回合数、对话时间、系统平均响应时间、错误音信率。评价为主单元,单轮对话。人机对话进程,连续经过。http://sanwen.net/a/hkhptbo.html
《中国人工智能学会通讯》2016年第6卷第1期。聊天机器人,机器人答句和用户问句应该语义一致,语法正确,逻辑正确。机器人答句应用有趣、多样,不是直接暴发安全应对。机器人应该个性表明相同,年龄、身份、出生地基本背景音信、爱好、语言风险应该同等,能设想成一个独立人。

bazel build -c opt –copt=-mavx –copt=-mavx2 –copt=-mfma
–copt=-mfpmath=both –copt=-msse4.2 –copt=-cuda -k
//tensorflow/tools/pip_package:build_pip_package
bazel-bin/tensorflow/tools/pip_package/build_pip_package
/tmp/tensorflow_pkg

人脸识别性能目的。
辨认性能,是否鉴别准确。Top-K识别率,给出前K个结果包含正确结果概率。错误拒绝辨识率(FNIR),注册用户被系统错误辩识为任何注册用户比重。错误接受辩识率(FPIR),非注册用户被系统识别为某个注册用户比例。
表明性能,验证人脸模型是否充分好。误识率(False Accept
Rate,FAR),将其旁人误作指定人士概率。拒识率(False Reject
Rate,FRR),将点有名的人士误作其别人士概率。识别速度,识别一副人脸图像时间、识别一个人岁月。注册速度,注册一个人日子。

问答数据集。
MS MARCO(Microsoft Machine Reading Comprehension) http://www.msmarco.org
。微软颁发,10万个问题和答案数据集。创立像人类一样阅读、回答问题系统。基于匿名真实数据构建。
康奈尔高校电影独白数据集
https://www.cs.cornell.edu/~cristian/Cornell\_Movie-Dialogs\_Corpus.html
。600部好莱坞影片独白。

模型生命周期管理。模型先数据训练,渐渐暴发初阶模型,优化模型。模型多重算法试验,生成模型管理。客户端(Client)向TensorFlow
Severing请求模型,TensorFlow Severing重临适当模型给客户端。TensorFlow
Serving、gRPC(Google公司开源高性能、跨语言RPC框架),提供跨语言RPC接口,不同编程语言都足以访问模型。

TPU 加速、FPGA加速。
GoogleTensorFlow设计专用集成芯片-张量处理单元(Tensor Processing
Unit,TPU)。CPU逻辑运算(if
else)能力很强,总结能力比GPU差,深度学习需要海量总计。GPU有强有力浮点统计单元,GPU着色器(shader)对一批数量以同样步调执行同一指令流水。GPU同一时钟周期执行命令数量千级,3000条。CPU同一时钟周期执行命令数据几十级。数据交互能力远超CPU。GPU逻辑运算能力差,流水线并行能力(同一时钟周期并发执行不一逻辑体系能力)差,需要批数量同步调执行同样逻辑。神经网络需要广泛数据交互能力,CNN卷积、矩阵运算操作,通过数量交互大幅提高性能。
GPU出厂后架构固定,硬件原生襄助指令固定。如神经网络有GPU不辅助指令,不可以直接硬件实现,只可以软件模拟。FPGA加速,开发者在FPGA里编程,改变FPGA硬件结构。FPGA体系布局不同,不是冯·诺伊曼结构,是代码描述逻辑电路。只要片上逻辑门、引脚够多,全体输入、运算、输出都在一个时钟周期内到位。FPGA一个时钟周期执行一回全体烧好电路,一个模块就一句超复杂“指令”,不同模块不同逻辑连串,体系里就一条指令。不同运算单元硬件直连,数据交互、流水线并行共存(GPU流水线并行能力约0),浮点运算能力不如GPU。适合低顺延预测推理,每批大小较小。
TPU,专用集成电路(application specific integrated
circuit,ASIC),硬件逻辑一旦烧写不可再编程,专门为TensorFlow做深度学习开发。TPU最近版本不可以完全运作TensorFlow效用,高效预测推理,不涉及训练。

在/tmp/tensorflow_pkg发生whell文件,再用pip命令安装wheel文件。

视频数据集。
YouTube-8M https://research.google.com/youtube8m/
。800万个YouTube视频URL,50万时辰长度视频,带有录像标注。

机械学习评测系统。

常用通用评价目的。
准确率、召回率、F值、ROC、AUC、AP、mAP。
ROC(Receiver Operating Characteristic,受试者工作特点曲线)、AUC(Area
Under roc Curve,曲线下边积),评价分类器目标。ROC曲线横坐标FPR(False
positive rate),纵坐标TPR(True positive
rate)。ROC曲线越接近左上角,分类器性能越好。AUC,ROC曲线下方面积大小。ROC曲线处于y=x直线上方,AUC值介于0.5~1.0。AUC值越大表示性能越好。专门AUC总计工具
http://mark.goadrich.com/programs/AUC/
AP(average precision,平均准确性)、mAP(mean average
precision,平均准确性平均)。总结机视觉,分类问题,AP模型分类能力首要目的。只用P(precision
rate, 准确率)和R(recall
rate,召回率)评价,组成PR曲线趋势召回率越高准确率越低。AP曲线上边积,等于对召回率做积分。mAP对拥有项目取平均,每个类作五遍二分类任务。图像分类小说基本用mAP标准。

参考资料:
《TensorFlow技术解析与实战》

迎接推荐新加坡机械学习工作机遇,我的微信:qingxingfengzi

年龄、性别数据集。
Adience 数据集 http://www.openu.ac.il/home/hassner/Adience/data.html
。来源Flickr相册。用户用智能手机设备拍摄,2284体系,26580张图片。保留光照、姿势、噪声影响。性别、年龄推断、人脸检测。

TensorFlow Serving https://tensorflow.github.io/serving/

录像数据集。
YouTube-8M https://research.google.com/youtube8m/
。800万个YouTube录像URL,50万时辰长度录像,带有视频标注。

光天化日数量集。

TensorFlow Serving代码 https://hithub.com/tensorflow/serving
。源代码Bazel编译安装
https://github.com/tensorflow/serving/blob/master/tensorflow\_serving/g3doc/setup.md
,Docker安装。https://www.tensorflow.org/serving/setup 。结合TensorFlow
Serving,磨练好模型,创建Docker镜像,推送到谷歌 Container Registry
https://cloud.google.com/container-registry/docs/
。模型在Google云平台(Google Cloud
Platform)运行。Kubernetes成功安排模型服务。Serving Inception Model with
TensorFlow Serving and Kubernetes
https://tensorflow.github.ic/serving/serving\_inception 。Google ML
Engine,全托管TensorFlow平台,磨练模型一键转换预测服务。

人脸数据集。
AFLW(Annotated Facial Landmarks in the Wild)
http://lrs.icg.tugraz.at/research/aflw/
,从Flickr收集带标注面部图像大规模wyskwgk,各类姿态、表情、光照、种族、性别、年龄因素影响图片,25000万手工标注人脸图片,每个人脸标注21个特征点,大多数花团锦簇,59%女性,41%男性。相当适合人脸识别、人脸检测、人脸对齐。
LFW(Labeled Faces in the Wild Home) http://vis-www.cs.umass.edu/lfw/
。美利坚同盟国堪萨斯高校阿姆斯特分校总计机视觉实验室整理。13233张图纸,5749人,4096人只有一张图纸,1680个多于一张。用于探讨非受限情况人脸识别问题。人脸外形不平稳,面部表情、寓目角度、光照条件、室内室外、遮盖物(口罩、眼镜、帽子)、年龄影响。为学术界评价识别性能标准(benchmark)。
GENKI http://mplab.ucsd.edu
,马里兰大学采集。包含GENKI-R2009a、GENKI-4K、GENKI-SZSL。GENKI-R2009a,11159图纸。GENKI-4K,4000图纸,笑与不笑两类,每个图片人脸姿势、头转动标注角度,专用笑脸识别。GENKI-SZSL,3500图像,广泛背景、光照条件、地理地点、个人身份、种族。
VGG Face http://www.robots.ox.ac.uk/~vgg/data/vgg\_face/
。2622个不等人,每个人1000张图片,磨炼人脸识别大数额集。
CelebA(Large-scale CelebFaces Atributes,大规模有名气的人人脸标注数据集)
http://mmlab.ie.cuhk.edu.hk/projects/CelebA.html
。10177个名家,202599张有名气的人图像,每张图像40个属性标注。

常用通用评价目的。
准确率、召回率、F值、ROC、AUC、AP、mAP。
ROC(Receiver Operating Characteristic,受试者工作特点曲线)、AUC(Area
Under roc Curve,曲线上边积),评价分类器目标。ROC曲线横坐标FPR(False
positive rate),纵坐标TPR(True positive
rate)。ROC曲线越接近左上角,分类器性能越好。AUC,ROC曲线下方面积大小。ROC曲线处于y=x直线上方,AUC值介于0.5~1.0。AUC值越大表示性能越好。专门AUC统计工具
http://mark.goadrich.com/programs/AUC/
AP(average precision,平均准确性)、mAP(mean average
precision,平均准确性平均)。统计机视觉,分类问题,AP模型分类能力根本目标。只用P(precision
rate, 准确率)和R(recall
rate,召回率)评价,组成PR曲线趋势召回率越高准确率越低。AP曲线上面积,等于对召回率做积分。mAP对具备品类取平均,每个类作五次二分拣任务。图像分类论文基本用mAP标准。

图形数据集。
ImageNet http://www.image-net.org/
。世界最大图像识别数据集,14197122张图像,南洋理工大学视觉实验室终身教师李飞飞创立。每年ImageNet大赛是国际总括机视觉一流赛事。
COCO http://mscoco.org/
。微软成立,分割、加字幕标注数据集。目的划分,通过上下文举行分辨,每个图像包含六个对象对象,抢先300000图像,超越2000000实例,80种对象,每个图像包含5个字幕,包含100000个人关键点。
CIFAR(Canada Institude For Advanced Research) https://www.cifar.ca/
。加拿大先进技术研商院搜集。8000万小图片数据集。包含CIFAR-10、CIFAR-100多少个数据集。CIFAR-10,60000张32×32
RGB彩色图片,共10个门类,50000张练习,10000张测试(交叉验证)。CIFAR-100,60000张图像,100个品种,每个项目600张图像,500张磨炼,100张测试。20个大类,每个图像包含小项目、大类型四个记号。

问答数据集。
MS MARCO(Microsoft Machine Reading Comprehension) http://www.msmarco.org
。微软宣布,10万个问题和答案数据集。成立像人类一样阅读、回答问题系统。基于匿名真实数据构建。
康奈尔大学影视独白数据集
https://www.cs.cornell.edu/~cristian/Cornell\_Movie-Dialogs\_Corpus.html
。600部好莱坞影片独白。

TensorFlow Serving代码 https://hithub.com/tensorflow/serving
。源代码Bazel编译安装
https://github.com/tensorflow/serving/blob/master/tensorflow\_serving/g3doc/setup.md
,Docker安装。https://www.tensorflow.org/serving/setup 。结合TensorFlow
Serving,磨练好模型,成立Docker镜像,推送到Google Container Registry
https://cloud.google.com/container-registry/docs/
。模型在Google云平台(Google Cloud
Platform)运行。Kubernetes成功安排模型服务。Serving Inception Model with
TensorFlow Serving and Kubernetes
https://tensorflow.github.ic/serving/serving\_inception 。Google ML
Engine,全托管TensorFlow平台,磨炼模型一键转换预测服务。

当面数据集。

相关文章