腾讯云从业者认证学习笔记前言

相关链接:

腾讯云从业者认证

【限时免费】腾讯云从业者认证课程 - 腾讯产业互联网学堂 (tencent.com)

模拟考试

认证概述

腾讯云从业者认证是云计算行业从业者的初级技能认证, 通过该认证可有效验证您是否具备掌握云计算基础知识以及理解腾讯云基础产品的功能和使用场景的能力。适用于初入云计算行业, 计划从事售前工作, 或逐步向运维、架构等角色提升的人员。该认证需要学员提前报名, 在腾讯云官方授权的考试中心进行。

适合对象

  • 正在从事或有志于从事云计算相关岗位的学生或IT从业者;
  • 具有计算机、网络通信、数据处理等领域的学习或工作经验;
  • 对虚拟化、服务器、存储、网络、数据库、安全等基本概念有所了解;

我的得分

zddzhq.png

课程目录

zn31Ug.png

考试内容

知识域 百分比 知识点
云计算基础 30% 1.1 计算发展历史 1.2 云计算的技术架构 1.3 云计算的影响 1.4 业界主流云产品
腾讯云产品基础知识 70% 2.1 腾讯云云网络, 云CDN, 云存储, 云数据库, 云安全产品功能、优势和适用场景 2.2 腾讯云云网络, 云CDN, 云存储, 云数据库, 云安全产品计费方案

知识点列表

考试样题

试题结构

zn3VCd.png

60道单选20道多选,70分通过。

1.1 云从导学。

市场增速迅猛,国家推动,厂商发力。

zn3sPJ.png

腾讯云人工智能从业者认证(TCA)学习笔记(一)

背景概述

腾讯云人工智能从业者认证(TCA)是腾讯公司基于腾讯云产品, 面向社会推出的一项专业认证, 旨在推动人工智能的普及、AI入门知识的学习和应用, 推动AI领域初级人才的培养。

参考资料如下:

腾讯云人工智能从业者认证

腾讯云-人工智能-从业资格认证-学习笔记 - 腾讯云开发者社区-腾讯云 (tencent.com)

腾讯云人工智能从业者考试攻略 - 腾讯云开发者社区-腾讯云 (tencent.com)

腾讯云人工智能从业者认证 - 培训认证中心 - 腾讯产业互联网学堂 (tencent.com)

备考指南

腾讯云人工智能从业者认证现行考试大纲共包括4个知识模块:人工智能基础导论人工智能项目开发、腾讯云AI能力架构人工智能发展趋势和产业岗位。在备考策略上,我们建议先查阅好认证的考试大纲,了解考试的知识点范围;然后再学习视频课程,系统性地了解认证考试的全部知识点;最后查阅相关产品文档,进一步理解产品并加深印象。然后通过考试一举拿下认证。备考的准备时间建议两周以上。知识点整理如下:

大纲如下:

zVVu5D.md.png

第一模块:人工智能基础导论,主要需要掌握人工智能的基础概念,了解人工智能的定义、应用与产业发展,具体概念有机器学习、深度学习、监督学习、无监督学习等。

zVVMPe.md.png

第二模块人工智能项目开发,主要是理解人工智能项目的主要内容和生命周期,以及在人工智能项目开发中一般涉及的技术概念,例如数据预处理、特征工程、项目验收等内,常见机器学习框架、深度学习框架、常见开源网站、GPU在AI中的应用等。

zVVJqP.md.png

第三模块腾讯云AI能力架构。本模块主要需要了解腾讯云支持的AI能力有哪些,主要内容包括腾讯云基础算法能力,腾讯云Ti平台,腾讯云AI解决方案和腾讯云内容安全应用等。

zVVNa8.md.png

第四模块人工智能发展趋势和产业岗位,本模块主要是需要考生理解人工智能发展趋势带来的产业岗位分布以及岗位能力要求。

zVVwGQ.md.png

考试内容

知识域 百分比 知识点
人工智能导论 10% 1.1 人工智能概述 1.2 人工智能应用 1.3 人工智能产业发展
人工智能基础 20% 2.1 人工智能发展的成功要素 2.2 人工智能迅速发展的技术领域 2.3 人工智能的基础知识
人工智能项目开发实战 40% 3.1 人工智能项目开发规划与准备 3.2 机器学习开发任务实例(房价预测) 3.3 深度学习开发任务实例(无人小车 3.4 人工智能项目开发验收与维护 3.5 机器学习开发框架 3.6 如何使用开源代码仓库 3.7 对CPU、GPU 与云计算服务的依赖
腾讯云AI能力 25% 4.1 腾讯云AI基础算法能力 4.2 腾讯云TI平台 4.3 腾讯云AI解决方案 4.4 腾讯云AI案例解析
人工智能的发展趋势和行业岗位 5% 5.1 人工智能的未来发展趋势 5.2 人工智能产业岗位分布 5.3 人工智能典型岗位对能力的要求

知识点学习

1.1 人工智能概述

发展:

  • 1936年,图灵发布《论可计算数及其判定问题上的应用》里,提出算法和计算机概念
  • 1950年,发布论文《计算机器与智能》,提出"图灵测试"
  • 1956年,美国达特茅斯会议:“人工智能”概念诞生 人工智能(Artificial Intelligence,AI)是研究、开发用于模拟、延伸和扩展人的智能 的理论、方法、技术及应用系统的一门新技术科学。

人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法】技术及应用系统的一门新技术科学。

三个层面:

  • 计算智能
    • 快速计算和记忆存储
  • 感知智能
    • 能听会说,能看会认,视觉听觉触觉等能力。
  • 认知智能
    • 能理解、思考、决策

人工智能的应用领域和主流方法:

AI基本方法和技术领域

人工智能领域常见概念:

  • 人工智能(Artificial intelligence) 人工智能亦称智械、机器智能,指由人制造出来的机器所表现出来的智能。通常人工智能是指通过普通计算机程序来呈现人类智能的技术。
  • 机器学习(Machine learning): 设计和分析一些让计算机可以自动“学习”的算法。机器学习是一类从数据中自动分析获得规律并利用规律对未知数据进行预测的算法
  • 深度学习(Deep learning): 深度学习是机器学习中一种基于对数据进行表征学习的算法。深度学习的好处是用非监督式或半监督式的特征学习和分层特征提取高效算法来替代手工获取特征。
  • 神经网络(NN) 现代神经网络是一种非线性统计性数据建模工具,神经网络通常是通过一个基于数学统计学类型的学习方法得以优化,所以也是数学统计学方法的一种实际应用。
  • 监督学习(Supervised learning) 机器学习的一种方法,可以由训练资料中学到 或建立一个模式(函数 / learning model), 并依此模式推测新的实例。
  • 无监督学习(Unsupervised learning) 机器学习的一种方法,没有给定事先标记过的 训练示例,自动对输入的资料进行分类或分群

监督、无监督:“有答案”去学习还是“没有答案”去学习

从业者推荐入门人工智能路线:

zVnO0I.md.png

1.2 人工智能应用

生活中的人工智能应用:

指纹识别:指纹采集,指纹评估,提取特征,指纹匹配

刷脸解锁屏幕:样本采样,图片识别,样本比对

真人核身检验:

  • 目前活体检测支持光线、读数、动作、静默等多种活体模式

    1. 动作活体: 皱纹
    2. 唇语活体: 数字和唇部口型
    3. 静默活体: 无需交互动作
      • 通过检测屏幕摩尔纹屏幕边缘检测,通过大量活体非活体的局部区域训练,实现客户不做动作, 也能判断活体
    4. 光线活体: 屏幕发出随机光信号同时采集图像,通过随机光不同的波长,照射脸部,验证 是否为人脸的三维形状和质感,再基于漫反射模型,算法先对人脸上的反射光增量进行建模,提取面部隐式含有的法向量信息,增强并重建人脸深度图。摄像头接收光信号序列,只有当前光特征、序列、面容特性全部匹配,并且验证 采集的时效性,最后与防翻拍进行集合,全部匹配后才会返回成功结果。
  • 人脸活体检测主要是通过识别活体上的生理信息来进行,它把生理信息作为生 命特征来区分用照片、硅胶、塑料等非生命物质伪造的生物特征。

    • 介质攻击,类型可以分为三种:

      2D屏幕攻击

      3D立体攻击

      降级攻击

      • 降级攻击比较特殊,该攻击类型通过镜面反射、投影、 注入等方式,破坏多模态数据之间的一致性,从而绕过部分活体模块,实现安全系统降级,达到攻击的目的
      • 最具挑战性的就是高成本制作的高精头模/面具

从行业使用率看,金融行业人工智能使用率最高。

智慧金融,智慧零售,智慧交通,智慧教育,智慧医疗,智慧制造,智慧健康。

健康码

zVMOB9.md.png

背后技术:活体检测技术

1.3 人工智能产业发展

政策:支持人工智能走向"泛在"

zVQe4P.md.png

需求:智能应用场景持续涌现

  • 转型需求:人口红利转化为创新红利
  • 场景丰富:超大规模且多样的应用场景
  • 抗疫加速:黑天鹅事件催生需求。

供给:智能产业生态不断丰富

  • 技术:从实验室到商业应用
  • 数据:数据成为国家生产要素
  • 时长:供需互促的正向循环
  • 资本:走出炒作泡沫
  • 平台:大厂开房平台促进生态

1.4 人工智能发展的成功要素

三大要素:算法 + 数据 + 硬件

算法

核心要素:不断优化的人工智能算法。

zVQagU.md.png

AI算法极简史

  • 感知器:1957年
    • 算力不足,环境不佳,核冬天。
  • AI教父:1970年 Geoffrey Hinton 研究神经网络。
  • 算法长足进步:1986.7
  • 卷积神经网络:1989,开发
  • 技术瓶颈:
    • 计算机性能不足
    • 数据流严重缺失
    • 问题的复杂性
  • 2004年,Hinton改名神经网络为深度学习。
  • 后面就逐渐起飞咯,老的三巨头也获得了图灵奖。

数据

年均增速极高,

2005年大数据hadoop技术诞生。

ImageNet大规模数据集。2009年,李飞飞团队发论文,宣布建立了超大型图像数据库。2010年,以ImageNet 为基础的大型图像识别竞赛第一届举办。

图像分类:ILSVRC竞赛。深度学习表现优异,错误率只有15.3%

深度学习需要海量数据支持

硬件

高性能芯片组成的计算能力。

后面神经网络参数太多了,GPU硬件却很适合处理这类数据。

GPU(Graphics Processing Unit)的主要任务是在最短时间内显示上百万、千万甚至更多的像素。这个计算工作的核心特点是,是要同时并行处理海量的数据。

一个GPU,往往包含几百个算数逻辑单元(ALU),并行计算能力极强。所以尽管内核的时钟素的往往比CPU的还慢,但对大规模并行处理的计算工作,速度比CPU快很多。

神经网络的计算工作,本质上就是大量的矩阵计算的操作,因此GPU很适合。

英伟达 ALL in AI。

1.5 人工智能迅速发展的技术领域

  • 计算机视觉
  • 语音技术
  • 自然语言处理

zVltZd.png

计算机视觉

计算机视觉(Computer Vision ,CV)是一门研究如何让计算机达到人类那样”看“的学科。达到一种代替视力的效果。

主要应用场景:图像分类,图像重建,目标检测,图像搜索,图像分割,目标跟踪。

人脸识别:脸部辨识系统。

图像分类:根据图像的语义信息将不同类别图像区分开来。

目标检测:旨在从图像中定位感兴趣的目标,准确判定每个目标的类别,并给出每个目标的边界框。难在小目标和多类别物体。

图像分割:将数字图像细分为多个图像子区域,其目的是简化或改变图像的表示形式。分为大致三类:语义分割,实例分割,全景分割。

语音技术

语音技术就是让智能设备能够听得懂人话,也可以让机器说人话的一种技术。涉及数字信号处理,人工智能,语言学等领域。

主要应用场景:语音识别,语音合成,声纹识别

自然语言处理

自然语言处理(Natural Language Processing,NLP)是人工智能和语言学领域的分支学科作为人工智能技术的分支,其使用机器学习来处理和解释文本和数据。自然语言识别和自然语言生成是NLP的类型。目的是用计算机代替人工处理大规模的自然语言信息

主要应用场景: 文本分类,机器翻译,知识图谱,对话系统,信息检索,文本生成

1.6 人工智能的基础知识

人工智能> 机器学习> 深度学习。

zV161K.md.png

机器学习

机器学习是对能通过经验自动改进的计算机算法的研究。

机器学习是用数据或以往的经验,优化计算机程序的性能标准。

zV15tI.md.png

找到不同特征维度,与标签之间的映射关系。

根据训练数据标签与环境交互的方式分为:监督学习,无监督学习,强化学习。对应 有标签,无标签,动态变化的标签

深度学习

一种基于对数据进行表征学习的算法。以神经网络为计算模型。

深度一般说的是神经网络的层数。权重,神经元数,等为参数。

深度学习vs机器学习

  • 特征处理
    • 所有机器学习:需要可准确识别且有人工提取的特征。
    • 仅限深度学习:从数据中习得高级特征,并自行创建新的特征。
  • 学习方法
    • 所有机器学习:将学习过程划分为较小的步骤。然后,将每个步骤的结果合并成一个输出。
    • 仅限深度学习:通过端到端地解决问题来完成学习过程。
  • 数据依赖性
    • 所有机器学习:可以使用少规模的数据来做出预测
    • 仅限深度学习:需要使用大量地训练数据来做出预测
  • 硬件依赖
    • 所有机器学习:低端机器即可,无需大量计算能力
    • 深度学习:大量的矩阵乘法运算的高端机器,GPU,我要GPU!!!

腾讯云人工智能从业者认证(TCA)学习笔记(二)

知识点学习

2.1 人工智能项目开发规划与准备

人工智能开发周期:

zZSrIs.md.png

人工智能项目工作时间统计

数据准备最久,也很重要。

zZpky8.md.png

目前数据采集渠道已经扩展开来了,有时是受限于时间和算力。在短时间内训练出合适的模型是十分关键的。而现在的深度学习就很对口。

数据准备:

  • 数据采集
    • 观测数据:自动化获取,传感器等
    • 人工收集:低效,灵活
    • 调查问卷:数字化录入比较搞笑
    • 线上数据库
  • 数据清洗
    • 缺失数据/重复数据/格式错误数据/无用数据
  • 数据标注
    • 对数据进行标注特征工作,生成标签文件。
    • 通过分类、画框、标注、注释等方法。
  • 数据划分
    • 训练集:用于完成模型训练任务
    • 测试集:用于对模型的泛化效果进行检验
    • 拆分比:根据具体任务而定,一般8:2.
  • 数据验收
    • 合法性:数据符合业务规则或约束程度
    • 准确性:数据接近真实值的程度
    • 完整性:所有必须数据的已知程度
    • 一致性:数据在同一数据集内或跨多个数据集的一致程度。
  • 数据管理:
    • 有效的存储、处理和应用。让数据产生价值。
    • zZ9uHe.md.png
  • 数据交付

与数据相关的问题:

  • 数据不足
  • 隐私暴露
  • 分类质量低
    • 数据不平衡
    • 标签错误、不清晰
  • 数据质量低

特征工程

特征工程是指从原始数据转换为特征向量的过程。是机器学习中最重要的起始步骤。

数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限。

常用基本方法:

  • 特征选择:从给定的特征集合中选出相关特征子集。降低学习难度,模型复杂度。可能会降低一定的模型性能
  • 特征提取:原始数据转换为新的特征。降维之类的方法。
  • 特征构建:人工构建新特征,需要启发式算法和观察数据。

zZVk6A.md.png

2.2 机器学习房价预测具体实例

任务背景:

房产中介公司正进行房屋销售过程中,由于房屋价格各不相同,需要针对房屋进行给出一个客观的参考价格。

任务目标:

根据已有房产信息训练模型,从而预测新的价格

任务解析过程:

zZVwp4.md.png

同理参考:

Titanic生存预测攻略 | CJH’s blog (cjh0220.github.io)

2.3 深度学习无人小车实例

神经网络模型的特点:端对端学习

深度学习相比其他方法参数更多,模型更复杂,使得模型对数据理解更深,更智能。

深度学习就是自动,学习,它能够更适合特征多的模型,比如图像。

深度学习的特征提取方法:卷积

卷积是指在滑动中提取特征的过程,可以形象地理解为用放大镜把每步都放大并且拍下来,再把拍下来的图片拼接成一个新的大图片的过程。

卷积核会在其经过的所有位置上都重复以上操作,直到把输入特征矩阵转换为另一个二维的特征矩阵。简而言之,输出的特征基本上就是原输入特征的加权和(权重是卷积核自带的值),而从像素位置上看,它们所处的地方大致相同。

那么为什么输出特征的会落入这个“大致区域”呢?这取决于卷积核的大小。

卷积核的大小直接决定了在生成输出特征时,它合并了多少输入特征,也就是说:卷积核越小,输入输出的位置越接近;卷积核越大,距离就越远。

满足“线性” 和“平移不变性”。

参考博客

参考博客2(十分形象)

任务背景

模拟小车检测交通标志的能力

任务目标

在玩具车前置摄像头采集到的图片中,检测交通标志的具体位置。

任务解析过程

明确数据采集需求 制作数据 模型训练 模型评测

任务需求数理

zZn9HI.md.png

一个个确认内容,如赛道样式,光照情况,俯仰角/翻滚角/偏航角范围,交通标志的内容,检测框覆盖分类和范围,最小框尺度,模糊程度要求,设备色差。

zZnbrj.md.png

再进行数据标注。labeling工具。会生成txt文件。8:2的划分。

模型训练

多隐层的深度神经网络

  • 为实现目标检测的有效特征识别,构建一个含有多隐藏层的前馈神经网络。
  • 学习的是神经元中的权重参数,可以看到神经网络模型可以有效的提取出输入图像中的特征信息。

zZMpDJ.md.png

zZMPER.md.png

模型训练过程

精确率(Precision):在被识别为正分类,确实为正类别的比例是多少?

预测的准。

召回率(Recall):在所有正类别样本中,被正确识别为正类别的比例是多少。预测的全。

困难样本检查。

最后流程总结:

zZMl5t.md.png

2.4 人工智能项目开发验收与维护

模型性能评估与测试调优

分类任务的评价指标

  • 评价指标
    • 评价指标的选择会影响如何测量和比较机器学习算法的性能,也会影响我们在如何权衡结果中不同特征的重要性,和算法最终选择。
    • 使用不同的性能度量往往会导致不同的评判结果。
  • 模型的泛化性
    • 机器学习模型的学习目标是从目标领域内的训练数据到任意其他数据上的性能良好,由此可以在未来对模型没有见过的数据进行预测。
  • 混淆矩阵
    • Confusion matrix:样本的真实分类值作为一个维度,把样本预测分类值作为一个维度。
    • zZlf9x.png
    • 真正例:预测为正,实际为正
    • 真反例:预测为反,实际也为反。
    • 假正例:预测为正,但实际为反
    • 假反例:预测为反,但实际为正
  • 精确率(Precision):在所有预测的正类样本中,预测正确的样本所占用的比例。 = 真正例 / (真正例 + 假正例)。 评估 准不准
  • 召回率(Recall):在所有真实类别为正类的样本中,被正确预测为正的样本所占的比例。 = 真正例 / (真正例 + 假反例) 。评估 全不全

过拟合与欠拟合

过拟合:训练数据表现好,未知数据表现差。就是拟合太过分了,也就是泛化性很弱。

解决方法:正则化处罚,数据丰富

欠拟合:训练数据、未知数据表现都差,就是拟合不足,模型性能差。

解决方法:模型复杂,增长训练时间

调参过程:就是先进行模型构建,根据评估,人工设定“超参数”。

zZ1bsU.png

偏差&方差 偏差的含义:偏差度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力。

个人理解:偏差度量的是单个模型的学习能力,而方差度量的是同一个模型在不同数据集上的稳定性。 使偏差较小,即能够充分拟合数据,使方差较小,即使得数据扰动产生的影响小。

偏差主导了泛化错误率;随着训练程度的加深,学习器的拟合能力逐渐增强,训练数据发生的扰动渐渐能被学习器学到,方差逐渐主导了泛化错误率

Bias是用所有可能的训练数据集训练出的所有模型的输出的平均值与真实模型的输出值之间的差异。

Variance不同的训练数据集训练出的模型输出值之间的差异

环境部署

生产环境是软件持续运行的环境,是最终用户使用的环境。

开发环境是程序员用于编码、调试和优化代码的环境 。

单机环境是一台单独相应所有请求和处理的机器;

分布式环境是多台机器通过相互协调和通信来实现共同目标,通常是通过计算机集群来实现。

部署流程和挑战:

  • 数据科学语言管理(开发语言与实际生产使用语言的不同)
  • 算力和GPU的分配
  • 可移植性
  • 可扩展性
  • 极限状态下机器学习计算。

zZ8fCn.png

2.5 机器学习开发框架

机器学习框架本质上是一种编程库或工具,目的是能够让开发人员更容易、更快速地构建机器学习模型。封装了大量可重用代码,可以直接调用。

本质上,机器学习框架涵盖用于分类、回归、聚类、异常检测和数据准备地各种学习方法。

机器学习框架有:Scikit-learn,Spark Mllib。

深度学习涵盖许多具有多隐藏层地各类神经网络拓扑。这些层包括模式识别地诸多复杂过程。一般来说,网络中的层数越多,可以提取到用于聚类和分类的特征就越复杂。

常见深度学习框架有:Caffe,CNTK,PyTouch,Keras,MXNet,TensorFlow

TensorFlow

TensorFlow目前最流行,是Google地开源深度学习系统,使用数据流图的形式进行计算和开发。

  • 优点:
    • 使用人数最多,社区庞大
    • 工作流程相对容易,API稳定,兼容性好;
    • 能在各种类型的机器上运行,灵活性高;
    • 谷歌老板不断完善更新

zZJ6Yj.png

PyTorch

简洁!高效!快速!

  • PyTorch是由Facebook人工智能研究院退出并且开源的一个深度学习框架。
  • 优点
    • PyTouch不仅能够实现强大的GPU加速,同时支持动态神经网络;
    • 追求最少的封装
    • 设计符合人类思维,它让用户尽可能地专注于实现自己的想法。

2.6 如何使用开源代码仓库

开源软件是源代码可以任意获取的计算机软件,任何人都能查看、修改和分发他们认为合适的代码。

开源软件依托同行评审和社区生产,皆以分散、协作的方式开发。

  • 最常用的集中开源协议有:
    • GPL :GNU 通用公共许可协议
    • LGPL :GNU 宽通用公共许可协议
    • BSD : 伯克利软件分发许可协议
    • MIT :MIT 许可协议之名源自麻省理工学院, 又称“X许可协议”或“X11许可协议”
    • Apache :Apache 许可协议
    • MPL :Mozilla 公共许可协议
  • Git - 开源的分布式版本控制系统
    • GitHub:面向开源及私有软件项目的托管平 台 (世界上最大的代码托管平台)
    • GitLab:用于仓库管理系统的开源项目 (适合管理团队对仓库的访问)
    • Bitbucket:采用 Mercurial 做为分布式版本 控制系统 (无限制的磁盘空间可供使用) •
    • CODING: 面向开发者的云端开发平台 (发布以腾讯云云服务器为基础的国内第一款 完全基于云端的 IDE 工具:Cloud Studio, ) •
    • Gitee 码云:代码托管协作开发平台 (企业级代码托管服务)

zZYDjx.png

2.7 对CPU、GPU与云计算服务的依赖

CPU

  • Central Processing Unit,中央处理器
  • CPU是机器的“大脑”
  • CPU 擅长处理复杂的逻辑运算和不同的数据类型

GPU

  • Graphics Processing Unit ,图形处理器
  • 运行绘图运算工作的微处理器
  • GPU 擅长图形计算和矩阵运算,加速了人工智能的计算速度
  • GPU将在数据中心长足发展。

NPU、TPU

  • 其他两种常用的AI计算加速芯片
  • TPU是一款为机器学习定制的芯片
  • NPU处理器专为物联网人工智能而设计,用于加速神经网络运算。

AI开发与云计算

zZtwdS.png

zZt5i4.png

腾讯云人工智能从业者认证(TCA)学习笔记(三)

3.1 腾讯云AI能力矩阵

腾讯云 AI基础算法能力

zZHfiT.md.png

人脸人体技术布局

zZHXFK.md.png

SDK的全称为 Software Development Kit,翻译过来的意思就是软件开发工具包。这是一个覆盖面相当广泛的名词,简单来说就是:辅助开发某一类软件的相关文档、演示举例和一些工具的集合,这些都可以称为 SDK。

SDK 被开发出来的意义是为了减少开发者的工作量。例如:某公司开发出某种软件的某一功能,将其封装成 SDK(例如数据分析 SDK,就是能够实现数据分析功能的SDK),出售给其他需要的公司使用。这样就可以大大减少开发应用程序的工作量。
原文链接:https://blog.csdn.net/weixin_47340917/article/details/124750420

核心算法 - 人脸检测

技术介绍:

对任意一副给定的图像,采用一定的策略对其进行搜索以确定其中是否含有人脸,如果是则返回脸的位置、大小和姿态。

技术优势

  • 百万级训练样本
  • 各种实际业务数据,更贴近应用场景
  • 鲁棒性强。

核心算法-五官定位

人脸关键点定位与追踪技术,精确定位并追踪面部的关键区域位置。

可以用来 五官变换、美化、应用贴纸

技术指标

  • 90个点五官定位
  • 普通手机上运行平均耗时<15ms
  • 模型数据<2MB,可根据不同平台灵活配置,应用范围广。

核心算法-人脸识别

人脸验证技术(1:1验证):人脸识别技术可以计算出两张人脸照片的相似度,从而判断是否为同一个人,即1:1身份验证。

人脸检索技术(1:N检索):给定一张照片,和数据库中N个人进行对比,给出是否为其中一个人,或给出排序结果。

技术研发:深度学习+机器学习

Face CNN

相关链接

腾讯优图TFace

技术优势

  • 自研领先的人脸深度祖母模型,一个基础模型应对所有场景
  • 模型不断训练
  • 各种准确率99%多。
  • LFW99.80%

LFW(Labled Faces in the Wild) 数据集 主要测试人脸识别的准确率,该数据库从中随机选择了6000对人脸组成了人脸辨识图片对,其中3000对属于同一个人2张人脸照片,3000对属于不同的人每人1张人脸照片。测试过程LFW给出一对照片,询问测试中的系统两张照片是不是同一个人,系统给出“是”或“否”的答案。通过6000对人脸测试结果的系统答案与真实答案的比值可以得到人脸识别准确率。

可以看出,在LFW 数据库中人脸的光照条件、姿态多种多样,有的人脸还存在部分遮挡的情况,因此识别难度较大。现在, LFW 数据库性能测评已经成为人脸识别算法性能的一个重要指标。这个集合被广泛应用于评价 face verification算法的性能。

LFW介绍

核心算法-人脸验证

**技术介绍:**RealFace 是腾讯犹图自研的基于注意力机制的人脸防伪系统,该技术能够对图片或视频中的人脸真伪检测,鉴别是否为伪造人脸(能够支持全脸生成,局部编辑,换脸等多种伪造方式)

**技术优势:**在谷歌联合建立的FaceForensics Benchmark上达到了综合结果业界第一,并且再Facebook主办的Deepfake Detection Challenge榜单Top1%。

从人脸伪造的原理和本质出发,结合人脸的RGB特征和SRM特征,能够充分发掘伪造人脸所产生的伪影细节,同时利用注意力机制对人脸视频的空间信息和时序信息进行融合。

核心算法-人头人体检测跟踪

人体跟踪是对监控影像中人体移动位置的跟踪,技术核心:多目标关联算法的设计与优化。

准确率99左右

核心算法-Reid技术

人重识别、行人再识别、行人检索或跨境追踪。指对不同摄像头捕捉到的行人间建立身份对应关系,实现对行人行动路线的全面刻画。技术核心:训练有效的人体表征模型

技术先进性:设计 corse to fine 的特征金字塔结构,融合part 与global信息设计多任务框架下的交替训练方式,降低陷入局部最优的风险。

Reid还不太成熟,有期待空间。

corse to fine 二次编码?深度学习一种技术。由粗到精

车辆技术布局

zZLsQe.png

核心算法-多目标检测技术

计算机视觉+深度学习。

技术介绍:检测图像中的车辆、非机动车和行人目标,输出检测到的各个目标的bounding box 坐标及目标类型。

技术优势:

Coarse-to-fine 级联预测、多尺度感受野融合,多种平衡采样策略、高精度优化检测框,兼容不同大小、类型、遮挡情况。

核心技术-多目标追踪算法

技术介绍:对于输入的连续视频帧,关联帧与帧的同一目标到相同ID,输出按ID维度组织的一系列目标框轨迹。

zZO3kt.png

核心技术-车辆属性识别技术

技术介绍

对上传车辆,识别车辆的类型、颜色、车系年款等属性标签,以及车牌号码内容。

技术优势

识别维度多,支持非配合场景识别。

可以用“一拍识车小程序”来识别车。也可以用来帮助公安识别嫌疑车辆。

核心技术-车辆搜索技术

技术介绍:实现车辆精确搜索,精准发现同一目标车辆,缩小排查范围

可以在车牌模糊不清被遮挡,甚至车牌丢失的情况下,通过抓取车上的细微特征如划痕、年检标、涂鸦、挂件来锁定目标。

图像识别技术布局

zZO07n.png

核心算法-智能鉴黄

技术介绍

优图DeepEye 智能鉴黄技术可有效帮助用户鉴别色情图片。目标图片经过系统识别之后,会给出其属于色情图片的概率,对于高置信度直接打击,次高置信度图片可按优先级交付人工审核。

技术优势

1、双深度网络模型级联结构,兼顾效果和性能 双模型级联架构,以及模型重点提升性价比,专注快速排除正常片,二级模型专注于细粒度鉴别可疑样本,兼顾了效果与性能。

2、高效的深度网络模型压缩和加速技术

3、训练、使用、优化形成完整迭代闭环

4、公开数据集上效果领先。

核心技术-暴恐图片识别

对用户上传的图片进行自动审核,返回“疑似暴恐”的字段,对疑似图片进行自动打击。

技术优势

主动学习机制帮助提升冷门标签效果

基于自研深度卷积神经网络的暴恐多标签分类。

ze3Ngx.png

核心算法-货架商品识别

图像识别技术,对开放式货架的陈列进行自动化检测,与人工智能相结合、快速、精准的记录与分析。

细粒度识别技术,SKU识别技术

SKU=Stock Keeping Unit(库存量单位)
用以区别开这些不同商品的属性,又称作SKU属性,因为它决定了SKU的绝对数量。SKU这是对于大型连锁超市DC(配送中心)物流管理的一个必要的方法。现在已经被引申为产品统一编号的简称,每种产品均对应有唯一的SKU号。单品:对一种商品而言,当其品牌、型号、配置、等级、花色、包装容量、单位、生产日期、保质期、用途、价格、产地等属性与其他商品存在不同时,可称为一个单品

一个商品SKU,表示该商品关联的若干SKU属性的的属性值的某个组合所形成的子实体
如对应上面的例子,其中的一种组合 XL + 红色 就会形成一个商品SKU。然后,我们可以在该实体上管理价格、库存、专门的图片等信息。

举例:iPhone13 和iPhone13plus 是不同的SKU;
同是iPhone13,白色和黑色也是分属不同的SKU;
同是iPhone13白色,但一个是16G,另一个是32G内存,它们也还是分属不同的SKU

文字识别技术布局

ze37Ps.png

核心算法-通用OCR识别

融合深度学习技术,研发出业界领先的OCR识别模型,支持多种场景、任意版面的整图文字识别,返回文字内容、单字位置及角度等。

  • 场景覆盖全,通用性好
  • 计算速度快,效率高
  • 手写识别体显著领先
  • 客户实战场景广泛应用,经过海量服务检验。

OCR (Optical Character Recognition,光学字符识别)是指电子设备(例如扫描仪或数码相机)检查纸上打印的字符,经过检测暗、亮的模式肯定其形状,而后用字符识别方法将形状翻译成计算机文字的过程;即,针对印刷体字符,采用光学的方式将纸质文档中的文字转换成为黑白点阵的图像文件,并经过识别软件将图像中的文字转换成文本格式,供文字处理软件进一步编辑加工的技术。
推荐博客

核心算法-OCR垂直场景

基于OCR算法,拓展各垂直场景能力。

产业中AI技术主要解决的应用场景

ze5bMn.png

AI业务现状:

碎片化

zeISG4.png

算法跟进不断,AI落地很难。

机器学习收益慢

zeIEdK.png

从0交付AI应用太麻烦

zeInRH.png

应对挑战:全栈AI平台,实现AI落地各环节要素的高效配合

zeIQsI.png

zeoMhF.png

避免重复造轮子,还可以生产新的模型。

!腾讯云全栈 AI平台智能钛

zeTiE6.png

快速理解AI基础平台

zeTuDI.png

数据中心+ 训练工坊 + 自动学习+模型管理+模型服务+应用服务编排 + 应用中心+管理中心

zeHrjJ.png

3.2 腾讯云AI解决方案

AI+泛娱乐

zeOlan.png

AI+ 泛互

zeOIit.png

AI + 政务

zeX9zT.png

AI+ 工业

zeXEw9.png

AI+ 支付

AI+ 文旅

AI+ 教育

AI+ 金融

AI+ 广电

AI+ 硬件

总之就是一大堆领域

3.3 腾讯云AI案例解析

内容安全。

工业视觉场景

各种具体情况处置。

腾讯云人工智能从业者认证(TCA)学习笔记(四)

4.1 人工智能的未来发展趋势

  • 自动机器学习的自动化程度与可解释性得到进一步提升
    • 自动机器学习将实现对机器学习涉及的每个环节的真正的自动化设计过程。
    • 自动机器学习、将推动新一代普适性AutoML平台的建设,并实现机器学习的大众化。
  • 无监督/弱监督学习逐渐成为企业降本增效新利器。
    • 无监督学习和弱监督学习通过不使用标签或减少对标签数量、质量的要求来迅速降低深度模型对于数据的标注要求。
    • 未来将有越来越多的AI企业会面临从前期的迅速扩张到稳定高效化运作的新阶段,无监督/弱监督学习将成为他们过渡到这个阶段的重要手段之一。
  • 3D视觉技术助力产业消费升级,淡化虚实边界。
  • 多模态融合加速AI认知升维。
  • 人工智能推动数字内容生成向新范式演进。
  • 人工智能内核芯片向类脑神经计算方向演进。
  • 算法公平性研究推动AI应有走向普惠无偏见。
  • 隐私保护AI落地实用帮助算法可持续进化
  • 人工智能技术向安全智能方向迈进

4.2 人工智能产业岗位分布。

人工智能产业技术架构

zmSbQ0.png

技术岗位分布!!!

zmpHtH.png

zmpXct.png

4.3 人工智能典型岗位对能力的要求

四类:

  • 综合能力
  • 专业知识能力
  • 技能能力
  • 工程实践能力

智能芯片岗位要求:

zYJluV.png

机器学习岗位要求:

zYJ1BT.png

深度学习岗位要求:


](https://imgse.com/i/zYJGEF)

智能语音岗位需求:

zYJY4J.png

计算机视觉岗位需求:

NLP自然语言处理人才要求

zYJsED.png