人工智能常用训练方法有哪些

2024-05-17 13:54

1. 人工智能常用训练方法有哪些

有四种方法如下:
1、监督式学习。
在监督式学习下,输入数据被称为“训练数据”,每组训练数据有一个明确的标识或结果,如对防垃圾邮件系统中“垃圾邮件”“非垃圾邮件”,对手写数字识别中的“1“,”2“,”3“,”4“等。
在建立预测模型的时候,监督式学习建立一个学习过程,将预测结果与“训练数据”的实际结果进行比较,不断的调整预测模型,直到模型的预测结果达到一个预期的准确率。

2、强化学习。
在这种学习模式下,输入数据作为对模型的反馈,不像监督模型那样,输入数据仅仅是作为一个检查模型对错的方式,在强化学习下,输入数据直接反馈到模型,模型必须对此立刻作出调整。
3、非监督式学习。
在非监督式学习中,数据并不被特别标识,学习模型是为了推断出数据的一些内在结构。常见的应用场景包括关联规则的学习以及聚类等。常见算法包括Apriori算法以及k-Means算法。
4、半监督式学习。
在此学习方式下,输入数据部分被标识,部分没有被标识,这种学习模型可以用来进行预测,但是模型首先需要学习数据的内在结构以便合理的组织数据来进行预测。
应用场景包括分类和回归,算法包括一些对常用监督式学习算法的延伸,这些算法首先试图对未标识数据进行建模,在此基础上再对标识的数据进行预测。

人工智能常用训练方法有哪些

2. AI可预测路人的行为,具体是如何预测的?

麻省理工学院(MIT)的研究人员为这个复杂的挑战设计了一个看似简单的解决方案。他们将多个道路使用者的行为预测问题分成小块,并单独解决每个问题,因此计算机可以实时解决这一复杂的任务。他们的行为预测框架首先猜测两个道路使用者之间的关系--哪辆汽车、骑自行车的人或行人拥有通行权,哪个道路使用者会让路--并利用这些关系来预测多个道路使用者的未来轨迹。

与自动驾驶公司Waymo编制的巨大数据集中的真实交通流相比,这些估计的轨迹比其他机器学习模型的轨迹更准确。麻省理工学院的技术甚至超过了Waymo最近发布的模型。而且,由于研究人员将问题分解成更简单的部分,他们的技术使用的内存更少。
“这是一个非常直观的想法,但之前没有人充分探索过,而且效果相当好。简单性绝对是一个优点。我们正在将我们的模型与该领域的其他最先进的模型进行比较,包括该领域的领先公司Waymo的模型,我们的模型在这个具有挑战性的基准上取得了顶级的性能。这在未来有很大的潜力,”研究共同牵头人黄昕(音译)说,他是航空和航天系的研究生,也是航空和航天系教授、计算机科学和人工智能实验室(CSAIL)成员Brian Williams实验室的研究助理。

与黄昕和 Williams一起撰写论文的还有来自中国清华大学的三位研究人员:共同第一作者孙桥、顾俊如和资深作者赵行。该研究将在计算机视觉和模式识别会议上发表。研究人员开发新系统 用人工智能预测他人在路上的行为。
多个小模型、研究人员的机器学习方法被称为M2I,它需要两个输入:在交通环境(如四通八达的十字路口)中互动的汽车、自行车和行人的过去轨迹,以及一张包含街道位置、车道配置等的地图。利用这些信息,一个关系预测器推断出两个道路使用者中哪一个先拥有路权,将一个人归类为通行者,一个人归类为让路者。然后,一个被称为边际预测器的预测模型猜测过路者的轨迹,因为这个代理人的行为是独立的。

预测模型,被称为条件预测器,然后根据经过的代理人的行为,猜测屈服的代理人会做什么。该系统预测出让者和传递者的一些不同轨迹,单独计算每个轨迹的概率,然后选择发生可能性最大的六个联合结果。
M2I输出一个预测,即这些道路使用者在未来8秒内将如何在交通中移动。在一个例子中,他们的方法使一辆车减速,以便行人能够过马路,然后在他们清除了交叉路口后加速。在另一个例子中,车辆在从一条小街转入一条繁忙的主干道之前,一直等待几辆车通过。

3. 人工智能技术是什么啊?

人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。人工智能产业可划分为基础层、技术层与应用层三部分。

什么是人工智能技术什么是人工智能技术

1、基础层

可以按照算法、算力与数据进行再次划分。算法层面包括监督学习、非监督学习、强化学习、迁移学习、深度学习等内容;算力层面包括AI芯片和AI计算架构;数据层面包括数据处理、数据储存、数据挖掘等内容。

2、技术层

根据算法用途可划分为计算机视觉、语音交互、自然语言处理。计算机视觉包括图像识别、视觉识别、视频识别等内容;语音交互包括语音合成、声音识别、声纹识别等内容;自然语言处理包括信息理解、文字校对、机器翻译、自然语言生成等内容。

3、应用层

主要包括AI在各个领域的具体应用场景,比如自动驾驶、智慧安防、新零售等领域。

人工智能包含了以下7个关键技术。

1、机器学习

机器学习(Machine Learning)是一门涉及统计学、系统辨识、逼近理论、神经网络、优化理论、计算机科学、脑科学等诸多领域的交叉学科,研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能,是人工智能技术的核心。基于数据的机器学习是现代智能技术中的重要方法之一,研究从观测数据(样本)出发寻找规律,利用这些规律对未来数据或无法观测的数据进行预测。根据学习模式、学习方法以及算法的不同,机器学习存在不同的分类方法。

2、知识图谱

知识图谱本质上是结构化的语义知识库,是一种由节点和边组成的图数据结构,以符号形式描述物理世界中的概念及其相互关系,其基本组成单位是“实体—关系—实体”三元组,以及实体及其相关“属性—值”对。不同实体之间通过关系相互联结,构成网状的知识结构。在知识图谱中,每个节点表示现实世界的“实体”,每条边为实体与实体之间的“关系”。通俗地讲,知识图谱就是把所有不同种类的信息连接在一起而得到的一个关系网络,提供了从“关系”的角度去分析问题的能力。

3、自然语言处理

自然语言处理是计算机科学领域与人工智能领域中的一个重要方向,研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法,涉及的领域较多,主要包括机器翻译、机器阅读理解和问答系统等。

4、人机交互

人机交互主要研究人和计算机之间的信息交换,主要包括人到计算机和计算机到人的两部分信息交换,是人工智能领域的重要的外围技术。人机交互是与认知心理学、人机工程学、多媒体技术、虚拟现实技术等密切相关的综合学科。传统的人与计算机之间的信息交换主要依靠交互设备进行,主要包括键盘、鼠标、操纵杆、数据服装、眼动跟踪器、位置跟踪器、数据手套、压力笔等输入设备,以及打印机、绘图仪、显示器、头盔式显示器、音箱等输出设备。人机交互技术除了传统的基本交互和图形交互外,还包括语音交互、情感交互、体感交互及脑机交互等技术。

5、计算机视觉

计算机视觉是使用计算机模仿人类视觉系统的科学,让计算机拥有类似人类提取、处理、理解和分析图像以及图像序列的能力。自动驾驶、机器人、智能医疗等领域均需要通过计算机视觉技术从视觉信号中提取并处理信息。近来随着深度学习的发展,预处理、特征提取与算法处理渐渐融合,形成端到端的人工智能算法技术。根据解决的问题,计算机视觉可分为计算成像学、图像理解、三维视觉、动态视觉和视频编解码五大类。

6、生物特征识别

生物特征识别技术是指通过个体生理特征或行为特征对个体身份进行识别认证的技术。从应用流程看,生物特征识别通常分为注册和识别两个阶段。注册阶段通过传感器对人体的生物表征信息进行采集,如利用图像传感器对指纹和人脸等光学信息、麦克风对说话声等声学信息进行采集,利用数据预处理以及特征提取技术对采集的数据进行处理,得到相应的特征进行存储。

7、VR/AR

虚拟现实(VR)/增强现实(AR)是以计算机为核心的新型视听技术。结合相关科学技术,在一定范围内生成与真实环境在视觉、听觉、触感等方面高度近似的数字化环境。用户借助必要的装备与数字化环境中的对象进行交互,相互影响,获得近似真实环境的感受和体验,通过显示设备、跟踪定位设备、触力觉交互设备、数据获取设备、专用芯片等实现。

人工智能技术是什么啊?

4. 人工智能算法简介

人工智能的三大基石—算法、数据和计算能力,算法作为其中之一,是非常重要的,那么人工智能都会涉及哪些算法呢?不同算法适用于哪些场景呢?
  
 一、按照模型训练方式不同可以分为监督学习(Supervised Learning),无监督学习(Unsupervised Learning)、半监督学习(Semi-supervised Learning)和强化学习(Reinforcement Learning)四大类。
  
 常见的监督学习算法包含以下几类:
   (1)人工神经网络(Artificial Neural Network)类:反向传播(Backpropagation)、波尔兹曼机(Boltzmann Machine)、卷积神经网络(Convolutional Neural Network)、Hopfield网络(hopfield Network)、多层感知器(Multilyer Perceptron)、径向基函数网络(Radial Basis Function Network,RBFN)、受限波尔兹曼机(Restricted Boltzmann Machine)、回归神经网络(Recurrent Neural Network,RNN)、自组织映射(Self-organizing Map,SOM)、尖峰神经网络(Spiking Neural Network)等。
   (2)贝叶斯类(Bayesin):朴素贝叶斯(Naive Bayes)、高斯贝叶斯(Gaussian Naive Bayes)、多项朴素贝叶斯(Multinomial Naive Bayes)、平均-依赖性评估(Averaged One-Dependence Estimators,AODE)
   贝叶斯信念网络(Bayesian Belief Network,BBN)、贝叶斯网络(Bayesian Network,BN)等。
   (3)决策树(Decision Tree)类:分类和回归树(Classification and Regression Tree,CART)、迭代Dichotomiser3(Iterative Dichotomiser 3, ID3),C4.5算法(C4.5 Algorithm)、C5.0算法(C5.0 Algorithm)、卡方自动交互检测(Chi-squared Automatic Interaction Detection,CHAID)、决策残端(Decision Stump)、ID3算法(ID3 Algorithm)、随机森林(Random Forest)、SLIQ(Supervised Learning in Quest)等。
   (4)线性分类器(Linear Classifier)类:Fisher的线性判别(Fisher’s Linear Discriminant)
   线性回归(Linear Regression)、逻辑回归(Logistic Regression)、多项逻辑回归(Multionmial Logistic Regression)、朴素贝叶斯分类器(Naive Bayes Classifier)、感知(Perception)、支持向量机(Support Vector Machine)等。
  
 常见的无监督学习类算法包括:
   (1) 人工神经网络(Artificial Neural Network)类:生成对抗网络(Generative Adversarial Networks,GAN),前馈神经网络(Feedforward Neural Network)、逻辑学习机(Logic Learning Machine)、自组织映射(Self-organizing Map)等。
   (2) 关联规则学习(Association Rule Learning)类:先验算法(Apriori Algorithm)、Eclat算法(Eclat Algorithm)、FP-Growth算法等。
   (3)分层聚类算法(Hierarchical Clustering):单连锁聚类(Single-linkage Clustering),概念聚类(Conceptual Clustering)等。
   (4)聚类分析(Cluster analysis):BIRCH算法、DBSCAN算法,期望最大化(Expectation-maximization,EM)、模糊聚类(Fuzzy Clustering)、K-means算法、K均值聚类(K-means Clustering)、K-medians聚类、均值漂移算法(Mean-shift)、OPTICS算法等。
   (5)异常检测(Anomaly detection)类:K最邻近(K-nearest Neighbor,KNN)算法,局部异常因子算法(Local Outlier Factor,LOF)等。
  
 常见的半监督学习类算法包含:生成模型(Generative Models)、低密度分离(Low-density Separation)、基于图形的方法(Graph-based Methods)、联合训练(Co-training)等。
  
 常见的强化学习类算法包含:Q学习(Q-learning)、状态-行动-奖励-状态-行动(State-Action-Reward-State-Action,SARSA)、DQN(Deep Q Network)、策略梯度算法(Policy Gradients)、基于模型强化学习(Model Based RL)、时序差分学习(Temporal Different Learning)等。
  
 常见的深度学习类算法包含:深度信念网络(Deep Belief Machines)、深度卷积神经网络(Deep Convolutional Neural Networks)、深度递归神经网络(Deep Recurrent Neural Network)、分层时间记忆(Hierarchical Temporal Memory,HTM)、深度波尔兹曼机(Deep Boltzmann Machine,DBM)、栈式自动编码器(Stacked Autoencoder)、生成对抗网络(Generative Adversarial Networks)等。
  
 二、按照解决任务的不同来分类,粗略可以分为二分类算法(Two-class Classification)、多分类算法(Multi-class Classification)、回归算法(Regression)、聚类算法(Clustering)和异常检测(Anomaly Detection)五种。
   1.二分类(Two-class Classification)
   (1)二分类支持向量机(Two-class SVM):适用于数据特征较多、线性模型的场景。
   (2)二分类平均感知器(Two-class Average Perceptron):适用于训练时间短、线性模型的场景。
   (3)二分类逻辑回归(Two-class Logistic Regression):适用于训练时间短、线性模型的场景。
   (4)二分类贝叶斯点机(Two-class Bayes Point Machine):适用于训练时间短、线性模型的场景。(5)二分类决策森林(Two-class Decision Forest):适用于训练时间短、精准的场景。
   (6)二分类提升决策树(Two-class Boosted Decision Tree):适用于训练时间短、精准度高、内存占用量大的场景
   (7)二分类决策丛林(Two-class Decision Jungle):适用于训练时间短、精确度高、内存占用量小的场景。
   (8)二分类局部深度支持向量机(Two-class Locally Deep SVM):适用于数据特征较多的场景。
   (9)二分类神经网络(Two-class Neural Network):适用于精准度高、训练时间较长的场景。
  
 解决多分类问题通常适用三种解决方案:第一种,从数据集和适用方法入手,利用二分类器解决多分类问题;第二种,直接使用具备多分类能力的多分类器;第三种,将二分类器改进成为多分类器今儿解决多分类问题。
   常用的算法:
   (1)多分类逻辑回归(Multiclass Logistic Regression):适用训练时间短、线性模型的场景。
   (2)多分类神经网络(Multiclass Neural Network):适用于精准度高、训练时间较长的场景。
   (3)多分类决策森林(Multiclass Decision Forest):适用于精准度高,训练时间短的场景。
   (4)多分类决策丛林(Multiclass Decision Jungle):适用于精准度高,内存占用较小的场景。
   (5)“一对多”多分类(One-vs-all Multiclass):取决于二分类器效果。
  
 回归
   回归问题通常被用来预测具体的数值而非分类。除了返回的结果不同,其他方法与分类问题类似。我们将定量输出,或者连续变量预测称为回归;将定性输出,或者离散变量预测称为分类。长巾的算法有:
   (1)排序回归(Ordinal Regression):适用于对数据进行分类排序的场景。
   (2)泊松回归(Poission Regression):适用于预测事件次数的场景。
   (3)快速森林分位数回归(Fast Forest Quantile Regression):适用于预测分布的场景。
   (4)线性回归(Linear Regression):适用于训练时间短、线性模型的场景。
   (5)贝叶斯线性回归(Bayesian Linear Regression):适用于线性模型,训练数据量较少的场景。
   (6)神经网络回归(Neural Network Regression):适用于精准度高、训练时间较长的场景。
   (7)决策森林回归(Decision Forest Regression):适用于精准度高、训练时间短的场景。
   (8)提升决策树回归(Boosted Decision Tree Regression):适用于精确度高、训练时间短、内存占用较大的场景。
  
 聚类
   聚类的目标是发现数据的潜在规律和结构。聚类通常被用做描述和衡量不同数据源间的相似性,并把数据源分类到不同的簇中。
   (1)层次聚类(Hierarchical Clustering):适用于训练时间短、大数据量的场景。
   (2)K-means算法:适用于精准度高、训练时间短的场景。
   (3)模糊聚类FCM算法(Fuzzy C-means,FCM):适用于精确度高、训练时间短的场景。
   (4)SOM神经网络(Self-organizing Feature Map,SOM):适用于运行时间较长的场景。
   异常检测
   异常检测是指对数据中存在的不正常或非典型的分体进行检测和标志,有时也称为偏差检测。
   异常检测看起来和监督学习问题非常相似,都是分类问题。都是对样本的标签进行预测和判断,但是实际上两者的区别非常大,因为异常检测中的正样本(异常点)非常小。常用的算法有:
   (1)一分类支持向量机(One-class SVM):适用于数据特征较多的场景。
   (2)基于PCA的异常检测(PCA-based Anomaly Detection):适用于训练时间短的场景。
  
 常见的迁移学习类算法包含:归纳式迁移学习(Inductive Transfer Learning) 、直推式迁移学习(Transductive Transfer Learning)、无监督式迁移学习(Unsupervised Transfer Learning)、传递式迁移学习(Transitive Transfer Learning)等。
  
 算法的适用场景:
   需要考虑的因素有:
   (1)数据量的大小、数据质量和数据本身的特点
   (2)机器学习要解决的具体业务场景中问题的本质是什么?
   (3)可以接受的计算时间是什么?
   (4)算法精度要求有多高?
   ————————————————
  
 原文链接: https://blog.csdn.net/nfzhlk/article/details/82725769

5. 人工智能概述

这幅有关“人工智能发展成熟度曲线”的漫画,形象地展示出人们在此前两次人工智能热潮中,从被人工智能在某些领域的惊艳表现震撼,到逐渐认识到当时的人工智能还有各种局限,以至于产生巨大心理落差的有趣过程。
   人工智能基本可以分为三个阶段:符号阶段,统计学习阶段,神经网络。
  
 1 . 符号阶段
  
 这个阶段技术原理:人为指定逻辑   =》  机器执行逻辑并产生结果
                                          
 这个是图灵机的原型,图灵的基本思想是用机器来模拟人们用纸笔进行数学运算的过程。
  
 在这个阶段,是人制定规则,然后由机器去执行这些规则,进行推理和预测。
  
 但是,这个阶段是有问题,什么问题?
   比如:一个医疗专家系统(用于判断病情)
   问题1:世界是复杂的,混沌的,老专家的经验能转为计算机的规则和逻辑的部分也是有限的,是没有办法穷举的。
  
 问题2:而且不同病情有相同的症状,导致无法准确的判断病情,所以这个阶段自身存在的知识获取难、知识领域窄、推理能力弱、实用性差等问题逐步暴露。
  
 因此从 1976 年开始,人工智能的研究进入长达 6 年的萧瑟期。
  
 2 . 统计学习阶段
  
 这个阶段技术原理:数据 + 算法   =》机器学习逻辑   =》  根据学习的逻辑产生结果
                                          
 这个阶段是通过数据加算法改变自身的学习,所以又可以称为机器学习,有了简单模拟人的思维,这个阶段的思维是学习来的,规则也是学习来的,而 “ 符号阶段 “ 是人给机器制定规则,机器帮人决策,和前一个阶段有着本质的区别。
  
 举几个例子:
                                                                                  
 但是统计学习阶段很难准确模仿人的直觉,比如:声音识别,人脸识别,情绪识别等。
  
 3 . 神经网络
  
 这个阶段技术原理:数据 + 模拟人的大脑结构   =》机器学习逻辑   =》  根据学习的逻辑产生结果
  
 这个阶段就是把上一个阶段的 算法 换成了 模拟人的大脑结构(神经元),每个神经元代表不同的维度,把这些维度结合综合分析,然后得出结果,这就非常接近人的思维逻辑了,比如看一张照片,确认照片里的人是谁,我们能快速的认出来,但是却无法解释我们是如何分辨的,其实就是一种直觉,说不清,道不明,神经网络也是如此,就像一个黑盒子,你不知道里面是如何运作的。
   正因为如此,所以结构复杂,结果非常难以预测,在有些情况下(比如数据量或算力不够大),神经网络还不如普通的机器学习算法,比如SVM(支持向量机)。
  
 3.1神经网络模仿人的大脑结构:
                                          
 3.2.实现原理:
                                          
 图中的小圆圈其实是一个个的神经元,每个神经元负责某一个特征,神经元之间相互联系,然后把所有的特征组合为更高级的复杂特征。神经元越多,神经网络越复杂,就和人的神经元一样,大脑不断的学习,树突不断在增加。
  
 神经网络也是有问题,甚至不能简单的异或逻辑运算,需要大量的数据学习,大量的数据学习需要大量的算力。
  
 直到大数据和GPU的出现,有了充足的数据和强的算力,让训练复杂的神经网络变为现实,以往打游戏的显卡NVIDIA ,成为了专业人工智能驯兽师。
  
 某些复杂系统面前, 数据在增长,大数据的洞见确没有增长。
   因为大数据预测遇到了噪声失效。
   例如:
   美国大选,数据上看是希拉里占优势,但是还是出现了黑天鹅事件,特朗普赢了。
   所以多维度,多因素的复杂系统面前,大数据预测往往就失效了,这个时候大数据 + 人工智能也许是更好的解决方案。
  
 1.根据学习模式分类
                                          
 通过告诉计算机哪些是猫,哪些是狗,让计算机不断的学习猫和狗,通过这种指引的方式,计算机就掌握辨别猫和狗的能力,其实就是给图片打上猫和狗的标签,这个过程是有人参与的,所以叫监督学习。
                                          
 通过给计算机大量猫和狗的图片,让计算机发现其中猫和狗特征的规律,然后把猫和狗分类,这里学习到是猫和狗的特征规律,计算机并不知道猫是猫,狗是狗。
                                          
 1.文本分类
                                          
 2.智能交通
                                          
 借助海量的出行数据、 实现智能交通
  
 3.照片物体识别
   
                                          
 
  
 4.可以识别人的情绪:
                                          
 5.声音识别
                                          
 智能家居,智能汽车
  
 6.翻译
                                          
 百度翻译,有道翻译,谷歌翻译
  
 7.AI设计师
                                          
 8.艺术
                                          
 9.金融
   比如:机器代替人去筛选研报,阅读研报,给出分析数据
   比如:预测股价
                                          
 10.农业
                                          
 11.医疗,目前主要还是在图像识别阶段,比如看片。。。
                                          
 12.围棋:
                                          
 13.无人驾驶
                                                                                  
 人工智能包含机器学习
   机器学习包含表征学习
   表征学习包含深度学习

人工智能概述

6. 人工智能的优势和缺点各是什么?

1、人工智能的优势
人工智能软件的主要优点之一是它是高度自编程的。自编程意味着不再需要人工监督整个过程。因此,这节省了时间和人工成本,并因此减少了人为错误。过去,人为错误是任何项目中的重要因素。但是,在人工智能应用中,几乎可以消除人为错误。
人工智能技术的另一个优势是,它可以作为一个集体单元发挥作用。人类形成计算机网络,但是人工智能设备是完全自治的。这意味着一台机器可以同时执行多个任务。此外,借助人工智能技术,可以同时访问整个数据集,而不会出现任何延迟。
人工智能的最大优点是它可以节省大量的人工成本,因为它需要更少的体力劳动和更多的智力劳动。它也可以用于所有类型的任务,包括基于事实的决策而不是基于情感的决策,这对企业的决策非常有利。
2、人工智能的缺点
随着技术的不断提高,这些过程速度和准确性的提高将非常有用,但也可能导致员工减少对人类的依赖,而更多地依赖于计算机。人工意识的最大缺点之一是它会完全破坏人类的机能。
此外,尽管人工智能可能在关键的决策过程中很有用,但它可能会否定人类参与这些讨论的需求。因此,使用AI的一个主要缺点是,决策过程中的某些步骤仍然需要人工。而且,由于没有人为干预,可能会导致错误和偏见,因此不可避免地需要人为干预。
人工智能的另一个缺点是,一旦人工智能发展,对其进行修改就变得超出了人类的可能性。因此,一旦它发展成为一个大型数据库,人们将无法从中删除数据。此外,随着数据库大小的增加,查询的数量也会增加,结果的质量可能会降低。因此,很难预测人工智能将适合哪种类型的查询。

7. 人工智能的核心技术是什么?

1 计算机视觉。
计算机视觉是指计算机能从图像中识别出物体、场景和活动的能力。
它有着广泛的应用,包括了医疗的成像分析,用作疾病预测、诊断和治疗;人脸识别;安防和监控领域用来识别嫌疑人;在购物方面,消费者可以用智能手机拍摄产品以获得更多的购物选择。

2 机器学习。
机器学习是指计算机系统无须遵照显示的程序指令,而是依靠数据来提升自身性能的能力。
它的应用也很广泛,主要针对产生庞大数据的活动,比如销售预测,库存管理,石油和天然气勘探,以及公告卫生等。

3 自然语言处理。
它是指计算机能够像人类一样拥有文本的处理能力。
举例来说,就是在许多封电子邮件中,以机器学习为驱动的分类方法,来判别一封邮件是否属于垃圾邮件。

4 机器人
将机器视觉、自动规划等认知技术整合至极小却高性能的传感器、制动器以及设计巧妙的硬件中,这就形成了机器人,它有能力跟人类一起工作。
例如无人机,以及在车间为人类分担工作的“cobots”等。

5 语音识别
语音识别主要是关注自动且准确地转录人类的语音技术。
语音识别的主要应用包括医疗听写、语音书写、电脑系统声控、电话客服等。最近推出了一个允许用户通过语音下单的移动APP。

人工智能的核心技术是什么?

8. AI全球格局之人工智能即将变革的三大领域

作者 | 宫学源 
人工智能技术的应用,或许能帮助蓝色星球的科学家们摆脱无穷无尽实验的痛苦,加速重大科学理论的发现,将人类文明提升到新的台阶。 
——题记 
 
人工智能技术的潜力大家都有目共睹,但未来人工智能可以用来做什么,将会给人类社会带来多大的变革,也在考验我们的想象力。 
 
尽管人工智能技术还处在初级发展阶段,但它现有的能力也足以改变众多领域,尤其是那些有着大量数据却无法有效利用的领域。 
 
1 人工智能推动基础科学理论突破  
实际上,材料、化学、物理等基础科学领域的研究过程中充满了“大数据”,从设计、实验、测试到证明等环节,科学家们都离不开数据的搜集、选择和分析。 
 
由于物理、化学或力学规律的存在,这些领域的数据往往都是结构化的、高质量的以及可标注的。 
 
人工智能技术(机器学习算法)擅长在海量数据中寻找“隐藏”的因果关系,能够快速处理科研中的结构化数据,因此得到了科研工作者的广泛关注。 
 
人工智能在材料、化学、物理等领域的研究上展现出巨大优势,正在引领基础科研的“后现代化”。 
 
以物理领域为例,人工智能的应用给粒子物理、空间物理等研究带来了前所未有的机遇。为寻找希格斯玻色子(上帝粒子),进一步理解物质的微观组成,欧洲核子研究中心(CERN)主导开发了大型强子对撞机(LHC)。 
 
LHC是目前世界上最大的粒子加速器,它每秒可产生一百万吉字节(GB)的数据,一小时内积累的数据竟然与Facebook一年的数据量相当。 
 
有一些研究人员就想到,利用专用的硬件和软件,通过机器学习技术来实时决定哪些数据需要保存,哪些数据可以丢弃。 
 
事实证明,机器学习算法可以至少做出其中70%的决定,能够大大减少人类科学家的工作量。 
 
 
尽管人工智能商业化发展更容易受关注,但人工智能在基础科研中的应用,却更加激动人心。 
 
因为社会生产力的变革,归根结底在于基础科研的进一步突破。 
 
我们或许再也回不到有着牛顿、麦克斯韦和爱因斯坦等科学“巨人”的时代。 
 
在那个时代,“巨人”们可以凭借着超越时代的智慧,在纸张上书写出简洁优美的定理,或者设计出轰动世界的实验。 
 
像这样做出伟大工作的机会或许不多了,在这个时代,更多需要的是通过大量实验数据来获取真理的工作。 
 
大到宇宙起源的探索,小到蛋白质分子的折叠,都离不开一批又一批科学家们前赴后继、执着探索。 
 
人工智能技术的应用,或许能帮助蓝色星球的科学家们摆脱无穷无尽实验的痛苦,加速重大科学理论的发现,将人类文明提升到新的台阶。 
 
2 人工智能推动社会生产效率快速提升  
人工智能无疑是计算机应用的最高目标和终极愿景: 
 
彻底将人类从重复机械劳动中解放出来,让人们从事真正符合人类智能水平、充满创造性的工作。 
 
在60年的人工智能发展史中,已经诞生了机器翻译、图像识别、语音助手和个性推荐等影响深远的应用,人们的生活在不知不觉中已经发生了巨大变化。 
 
未来,人工智能应用场景进一步延伸,是否能够带来社会生产效率的极大提升,引领人类进入新时代? 
 
为了探索这一问题,曾在谷歌和百度担任高管的吴恩达于2017年成立了一家立足于解决 AI 转型问题的公司 Landing . ai。 
 
吴恩达通过一篇文章和一段视频在个人社交网站上宣布了该公司的成立,并表示希望人工智能能够改变人类的衣食住行等方方面面的生活,让人们从重复性劳动的精神苦役中解脱。 
 
Landing的中文含义是“落地”,这家公司的目标是帮助传统企业用算法来降低成本、提升质量管理水平、消除供应链瓶颈等等。 
 
截至目前,Landing . ai已经选择了两个落地领域,分别是制造业和农业。 
 
 
Landing . ai最先与制造业巨头富士康达合作。 
 
Landing . ai尝试利用自动视觉检测、监督式学习和预测等技术,帮助富士康向智能制造、人工智能和大数据迈进,提升制造过程中AI应用的层次。 
 
吴恩达认为,人工智能对制造业带来的影响将如同当初发明电力般强大,人工智能技术很适合解决目前制造业面临的一些挑战,如质量和产出不稳定、生产线设计弹性不够、产能管理跟不上以及生产成本不断上涨等。 
目前,工业互联网、智能制造和工业4.0等概念已经深入人心,传统企业都在向智能化、数据化转型,但生产过程中获取的大量数据如何应用又成了新的问题。Landing . ai与富士康的合作,或许将给传统制造的从业者带来新的启示。 
 
当然,制造业的核心竞争力还在于制造业本身,比如车床的精度、热处理炉的温度控制能力等等,农业的核心竞争力也在于农业本身,比如育种技术、转基因技术等等。 
 
人工智能技术的主要价值在于提升决策能力,进一步提升生产效率,以及降低人的重复性劳动等方面,这就是人工智能为什么可以“赋能”各个行业的原因。 
 
3 人工智能将有效改善人类的生存空间  
自第一次工业革命以来,人类活动对自然界造成的影响越来越大,日益增长的资源需求使得土地利用情况产生巨大变化,污染愈发严重,生物多样性锐减,人类的生存空间变得越来越恶劣。 
 
进入人工智能时代后,怎样更好地利用大数据和机器学习等前沿技术,为环保和绿色产业赋能,成为了政府、科学家、公众以及企业的关注焦点。 
 
 
在能源利用方面,谷歌旗下的DeepMind无疑走在了最前面。 
 
2016年开始,DeepMind将人工智能工具引入到谷歌数据中心,帮助这家科技巨头节省能源开支。 
 
DeepMind利用神经网络的识别模式系统来预测电量的变化,并采用人工智能技术操控计算机服务器和相关散热系统,成功帮助谷歌节省了40%的能源,将谷歌整体能效提升了15%。 
 
2018年后,DeepMind更是将“触手”伸向了清洁能源领域。我们都知道,风力发电因为有较大的波动性和不可预测性,因而难以并入电网,无法有效利用。 
 
DeepMind利用天气预报、气象观测等数据训练神经网络模型,可以提供36小时后的风力预测,从而让农场的风力发电变得能够预测。 
 
一旦风力发电可以预测,电厂就能有充裕的时间启动需要较长时间才能上线的发电手段,与风力互补。如此一来,风电并网难的问题就可轻松解决。 
 
DeepMind预测的风力发电量和实际发电量对比 
 
在自然环境保护方面,微软的“人工智能地球计划(AI of Earth)”则为大家做出了表率。 
 
这一计划于2017年7月启动,旨在借助云计算、物联网和AI技术,保护和维持地球及其自然资源,通过资助、培训和深入合作的方式,向水资源、农业、生物多样性和气候变化等领域的个人和组织机构提供支持。 
 
例如,“SilviaTerra”项目通过使用Microsoft Azure、高分辨卫星图像和美国林务局的现场数据来训练机器学习模型,实现对森林的监测;“WildMe”项目通过使用计算机视觉和深度学习算法,可对濒临灭绝的动物进行识别;“FarmBeats”项目在户外环境下可以通过传感器、无人机以及其它设备改进数据采集,进而提高农业的可持续性。 
 
在前三次工业革命中,科学技术进步给人们带来极大生活便利的同时,也带来了气候变化、生物多样性退化、大气与海洋污染等棘手的自然环境问题,人类的生存环境正逐渐变得恶劣。 
 
从表面上看,似乎发达经济体的自然环境已经改善了,但这种改善是以转移污染、破坏发展中国家自然环境为代价的,世界整体的自然环境状况依然不容乐观。 
 
一直以来,人们寄希望于未来的科学技术进步能够解决当下的自然环境问题,而人工智能技术的出现点燃了这一希望。 
 
一旦人工智能技术可以加速基础科学理论的突破,实现生产效率的大幅提升,有效改善人类的生存空间,一切发展与自然环境的问题也就迎刃而解。 
 
 
4 总 结  
站在2019年看人工智能,不免感到几丝寒意。人工智能算法没有明显突破,鲁棒性差、算法黑箱等问题依然突出,部分商业化落地也不及预期,一些专家学者开始担心人工智能将迎来新的“寒冬”。 
 
但若站在未来回顾人工智能,当前所有的担忧将仅仅是一个个小插曲。 
 
即便是目前,人工智能技术的潜力也远远未终结。 
 
人工智能即将带来的变革,仍将会超乎大部分人的想象。 
 
近年来,许多行业都已切实感受到人工智能带来的颠覆,包括金融、制造、教育、医疗和交通等等。 
 
但人工智能的价值维度还有很多,加速基础科学研究、提升社会生产效率和改善人类生存空间也只是其中的几个方面,我们不妨先提升一下自己的想象力。 
 
人工智能将为人类带来怎样的变革,让我们拭目以待吧! 
最新文章
热门文章
推荐阅读