重要历史如何认识人工智能?
1.学科2.能力
一般解释:人工智能就是用 人工 的方法在机器(计算机)上实现的智能,或称机器智能
人工智能学科:从学科的角度来说,人工智能是一门研究 如何构造智能机器或智能系统,使之能模拟、延伸、扩展人类智能的学科
人工智能能力:从智能能力的角度来说,人工智能是智能机器所执行的通常与人类智能有关的智能行为,如判断、推理、证明、识别、感知、理解、通信、设计、思考、规划、学习和问题求解等思维活动
90%类计算都不属于AI范畴&&固定算法
近期目标:近期目标的中心任务是研究如何是计算机去做那些过去只有靠人的智力才能完成的工作。主要研究依赖于现有的计算机去模拟人类某些智力行为的基本理论、基本方法。(2)远期目标:探讨智能的基本机理,研究如何利用自动机去模拟人的某些思维过程和智能行为,甚至做的比人还要好。
1950 艾伦图灵
1956 达特茅斯会议 正式提出概念
发展阶段推理期 1950s 诞生
知识期 1980s 数学模型重大突破 神经网络 反向传播 专家系统
机器学习期 20s 大数据 神经网络
三大流派符号主义——图灵测试
连接主义——模拟人脑、神经网络
行为主义——boston
图灵机定义:一台图灵机是一个七元组
纸带 符号 读写头 规则 状态 起始 结束
(存储 符号 读写 程序 数据 开始 结束)
停机问题
可计算性
哥德尔定理——界限基础
康托尔对角线
应用领域机器定理证明
博弈
声图文
NPL
专家系统
大数据volume velocity variety value veracity
相关性✓
因果性×
计算机类型的另外一种分类巨型 微型 网络 人工智能 多样
专家系统 基本组成综合数据库——存放信息
产生式规则——知识
控制系统——规则的解释或执行程序
特点数据驱动
知识的无序性
控制系统与问题无关
数据、知识、控制相互独立
类型正、逆、双向
可交换、可分解
搜索策略 方式开发专家系统索要解决的问题:知识获取、表示、运用
知识表示的主要方法:谓词表示法、框架、产生式、语义网络
语义网络表示知识:ISAAKO
盲目搜索
启发式搜索
回溯策略存在问题
深度问题——限制搜索深度
死循环问题——记录从初始状态到当前状态的路径
图搜索策略回溯:只保留当前路径
图搜索:保留所有搜索路径
概念
根节点深度=0
深度优先搜索
一般不能找到最优解——增加深度限制
宽度优先搜索
一定能找到解
单位耗散——一定有最优解
渐进式深度优先搜索
解决宽度优先&回溯不能找到最优解——给回溯法一个较小的深度,逐渐增加
启发式图搜索
启发强度强:降低工作量、找不到最优解
启发强度弱:工作量大,找到最优解
总代价 当前代价 预估代价
评价函数f=g()+h()
f(n) 评价函数
h(n) 启发函数
g*(n) 从s到n的最短路径耗散值
h*(n) 从n到g的最短路径的耗散值
f*(n) 从s经过n到g的最短路径耗散值
不带*的就是估计值 g是确定的
A→A*
h(n)<=h*(n)
问题
出现多次扩展节点——对h加以限制、对算法加以改进
改进条件
保证可采纳性、不多扩展节点、不增加算法复杂性
归结原理 步骤1.消蕴含符
2.移动否定符
3.变量标准化
4.量词左移
5.消存在量词(有约束 用函数 无约束 用常量)
6.合取
7.隐全称
8.化子句集
9.变量标准化
名词最一般合一者(mgu)
博弈论 极大极小搜索 α-β剪枝常见归结策略:支持集、线性、输入、单元、删除
条件
α:min节点的β值小于等于父节点α值
蒙特卡洛树搜索步骤
从根节点 R 开始,递归选择最优的子节点直到达到叶子节点 L。
选择、扩展、仿真、反向传播
神经网络RNN(Recurrent Neural Network):用于处理序列数据的神经网络
LSTM(LONG SHORT TREM):一种 RNN 特殊的类型,可以学习长期依赖信息。
深度学习自编码器(Autoencoder,AE):一种利用反向传播算法使得输出值等于输入值的神经网络,它先将输入压缩成潜在空间表征,然后通过这种表征来重构输出。
变分自编码器(VAE):首先,对于一批数据来说,生成模型的目标就是学习得到一个分布P(X),使得该分布和数据的真是分布Pgt(X)很接近,这样一来,我们就可以根据得到的P(X)来生成该数据集中到数据,也就是达到了生成数据的目的,这就是生成模型的最终目标。
神经网络结构:全连接神经网络,卷积神经网络,循环神经网络
机器学习 典型过程建立模型——训练——预测
分类监督学习(KNN)
-
训练数据+期望输出
-
回归
-
分类
-
回归&分类
无监督学习(SVM)
-
训练数据
-
聚类
半监督学习
强化学习:外部环境对输出只给出评价信息而非正确答案,学习机通过强化受奖励的动作来改善自身的性能。
知识图谱 概念以结构化形式描述客观世界概念、由SPO三元组组成



