人工智能期末复习
@业精于勤荒于嬉 2024-06-15 09:01:02 阅读 61
📍人工智能概论期末复习✔️
知识表示与知识图谱⭐⭐
知识的特性
相对正确性 不确定性 可表示性与可利用性
知识表示
将人类知识形式化或者模型化。
选择知识表示方法的原则
(1)充分表示领域知识。
(2)有利于对知识的利用。
(3)便于对知识的组织、维护与管理。
(4)便于理解与实现。
一阶谓词逻辑表示法
命题 谓语 谓语公式
谓词公式的性质:永真性 可满足性 不可满足性 等价性
产生式表示法
基本形式 IF P THEN Q
三元组表示 (对象,属性,值)
四元组表示 (关系,对象1,对象2,置信度)
产生式系统
控制系统做的工作:
(1)从规则库中选择与综合数据库中的已知事实进行匹配。
(2)匹配成功的规则可能不止一条,进行冲突消解。
(3)执行某一规则时,如果其右部是一个或多个结论,则把这些结论加入到综合数据库中:如果其右部是一个或多个操作,则执行这些操作。
(4)对于不确定性知识,在执行每一条规则时还要按一定的算法计算结论的不确定性。
(5)检查综合数据库中是否包含了最终结论,决定是否停
止系统的运行。
特点:自然性 模块性 有效性 清晰性
缺点:效率不高 不能表达结构性知识
框架表示法
特点:结构性 继承性 自然性
知识图谱
知识图谱的逻辑结构:模式层与数据层
数据层主要是由一系列的事实组成,而知识以事实为单位进行存储。
模式层构建再数据层之上,是知识图谱的核心。
典型应用:维基百科 DBpedia YAGO XLORE
确定性和不确定性推理方法⭐
推理方式与分类
演绎推理(三段论)归纳推理 默认推理
1.确定性推理:推理时所用的知识与证据都是确定的,推出的结论也是确定的,其真值或者为真或者为假。
2.不确定性推理:推理时所用的知识与证据不都是确定的,推出的结论也是不确定的。(似然推理,近似推理或模糊推理)
单调推理(逐渐接近目标)/非单调推理(可能要回退)
启发式推理(启发式知识)/非启发式推理
推理的方向
正向推理
逆向推理
混合推理
双向推理
冲突消解策略
发生的情况: 多种匹配成功
策略:
1.按针对性排序
2.按已知事实的新鲜性排序
3.按匹配度排序
4.按条件个数排序
自然演绎推理
推理规则:P规则 T规则 假言推理 拒取式推理
举例
**例3.**1 已知事实:
凡是容易的课程小王( Wang )都喜欢;
C班的课程都是容易的;ds 是 C 班的一门课程。
求证:小王喜欢 ds 这门课程。
自然演绎推理的优缺点:
1.表达定理证明过程自然,易理解。
2.拥有丰富的推理规则,推理过程灵活。
3.便于嵌入领域启发式知识。
4.缺点:易产生组合爆炸,得到的中间结论一般呈指数形式递增。
不确定性推理方法
概念
从不确定性的初始证据出发,通过运用不确定性的知识,最终推出具有一定程度的不确定性但却是合理或者近乎合理的结论的思维过程。
可信度方法
举个计算的例子🌰
证据理论
概率分配函数
信任函数
似然函数
模糊推理方法
搜索求解策略⭐⭐
搜索的概念
基本方法: 搜索法 归约法 归结法 推理法 产生式
需要解决的问题:
(1)是否一定能找到一个解。
(2)找到的解是否是最佳解。
(3)时间与空间复杂性如何。
(4)是否终止运行或是否会陷入一个死循环。
搜索方向: 数据驱动(正向) 目的驱动(逆向)双向搜索
状态空间的搜索策略
盲目的图搜索策略
回溯策略
●从初始状态出发,不停地、试探性地寻找路径,直到它到达目的或“不可解结点” ,即“死胡同”为止。
●若它遇到不可解结点就回溯到路径中最近的父结点上,查看该结点是否还有其他的子结点未被扩展。若有,则沿这些子结点继续搜索;如果找到目标,就成功退出搜索,返回解题路径。
PS表(path) NPS表(new) NSS 表(no)
宽度优先搜索策略
每次选择深度最浅的节点首先扩展,搜索是逐层进行的;
一种高代价搜索,但若有解存在,则必能找
到它。
open表(NPS表)和close表(PS和NSS表)
深度优先搜索策略
防止搜索过程沿着无益的路径扩展下去,往往给出一个节点扩展的最大深度——深度界限;
与宽度优先搜索算法最根本的不同:将扩展的后继节点放在OPEN表的前端。
深度优先搜索算法的OPEN表后进先出。
启发式图搜索策略
启发式图搜索策略(利用启发信息的搜索方法)的
特点:重排OPEN表,选择最有希望的节点加以扩展。(想到了优先队列)
A**算法:定义h*(n)为状态n到目的状态的最优路径 的代价,则当A搜索算法的启发函数h(n)小于等于 h*(n)时,即h(n)≤h*(n),则被称为A*算法。
(如果某一问题有解,那么利用A*搜索算法对该问题进行搜索则一定能搜索到解,并且一定能搜索到最优的解而结束。)
A*算法特性: 可采纳性 单调性 信息性
A*算法的核心步骤:
构造启发式函数h(n),并满足h(n)≤h*(n)。
对当前状态计算f(n)=g(n)+h(n),从候选项中取最小值的选项继续迭代。
若有相同的最小值选项,取h(n)较小者。若h(n)也相等,则随机选择一个。
智能计算及其应用⭐⭐
进化算法
适者生存
适用性原则 可靠性原则 收敛性原则 稳定性原则 生物类比原则
基本思想:
在求解问题时从多个解开始,然后通过一定的法则进行逐步迭代以产生新的解。
遗传算法
目标函数=>适应度函数
可行解=>染色体
一组解=>种群
编码
位串编码
二进制编码 Gray编码
实数编码
多参数级联编码
适应度函数映射,尺度变换(用来解决欺骗问题,过早收敛,停滞问题,尺度变换)(变换的方法:线性变换,幂函数变换法,指数变换法)
选择,交叉,变异
适应度比例方法
排序方法(线性/非线性)
选择个体方法:
轮盘赌选择 锦标赛选择(保留适应度最高的个体,反复执行) 随机竞争 最佳个体保存方法
交叉:
一点交叉 二点交叉 部分匹配交叉
变异:
位点变异 逆转变异 插入变异 互换变异 移动变异
遗传算法的步骤和特性
遗传算法的改进算法
双倍体遗传算法
双种群遗传算法
跳出局部最优
自适应遗传算法
交叉概率和变异概率能随适应度自动改变。
专家系统⭐
专家系统的概念
一类包含知识和推理的智能计算机程序。
知识库+推理机
专家系统的工作原理
知识获取的主要过程与模式
抽取知识、知识的转换、知识的输入、知识的检测
模式识别系统⭐⭐⭐
基本概念
模式:通过对具体的个别事物进行观测所得到的具有一定时间或空间分布的信息。
模式识别:是指计算机将某一模式进行 分类、聚类或回归分析;是研究人类识 别能力的数学模型,并借助于计算机技 术实现对其模拟的科学。
模式类:模式所属的类别或者同一类中模式的总体。
模式识别系统组成
1.信息获取 2.预处理 3.特征提取与选择 4.分类器的设计(训练)5.分类决策(识别)
学习和适应
有监督学习 (提供类别标记和分类代价)
无监督学习(系统对输入样本自动形成聚类或自然的组织)
强化学习(智能体(Agent)以“试错”的方式进行学习,通过 与环境进行交互获得的奖赏指导行为,目标是使智 能体获得最大的奖赏。最终结果会有标签,但单次 分类无标签。)
困难与研究方向
特征选择与表示
监督学习(分类器设计,回归分析)
特征提取:
去除冗余特征,提高识别性能
冗余特征可能会导致性能恶化
减少特征数目,提高识别速度
降低系统成本
维数约简 分类器设计 非线性分类器 非线性回归 集成学习 聚类分析
层次聚类
模型评估方法⭐⭐⭐
机器学习定理
没有天生优越的分类器
没有天生优越的特征
不要选择比”必要“更复杂的模型
经验误差与过拟合
经验误差:模型在训练集上的误差。
泛化误差:模型在测试集上的误差。
模型评估方法
给定一个已知的数据集,将数据集拆分成训练集S和测试集T,包括留出法(2:1/4:1),交叉验证法,自助法。
模型性能度量
准确率 错误率 查准率(分类结果为正类,实际结果为正类的比例) 查全率(实际结果为正类,分类结果为正类的比例)平衡点 F1度量
机器学习模型类别⭐⭐⭐
监督学习(关注标签,需要样本标签的支持,目的是要解决输入到输出的映射;分类算法),无监督学习(聚类算法,只注重数据本身,模型的目的是提取数据本身),半监督学习(有标签的数据的数量远远小于无标签的数据的数量,因为要人工标签,解决了监督学习的模型泛化能力不强和无监督学习的模型不精准的问题)
有监督学习KNN
K-最近邻
数据集
样本的向量表示
样本间距离的计算方法(欧式距离,余弦距离,海明距离,曼哈顿距离)
K值的选取 :较小容易发生过拟合,较大会导致偏差较大。
无监督学习K均值聚类
聚类算法
算法的步骤:
①选取数据空间中的K个对象作为初始中心,每个对象代表一个聚类中心;
② 对于样本中的数据对象,根据它们与这些聚类中心的欧氏距离,按距离最近的准则将它们分到距离它们最近的聚类中心(最相似)所对应的类;
③ 更新聚类中心:将每个类别中所有对象所对应的均值作为该类别的聚类中心,计算目标函数的值;
④ 判断聚类中心和目标函数的值是否发生改变,若不变,则输出结果,若改变,则返回②。
半监督学习
只有少量样本带标签
更符合实际需求
强化学习
智能体(Agent)以“试错”的方式进行学习,通过 与环境进行交互获得的奖赏指导行为,目标是使智 能体获得最大的奖赏。最终结果会有标签,但单次 分类无标签。
单步没有标签、
流程走完时有标签
常用于游戏等人工智能应用中
线性模型与非线性化扩展⭐⭐⭐
线性回归及实例
机器学习的基本流程:定义函数(带有未知参数),定义损失(基于训练数据),优化
回归和分类问题的区别:模型最后一层的设计方式不同。
线性模型的非线性拓展
通用的多类分类器
人工神经网络及其应用⭐⭐⭐
神经元与神经网络
激活函数:阶跃函数,sigmoid函数 ReLu函数
Hebb学习规则:当某一突触两端的神经元同时处于兴奋状态,那么该连接的权值应该增强。
BP神经网络
损失函数的定义:均方误差和交叉熵损失
正向传播:输入信息由输入层传至隐层,最终在输出层输出。
反向传播:修改各层神经元的权值,使误差信号最小。
BP算法的实现
1.初始化网络参数
2.前向传播
3.计算损失
4.反向传播
5.更新权重和偏置
6.重复2到5,直到N个样本的训练误差达到要求为止
Hopfield神经网络
反馈机制
离散型只有0/1两种状态
串行/并行
学习算法:
1.设置互连权值
2.未知类别的初始化
3.迭代直到收敛(网络不断趋于稳定)
Hopfield神经网络在联想记忆中的应用
DHNN结构
卷积神经网络与深度学习
卷积 池化(平均池化,最大池化)
胶囊网络
胶囊网络的核心思想:胶囊里封装的检测特征的相关信息是以向量的形式存在的,胶囊的输入是一个向量,是用一组神经元来表示多个特征。
CNN缺陷
CNN中没有可用的空间信息 CNN不会识别特征之间的相互关系 。没有学习到一种正确的特征间相位置对关系(特征的姿态信息)。
池化操作导致信息严重丢失 如最大池化,只保留最为活跃的神经元,传递到下一层,导致有价值 的空间信息丢失。
生成对抗网络(GAN)
训练方法:先把真实图片伪造的图片传给判别网络,先优化判别网络,再优化生成网络,不断循环迭代所有训练图片,最终收敛。
应用方向: 博弈 医学影像识别 图像处理(图像风格迁移) 语言处理
补充
KNN的优缺点
优点:
1.简单,易于理解,易于实现,无需参数估计,无需训练
2.对异常值不敏感
3.适合对稀有事件进行分类
4.适合于多分类问题
缺点:
1.计算量大,内存开销大
2.可解释性差。无法告诉你哪个样本更重要。
3.K值的选择,当样本不平衡时会导致错误
4.KNN是一种消极学习方法,懒惰算法
描述遗传算法的基本过程
1.初始化种群
2.评估适应度
3.选择父代
4.交叉产生子代
5.变异子代
6.更新种群
7.检查终止条件
简述BP神经网络的理论
1.网络结构
2.前向传播
3.误差计算
4.反向传播
5.训练过程
如何解决BP神经网络的梯度消失问题
1.使用合适的激活函数
2.权重初始化和调整
3.批归一化
4.残差网络引入跳跃连接
5.正则化技术
6.调整学习率
GAN的基本思路
1.基本架构:生成器和判别器
2.对抗训练,判别器的目标是最大化识别真实数据和生成数据的能力。其损失函数通常为交叉熵损失;生成器的目标是迷惑判别器,使判别器认为生成数据是真实的。其损失函数也为交叉熵损失。
3.训练过程:固定生成器,更新判别器;固定判别器,更新生成器,重复以上步骤,直到判别器无法判断。
chatgpt用到的技术
1.自监督学习
如果chatgpt api开放,你会用来做什么
1.医疗健康
2.知识阅读
3.个性化推荐
4.内容生成
卷积层的特点和作用
一、特点
1.局部连接
2.共享权重
3.稀疏交互
4.平移不变性
二、作用
1.特征提取
2.升维/降维
3.数据平滑
应用:图像分类 目标检测 图像分割 图像生成
对于单通道图,如果用不同的卷积核那么输出的特征图大小相同吗
在卷积神经网络(CNN)中,卷积操作的输出特征图大小与所使用的卷积核的数量无关,而是与卷积核的尺寸(即宽度和高度)、输入图像的尺寸、填充(padding)方式以及步幅(stride)有关。具体来说,卷积核的数量影响的是输出特征图的深度(通道数),而不是它的宽度和高度。
数据量大
数据类型多
处理速度快
简述BP神经网络的理论
1.网络结构
2.前向传播
3.误差计算
4.反向传播
5.训练过程
如何解决BP神经网络的梯度消失问题
1.使用合适的激活函数
2.权重初始化和调整
3.批归一化
4.残差网络引入跳跃连接
5.正则化技术
6.调整学习率
GAN的基本思路
1.基本架构:生成器和判别器
2.对抗训练,判别器的目标是最大化识别真实数据和生成数据的能力。其损失函数通常为交叉熵损失;生成器的目标是迷惑判别器,使判别器认为生成数据是真实的。其损失函数也为交叉熵损失。
3.训练过程:固定生成器,更新判别器;固定判别器,更新生成器,重复以上步骤,直到判别器无法判断。
chatgpt用到的技术
1.自监督学习
如果chatgpt api开放,你会用来做什么
1.医疗健康
2.知识阅读
3.个性化推荐
4.内容生成
卷积层的特点和作用
一、特点
1.局部连接
2.共享权重
3.稀疏交互
4.平移不变性
二、作用
1.特征提取
2.升维/降维
3.数据平滑
应用:图像分类 目标检测 图像分割 图像生成
对于单通道图,如果用不同的卷积核那么输出的特征图大小相同吗
在卷积神经网络(CNN)中,卷积操作的输出特征图大小与所使用的卷积核的数量无关,而是与卷积核的尺寸(即宽度和高度)、输入图像的尺寸、填充(padding)方式以及步幅(stride)有关。具体来说,卷积核的数量影响的是输出特征图的深度(通道数),而不是它的宽度和高度。
数据量大
数据类型多
处理速度快
价值密度低
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。