读写给大家的AI极简史笔记01机器决策

躺柒 2024-07-18 08:13:00 阅读 85

读写给大家的AI极简史笔记01机器决策

1. 识别、洞察、行动

1.1. 当你不知道该做什么时,智力就是你需要使用的东西。

1.1.1. [瑞士]让·皮亚杰(Jean Piaget),生物学家和发展心理学家

1.2. 对于人类来说很难的事情,对机器来说很简单。

1.2.1. 因为从可控硬件中学习数据的软件已经越来越熟练地掌握了识别、洞察和执行这个三角系统

1.3. 几年前,在任何情况下,我们都完全有理由不把这个决定权交给机器

1.3.1. 这项技术还没有被证明比我们自己坐在方向盘后面更有可能把我们安全地带到目的地,因为我们不仅熟悉交通规则,有丰富的经验与预测人类行为的能力,还有直觉

1.4. 今天,特斯拉的驾驶员们已经将许多驾驶决策委托给计算机

1.4.1. 自主驾驶的运行远非完美

1.4.2. 在天气良好和有清晰标注的公路上,自动驾驶系统显然已经是比人类更好的驾驶员

1.4.3. 在城市里,晚上或在大雾天,自动驾驶系统优于人类驾驶也只是个时间问题

1.5. 计算机在过去的几年里已经获得了识别事物的能力

1.5.1. 不仅特斯拉所配备的GPS导航、高分辨率照相机、激光和雷达传感器能精确地告知自动驾驶系统汽车的位置、卡车的行驶速度、道路状况及右边是否有紧急通道,该系统的图像识别软件还可以可靠地识别出闪烁的灯是卡车的转弯信号灯,而不是远处建筑工地上的灯

1.5.2. 如今最好的计算机已经能区分出地面上的物件是汽车能安全碾过的碎纸还是它需要绕行的石头

1.6. 所有的视觉(和其他感官)数据流入一个小型的超级计算机,也就是汽车的人工大脑

1.6.1. 处理器必须以秒为单位对信息进行排序,同时将实时数据与先前收集的数据、已编程到系统中的规则同步

1.6.2. 通过对几十亿英里的道路交通信息——反馈数据——进行学习,自动驾驶系统得到了加强,它甚至知道卡车司机并不总是遵守交通规则

1.6.3. 它也知道,如果一辆自动驾驶汽车冒着发生严重事故的危险坚持遵守交通规则,是不符合乘客最大利益的

1.7. 自动驾驶系统根据观测到的情况、编程规则和以往的经验,在许多可计算的场景中推断出避免事故的最佳选择,同时仍然带领特斯拉快速前进

1.7.1. 在本质上,这是一个认知决定,一个对行动方针的选择

1.7.2. 这个问题的最佳解决方案其实是一个基于许多变量的概率计算

1.8. 一个真正的自动驾驶系统将直接做出自行的判断并付诸行动

1.8.1. 飞机的自动驾驶仪在正常情况下比任何头戴机长帽的飞行员都能更精确地控制飞机起飞或降落

1.8.2. 在完全数字化系统下用于高频股市交易的机器人会自动执行决策

1.8.3. 它们的自动化原理是一样的:识别数据中的模式,从统计和算法中推断出结论,再通过技术程序将结论变成决定并加以执行

2. 博兰尼悖论

2.1. 它描述了一个以前软件程序员无法逾越的极限:没有理论,没有规则,我们就不能把知识和能力传授给机器

2.2. 衡量决策的影响并将其纳入未来决策是人工智能系统本质的一部分

2.3. 人工智能系统是基于反馈做出决定的

2.3.1. 人工智能和传统IT系统的本质区别在于人工智能能够独立改进自己的算法并对结果进行评级

2.3.2. 自动校正是内置在AI系统中的

2.4. 自20世纪40年代第一台大型计算机问世以来,计算机编程意味着人类需要耗费大量精力将理论模型输入机器之中

2.4.1. 本质上,经典编程就是将现有知识从程序员的头脑中转移到一台机器上

2.4.2. 但是这种技术方法有一个自然的限制:人类的大部分知识是隐性的

2.4.2.1. 人类可以识别出面孔,但不知道自己是如何做到的

2.4.2.2. 进化赋予了人类这种能力,但是我们没有很好的理论来解释为什么我们能够瞬间识别安吉拉·默克尔(Angela Merkel)或乔治·克鲁尼(GeorgeClooney),即使在光线很差或是人脸被遮住了一半的情况下,我们也能识别

2.5. 人工智能则克服了博兰尼悖论——人类只创造机器学习的框架

2.5.1. 遵循的基本原则都是只给计算机目标,而不是理论和规则

2.5.2. 计算机通过许多例子和反馈,学习如何在训练阶段达到人类设定的这些目标

2.6. 人们经常讨论的一个问题是反馈回路中的机器学习在实际上是否是智能的

3. 强弱人工智能

3.1. 强人工智能(或称为广义的人工智能)

3.1.1. 有强认知的、像人类一样的AI

3.2. 弱人工智能

3.2.1. 包括那些今天在技术上就已经可以实现的弱人工智能,以及在可见的未来会出现的弱人工智能

3.3. 米国语言哲学家约翰·罗伯特·塞尔(John Robert Searle)在40年前就提出了强弱人工智能的区别

3.4. 目前,强人工智能还只存在于科幻小说中,而弱人工智能已然存在于计算机系统中,并处理着各种直到最近我们还以为只有人类大脑才能处理的任务

3.4.1. 弱人工智能通常涉及经典的知识性工作任务,例如审核保险公司的案卷或写作新闻或体育报道

3.5. 人工智能嵌入到物理机器中,不仅能使汽车智能化,而且能使工厂、农业设备、无人机及救援和护理机器人智能化

3.5.1. 智能机器完全不必模仿人类完成任务的方式或人类大脑中任何意义上的生化过程

3.5.2. 它们通常具有自主搜索数学解析路径、改进已有算法,甚至独立开发算法的能力

3.5.3. 结果是机器比人类做得更好、更快,也更便宜

3.5.3.1. 在解决问题方面,如果机器比人类更优越,机器系统的普及速度就会更快

3.5.3.2. 新技术的引进和传播周期正在缩短

3.6. 人类对于文明的态度将加速或减缓创新被接纳的速度

3.6.1. 当前的机器人在欧洲是敌人,在米国是佣人,在东大是同事,在霓虹国是朋友

3.6.2. 从长远来看,投资回报率才是影响全球对机器人态度的关键

3.6.2.1. 而收益通常是以金钱衡量的

3.6.2.2. 虽然亚马逊需要在自动化货架和收银机系统上投资数百万美元,但在人事成本上它却节省了数百万美元,于是它在之后的某月或年中就可以收回成本

3.6.2.3. 如果纽约基因组中心能够在10分钟内用IBM Watson应用程序分析患者的遗传物质,以便提出可能成功的治疗方法,而高水平的医生需要 160个小时进行同样的分析,那么这时机器人所带来的回报就不是以美元计算了,这时候的衡量标准变成了被挽救生命的数量

3.7. 更多的数据和分析提高了人们对未来的预测能力

3.7.1. 但是数字技术的破坏性造成了不可预知的变化

3.8. 人工智能将像电一样改变世界。

3.8.1. 电力使得高效的火车、装配线、图书馆照明、电话、电影工业、微波、计算机和电池驱动的火星漫游者在崎岖的地表上的探索任务成为可能

3.8.2. 今天,没有人知道人工智能这种跨界技术是否会产生类似的巨大影响

3.8.3. 可能思考AI产业将不会改变什么比思考AI产业将会改变什么更容易。

3.8.3.1. 斯坦福大学教授、谷歌和百度AI团队的前负责人安德烈

4. 机器替代

4.1. 几十年后,自动化投资的回报率才以更高的工资和更好的社会安全网的形式惠及子孙后代

4.2. 从长远来看,对于机械问题我们已经找到了令人满意的答案,那就是进步

4.3. 恩格斯停顿

4.4. 东大拥有开发和使用人工智能的所有重要组成部分

4.4.1. 资本、廉价的计算能力,以及从米国的大学及初创企业涌回东大的智慧头脑,而东大的大学也在培养越来越多的人才

4.4.2. 东大拥有的反馈数据就像沙特阿拉伯的石油储备那么丰富

4.4.3. 世界上大约一半的互联网数据来自于人口数达14亿的东大,由移动消费设备从他们身上收集的数据对于人工智能系统尤其有价值

4.4.4. 从纯粹的经济角度来看,东大有机会进一步加速成为经济超级大国,从而带领数百万人摆脱贫困

4.5. 劳动力经济学家

4.5.1. 他们计算出有大量的人类活动可以由人工智能代替完成

4.5.2. 被第三次自动化浪潮淘汰的人只需要一点点善意及政府的再培训计划,就能迅速找到新的好工作

4.6. 人工智能越快将触角伸向人类工作场所,人们调整个人资质和集体安全系统的时间就越少

4.6.1. 新一代人类就可能在自动化面前败下阵来

5. 机器的瑕疵

5.1. 就目前来说,人工智能系统还不会奴役人类

5.1.1. 没有人知道计算机在未来200年内能发展到什么程度,但起码我们知道,计算机科学家还不知道任何可能导致超级人工智能的技术途径

5.2. 人工智能系统存在内在弱点,使得它们容易做出错误的决策,这限制了它们的使用

5.2.1. 人类有责任不断批判性地看待它们的算法

5.3. 人工智能系统的弱点与人类的非常相似

5.3.1. 人工智能系统的神经网络也会有偏见

5.3.1.1. 这些偏见不是由软件开发人员编写的,而是隐含在训练数据中的

5.3.2. 我们人类知道要对种族主义提高警惕,并且可以加以纠正。但人工智能系统不会这么做

5.4. 自动化决策系统(ADM)的开发人员已经开始寻找解决机器偏见的技术方案

5.4.1. IBM在2018年9月发布了一个开源工具包,用于检查机器学习模型中的偏见

5.4.1.1. “人工智能公平360”(AI Fairness 360)

5.5. 人们是否能够接受人工智能系统在很大程度上取决于人们对它们的信任,因此人工智能系统不仅要做到公平公正,还要给与我们充分的理由去信任它们

5.5.1. AI系统内置一个申辩功能

5.6. 决策过程非常复杂,以至于机器无法向人类解释或展示它是如何得出这个“可信”或“不可信”的结论的

5.6.1. 受“博兰尼悖论”影响的不再是人类,而是机器,因为机器知道太多无法向人类解释的东西

5.6.2. 即使人类注意到人工智能系统犯了错误,也几乎不可能对其进行纠正

5.6.2.1. 机器无法告诉人类错误来自哪里,因为它自己也不知道

5.7. 我们必须批判性地审视机器所告诉我们的一切

5.7.1. 人工智能算法可以通过在社交媒体上精心安排帖子来左右人们的思维,从而颠覆我们的民主

5.8. 立法者,而不是jun人,应该考虑当机器自动开木仓时所触发的所有伦理问题

5.9. 恐惧不应该遮蔽我们的双眼,让我们对人工智能的好处视而不见

5.9.1. 决策自动化为社会的个人、组织和社区提供了巨大的机会

5.9.2. 随着机器能做出越来越好的决策,我们人类就越来越需要集中精力思考:我们要把什么样的决策权委托给人工智能

5.9.3. 即使在用人工智能进行自动决策的时代,人类仍然希望决策能带来幸福,但这对计算机来说没有意义

5.9.3.1. 机器永远感觉不到什么是幸福



声明

本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。