Sam Altman 众叛亲离,OpenAI 前董事万字剖析他所忽视的 AI 安全风险!
AI科技大本营 2024-06-13 10:31:04 阅读 97
作者 | 王启隆、王轶群
出品丨AI 科技大本营(ID:rgznai100)
当 Sam Altman 得意于 OpenAI 抢走了谷歌热搜的时候,他应该没想到接下来一整个月的热搜不是 GPT-4o,而是他自己。
GPT-4o 发布仅一天后,轰动全网的产品突破锋芒就被内部团队变动和管理内部的爆料所掩盖。主张安全的 Ilya Sutskever 和 Jan Leike 两员大将相继离职,安全团队分崩离析,逐渐暴露的内幕显示超级对齐团队在成立之处成立的20%算力早已让位于各种明星产品的训练开发。由此掀起的离职潮,内幕爆料风波,纷纷指向了 Sam Altman 的领导本身。
为了商业利益,背离公司及团队的创始初衷,违背诺言,向董事会有所隐瞒等行为,让他的危险一面逐渐显现。
在近期上线的《TED AI 秀》播客节目中,前 OpenAI 董事会成员 Helen Toner 再次爆料了 OpenAI 的宫斗内幕,指责了 Sam Altman 在安全方面的领导能力。
但是,Toner 并没有怒喷 Altman 40 分钟。作为乔治城大学安全与新兴技术中心战略总监,也是 OpenAI 主张安全大于商业利益的前董事之一,Helen Toner 更多是将重点放在向公众阐释她自己对人工智能安全问题的见解。她最后建议,每个人都有权利对技术的未来发展持有自己的见解,所以不要盲信大公司和专家,而是依靠自己的经验去探索,去形成自己的见解。
访谈内容如下:
Sam Altman 的谎言
Bilawal Sidhu(采访者):我是 TED-AI Show 的 Bilawal Sidhu,今天我要采访的是 Helen Toner,一位致力于 AI 监管的研究者,她也是 OpenAI 的前董事会成员。在接下来的采访中,Helen 将首次揭露去年年底 OpenAI CEO Sam Altman 被解雇的幕后真相,并对他提出了一些相当严肃的批评。
让我们快速回顾一下:2023 年 11 月的一个周五,OpenAI 的董事会解雇了 Sam Altman。这起罢免事件在那个周末一直是头条新闻,董事会称他没有做到“在沟通中始终坦诚”。
随后的周一,微软宣布聘请 Sam 领导他们的 AI 部门。许多 OpenAI 员工支持 Sam,并威胁要随他一同离开。与此同时,OpenAI 宣布了一位临时CEO。一天后,剧情反转,Sam 被重新聘用回 OpenAI。几位董事会成员被撤换或辞职,并被替换。自那以后,持续有后续影响。
截至录制本集时的 2024 年 5 月 15 日(TED-AI Show 的实际播出时间为 5 月 29 日),OpenAI 的首席科学家 Ilya Sutskever 正式辞职。Ilya 不仅是解雇 Sam 的董事会成员之一,还是超级对齐(Super Alignment)团队的一员,该团队专注于缓解 AI 长期风险。
随着另一位高管 Jan Leike 的离职,许多原本注重安全的领导层人员要么离开了 OpenAI,要么转移到了其他团队。那么,这里面到底发生了什么?
OpenAI 在 2015 年作为非营利组织起步,自称为人工智能研究公司。他们只有一个使命,为人类的利益创造 AI。他们希望负责任地对待 AI,近距离研究风险,并找出如何最小化它们的方法。这将是一家向我们展示正确使用 AI 方式的公司。
在微软的大量投资下,OpenAI 现在似乎与谷歌处于某种科技军备竞赛之中。ChatGPT 的发布促使谷歌在去年匆忙推出了自己的聊天机器人 BARD。随着时间的推移,OpenAI 变成了“CloseAI”。
从 2020 年发布 GPT-3 开始,OpenAI 停止了代码分享 —— 我不是说这是个错误。保持代码私有是有充分理由的。但不知何故,OpenAI 发生了变化,从一个有着利他目标的使命驱动型非营利组织,变成了一个产品推新速度惊人的普通科技公司。这一轨迹显示了经济激励的力量有多么强大。
如今,AI 领域有很多钱可赚,但同样重要的是,利润不应该是决策的唯一驱动力。人工通用智能(AGI)有可能非常、非常具有颠覆性。这就是 Helen Toner 的工作职责。在 OpenAI 解雇并重新聘用 Sam Altman 不到两周后,Helen Toner 辞去了董事会职务。而她也是投票罢免 Altman 的董事会成员之一。当时内部调查仍在进行中,所以她被建议保持沉默,并因此遭受了太多的批评。看着那时候的新闻报道和推特,我对她的最初印象是一个阻碍进步的技术悲观主义者,或者是一个利用安全政策作为武器的疯狂权力追求者。
但后来,我在今年的 TED 大会上遇到了 Helen,我听到了她的说辞,并改变了印象。这让我思考了治理与监管之间的区别。现在在我看来,OpenAI 的故事是关于 AI 董事会治理和一些非常聪明的人之间思考方式的错位。它还向我们展示了为什么信任科技公司自我管理并不总是会顺利,这也是为什么我们需要外部规则和监管的原因。这是一个平衡。
Helen 已经对 AI 政策进行了大约七年的思考和写作。她是 CSET(Georgetown 大学的安全与新兴技术中心)的战略主任,与华盛顿的政策制定者合作处理各种 AI 问题。让我们欢迎 Helen。
Helen Toner:很高兴来到这里。
Helen Toner
Bilawal Sidhu:Helen,几周前在温哥华的 TED 大会上,我从你那了解到了去年 OpenAI 大会上发生的事情的简短版本,你能透露一下全部情况吗?
Helen Toner:先让我们快速回顾一下背景:OpenAI 的董事会并非寻常。公司本身也不一般,其董事会是一个非营利性质的董事会,其明确设立的目的是确保公司的公共利益使命居首位,优先于利润、投资者利益及其他事项。
但多年以来,Sam 通过隐瞒信息、误导公司内部发生的事情,在某些情况下甚至直接对董事会撒谎,使得董事会很难真正履行这一职责。
每当此时,大家总会问:“比如呢?给我举些例子。”
我无法透露所有细节,但我可以举例一些情况:
2022 年 11 月 ChatGPT 发布时,董事会并未事先得到通知。我们是从 Twitter 上得知 ChatGPT 的。
Sam 没有告知董事会他持有 OpenAI 创业基金,尽管他一直坚称自己是以无财务利益于公司的独立董事会成员身份存在。
在多个场合下,他向我们提供了关于公司少量既定安全流程的不准确信息,这意味着董事会几乎无法了解这些安全流程的实际运行效果,也不知道是否需要做出调整。
最后,我可以分享一个广为人知的例子,因为它已被媒体广泛报道 —— 我撰写的一篇论文,《Decoding Intentions Artificial Intelligence and Costly Signals》。这篇论文在媒体报道中被过分夸大了。
Bilawal Sidhu:我可以向各位读者介绍一下这篇论文:Helen 去年秋天与人合著了一篇旨在为政策制定者提供参考的研究论文。Sam Altman 对此并不满意。Helen 的论文似乎对 OpenAI 持批评态度,而对他们的竞争对手 Anthropic 则更为看好。该论文发表之际,正值联邦贸易委员会(FTC)正就构建其生成式 AI 产品所使用的数据对 OpenAI 展开调查。基本上,OpenAI 一下子受到了大量批评和审查的压力。
Helen Toner:这件事与 11 月的那场风波关联起来的方式相当直接 —— 它与这篇论文的内容无关,问题在于论文发布后 —— Sam 从此以后开始向其他董事会成员撒谎,试图将我排挤出董事会。这是又一次严重损害了我们对他信任的例子。
实际上,这件事发生在去年 10 月底,当时我们已经在认真讨论是否需要解雇他。还有很多个别例子,对于任何一个单独的案例,Sam 总能想出某种听起来无害的解释,说明为什么这没什么大不了的,或者被误解了等等。但最终的结果是,经过多年的这类事情,我们四个最终决定解雇他的董事得出结论,我们不能再相信 Sam 对我们说的话了。
董事会因此陷入了完全无法运作的状态,尤其是作为一个本应为公司提供独立监督的董事会 —— 而不仅仅是帮助 CEO 筹集更多资金的那种董事会。
这就是去年秋季事态发展到那个阶段的背景。我们一直在董事会层面尽最大努力建立更好的结构、流程等,试图解决我们在董事会层面遇到的问题。
然而,转折点主要发生在去年 10 月,我们与数名高管进行了一系列深入交流,他们首次向我们吐露了与 Sam 交往的亲身经历,他们之前因感到不安而从未分享。他们表达了对 Sam 的不信任,特别提到了他营造出的压抑工作环境。他们用“心理虐待”来形容,并明确表示不认为 Sam 是引领公司迈向 AGI(通用人工智能)愿景的合适领导者,坚信他无法或不愿改变,认为给予反馈徒劳无功,解决问题的努力也注定无效。
尽管事后他们试图减轻这些言论的严重性,但那些对话绝非轻松随便,而是异常严肃,以至于他们提供了 Sam 在不同情境下撒谎和操控行为的截图和其他证据,证明所言非虚。这是一个影响深远的事件,牵扯了很多内容,所以我们在几周的时间里对此进行了非常密集的讨论,最终得出结论 —— 为了 OpenAI 的使命和组织本身,最好的做法是引入一位不同的 CEO。
一旦我们达成这个结论,我们就很清楚,只要 Sam 一有风吹草动,意识到我们可能做出对他不利的事情,他就会不遗余力地利用一切手段来破坏董事会,阻止我们甚至到达能够解雇他的那一步。因此,我们非常谨慎,非常有计划地选择告知的对象,除了显然包括我们的法务团队外,几乎没有人提前知道。这就是导致我们在 11 月 17 日采取行动的原因。
Bilawal Sidhu:感谢您的分享。现在,Sam 最终重新担任首席执行官,大多数员工都支持他的回归。究竟发生了什么?为什么会有这么大的压力要让他回来?
Helen Toner:是的,这显然是个避不开的话题,而且遗憾的是,外界对此有不少误解。我认为有三个关键点能帮助我们理清这里的情况。
首先,很早就有人向公司内部传达了这样一种观点:只有两种选择,要么 Sam 立即无条件复职并拥有他自己挑选的全新董事会,要么公司就会面临崩溃。但实际上,情况并非如此非黑即白。我们最终达成的方案并不属于上述两者。可以理解,出于对公司的爱护——不论是因即将从即将进行的收购报价中获益,还是纯粹热爱自己的团队、担心失业,或是对工作的投入——许多人不愿见到公司瓦解,我们也一样。
另一个被严重低估的重要事实是,人们非常恐惧与 Sam 对立。他们亲历或听闻过 Sam 对批评者施加报复的行为,因此对于可能招致的后果感到极度恐慌。所以,当部分员工提出“我们不能让公司垮掉,应该让 Sam 回来”时,那些有过不愉快经历的人很难发声反对,生怕万一 Sam 真的继续掌权,他们的处境会变得难以忍受。
最后,我想指出的是,这其实一直是 Sam 存在的一个问题,并非首次出现。自去年 11 月以来的一些报道揭示,他实际上是被 Y Combinator 辞退的,这一事件当初被低调处理了。
Y Combinator 联合创始人 Paul Graham
在 Toner 的采访后发布了一则“辟谣”
他表示,Sam Altman 不是被「辞退」的
而是在 OpenAI 和 YC 之间做了个「二选一」
更早之前,在他仅有的另一份硅谷工作——在初创企业 Loopt 时,管理层曾两次向董事会提议解除他的职务,原因是其“欺骗和制造混乱”的行为。审视他的过往记录,你会发现他的职业声誉并不光鲜。这个问题并不像他试图描绘的那样,仅是与特定董事会成员的个人冲突。
Bilawal Sidhu:OpenAI 这家公司一开始是想做好事,但现在却转向了营利模式,而且它确实在这场人工智能游戏中跑到了最前面,同时还伴随着一系列道德问题。
前所未有的 AI 隐私危机
Bilawal Sidhu:我不得不问你一个问题,但这确实与我们今天要讨论的话题有关。
Helen Toner:好的,你问吧。
Bilawal Sidhu:从我的角度来看,人工智能从看似遥远的科幻事物变成了几乎无处不在的事物,监管机构也突然开始努力追赶。但我认为,对于一些人来说,需要监管的理由可能并不明显 —— 比如对于普通人来说,我们可能会觉得,我们现在只是有了像 Dall·E 和 ChatGPT 这样的很酷的新工具,可以做这些了不起的事情 —— 我们为什么还要监管它们呢?
Helen Toner:对于技术较为初级的应用形式,我们有一些最基本的需求。比如,如果人们使用它来决定谁可以获得贷款、谁可以假释、谁可以购买房屋,确保技术的准确无误至关重要。
鉴于人工智能常伴有歧视性问题,我们必须保障人们在遭遇不公的时候能有申诉的渠道,让人们能够回头质问:AI 为什么要做出这样的决定?
如果我们谈论的是军事领域中的人工智能应用,那就是另一回事了,我不确定我们是否会说那需要监管, 但显然需要有指导原则、流程等措施到位。
展望未来,考虑到更先进的人工智能系统,我认为随着 AI 不断变得更加复杂,我们可能会看到一系列潜在的危害。如果任何一位在家自学编程的年轻人,都能掌握国家级安全机构级别的黑客技能,这无疑是个隐患。
真正让监管者难以思考人工智能的一个因素是,它涵盖了许多不同的事物,其中很多并不需要监管。例如,像 Spotify 通过 AI 来决定如何制作你的播放列表这种事,我觉得就不需要被监管。我很乐意让 Spotify 随意为我挑选歌曲,即便选错了,也没关系。但对于许多其他应用场景,你至少希望围绕它设置一些基本的常识性界限。
Bilawal Sidhu:比起战场,我更想讨论几个日常生活中的具体案例。
来谈谈监控技术吧。如今,人工智能在感知领域表现出色,几乎能精确解析图像、视频和音频的内容。并且,公共及私人区域的监控摄像头数量正在快速增长。大公司将 AI 融入到这些设备中,实质上是为这些几乎无处不在的、没什么用的老旧摄像头赋予了智能。
以纽约市的麦迪逊广场花园为例,他们利用人脸识别技术阻止了与母公司 MSG 娱乐有诉讼纠纷的律师进入场馆观赛,这种有争议的做法显然引起了对隐私、正当程序以及该技术潜在滥用的担忧。我们能探讨一下这个问题的症结所在吗?
Helen Toner:没错,我认为这在技术发展历程中是一个常见现象:社会中已有的事物,因技术进步而变得更快速、成本更低廉、普及度更高。
比如监控技术,起初是邻居看到你做了什么不对劲的事,可能会告诉警察;再到后来,安装了闭路电视摄像机,警察随时能回放检查;直至今日,监控全天候运行,还加入了AI人脸识别,未来甚至可能出现能标记可疑行为的AI行为分析器。
某种程度上,这并没有改变本质问题——你的行踪会被人掌握在手中。
但必须认识到,当技术变得无孔不入且成本低廉,情形就大不同了。一提监控,人们马上想到的是执法应用。所以关键在于,找出执法需求和过度使用技术之间的平衡。
比如,人脸识别技术在不同群体间表现各异。有地方的警方仅凭人脸识别匹配,不需其他证据就实施抓捕,有个案例就是讲一个孕妇被关押时正值临产期,仅仅因为人脸识别错误就无辜被捕。
我的意思并不是主张全面禁止,呼吁大家任何情况下都不应使用技术。但我们确实要审视这些问题:技术应该如何被应用?出错时会有哪些后果?受害者有哪些救济途径?他们该如何获得正当程序保障?至于私人用途,我认为我们应当更加审慎。
像你提到律师被驱逐的案例,显然就与言论自由、行动自由相悖。虽然我不是律师,不清楚法律对此的具体规定,但其中暴露的公民自由和隐私问题显而易见。
Bilawal Sidhu:我觉得现在存在一种趋势:最新的技术集成了更高级的功能,而广大民众却对此浑然不觉。最近有一个令我震撼的例子是,一段咖啡厅监控视频的画面中满是顾客和咖啡师,顾客的头顶显示了他们在店内停留的时间,而咖啡师的头顶则展示了各自制作饮品的数量。
这背后意味着什么?显然,一是商家能在未经顾客知情或同意的情况下,跟踪顾客的驻留时长,深入了解顾客行为模式;二是商家能监控员工工作效率,甚至可能据此解雇效率较低的咖啡师。这背后隐藏哪些问题和风险?这合法吗?怎么会这样?
Helen Toner:(笑了起来)简而言之,如果你在做人工智能政策方面的工作,其实会经常遇到这个问题,因为美国缺乏统一的联邦隐私立法。也就是说,关于企业如何处理数据,法律上几乎是一片空白。
在美国,由于受到保护的个人数据类型以及保护方式很少,过往有许多制定法律的尝试屡遭挫败。但眼下突然出现了一个低调推进的新势力(人工智能政策),所以人们看到了一丝成功的曙光。谁知道呢?也许这个问题正逐步得到解决。但目前,这绝对是一个大大的漏洞。
Bilawal Sidhu:我认为第一步是让人们意识到这一点,对吧,因为正如你所说,大众已经知道了在线追踪技术。但将同样的分析技术应用于现实生活中的物理空间,却需要破釜沉舟的勇气 —— 而且当我们走进任何一家杂货店时,我们甚至都不知道发生了什么。
Helen Toner:确实,这再次涉及到了规模与普及程度的问题。这就好比你最喜欢的咖啡师知道你总是进来,坐在那里用笔记本电脑待上几个小时 —— 因为他们连续几周都看到你这样做。这与数据被系统性地搜集后,出售给国内外各大数据供应商并用于多种用途的情况截然不同。因此,当我们谈及如此庞大规模的数据时,基于现实人际交往的直观感受似乎就难以适用了。
Bilawal Sidhu:另外,我还想谈谈诈骗问题。现在许多人都遭遇了电话诈骗,他们接到看似来自亲人的来电,内容是家人遭到绑架并索要赎金。实际上,这是不良分子利用市面上随手可得的人工智能技术,挖掘受害者的社交媒体音频资料合成其声音。骗子随后利用这些素材制造出极具说服力的虚假电话,让人听起来就像是处于困境中或被囚禁在某地求救。当前我们已曝光了此类欺诈手段,但未来的趋势如何?又有哪些潜在威胁让你感到忧虑呢?
Helen Toner:显而易见,诈骗接下来会发展到视频领域。如果你尚未向父母、祖父母或生活中的非科技达人强调:“你们必须警惕这种现象。” 那你应该立即去做。
我经常讨论有关政策以及我们在人工智能方面可能需要的政府参与或监管。在许多方面我们都可以适应,不一定非要出台新的规则。我们曾经历过多次在线诈骗风潮,但最新的这波对受害者而言尤为恶劣。
但我也预料到五年后,这将成为人们非常熟悉的事情,只有极少数人仍然容易受到它的影响。所以我认为主要的是,对任何声音都要保持高度怀疑,尤其是不要在银行账户等事务上使用语音识别。我很确定有些银行仍在提供这项服务 —— 那就放弃它。绝对要使用更安全的方式。
警惕视频诈骗的时候,要注意视频通话中看似真实的人物。最近有个案例,一个人参加了全是人工智能生成的虚拟人物参与的会议,唯有他本人是真实的,最终被骗取大量钱财(香港最大 AI 诈骗案:AI 变脸冒充 CFO,骗走 2 亿港元 | 极客头条)。所以这类诈骗案件即将发生。
Bilawal Sidhu:总而言之,基于内容的验证方式似乎已经走到尽头了。
Helen Toner:的确如此。我们应当时常思考,目前的安全基准究竟在哪里?现在有很多信息本来就是公开的,而且似乎并未被滥用。比如,许多人的住址信息是公开可查的,过去还有电话黄页供人查询。再举个简单的例子,比如快递员送货上门,或你去餐馆取预订的餐食时, 通常都不会导致可怕的后果。一切井然有序,方便快捷。
我们永远不会拥有完美的解决方案
Bilawal Sidhu:接下来探讨一下我们实际上能做什么。规制咖啡馆和餐馆之类的商业活动是一码事,遏制可能滥用此类技术的不法分子则是另一码事。法律和规定真的能保护我们吗?
Helen Toner:当然,它们确实能够发挥作用,事实上已经在起效。重申一次,人工智能涵盖众多领域,不存在单一的通用规范。许多现有的法律与规章已对人工智能有所涉及。
大家对于人工智能存在很多担忧(比如算法歧视),这都是有正当理由的。然而在很多情形下,法律条文已明确禁止基于种族、性别、性取向等因素的歧视行为。在这些情况下,我们甚至无需制定新法或新增规定,只需确保相关部门拥有必要的人员配置,或许还需明确其在调查权限、处罚对象等方面的细微调整。对于自动驾驶车辆,已有相应的管理规则,交通部门可以妥善处理,这都是合理的职责分配。至于银行业的 AI 应用,则有众多银行业监管机构及其制定的系列规则。
我认为,在许多领域中,人工智能并非全新概念。现有的体系在应对这些问题上做得还可以,它们只是可能需要更多人员,或对其职能进行轻微调整。此外,在人工智能的前沿地带,随着系统能力边界不断拓展,能执行前所未有的任务,我们也面临着一些新挑战,这要求我们考虑是否应建立规则,确保这些系统的研发和应用是负责任的。
Bilawal Sidhu:我尤其感兴趣的是,你是否遇到过一些特别巧妙或是能称为“良好监管典范”的事例?
Helen Toner:这种事例可能“正在进行中”。我的意思是,我事实上还没有发现哪个方案能真正完全把握住要点。
我们当前在人工智能领域面临的诸多挑战,很大程度上源于对技术能力及其未来五年内发展程度的不确定性。专家们对这些问题的看法分歧极大,这给政策制定带来了巨大难度。因此,我最为关注的那些政策倾向于点明这些疑问,帮助我们更清晰地认识到技术所处的状态。
例如,去年十月下来了一项行政命令,内容广泛,其中一点是要求训练特别先进系统的公司必须向政府提交有关这些系统的特定信息。这是一种既不限制模型的构建或训练,也不要求政府审批的机制,而是通过信息共享增强透明度,并随技术演进而提高应对能力,所以对于政府跟进快速变化的技术而言是个巨大挑战。此外,外界还出现了大量积极动向,致力于资助人工智能评估与衡量的科学研究。
判断人工智能现状的一大难题在于,我们很难确切衡量哪个系统更高效,很难对两个系统之间如何比较,并判断哪个系统是否可以称为更“聪明”。因此,过去一两年间,为增强政府在这一领域的资金支持和能力建设投入了大量关注,我认为这是非常有成效的。
Bilawal Sidhu:所以,政策制定者们肯定已经意识到人工智能了,并且很多人都对此感到担忧。他们想确保人工智能是安全的,对吧?但这并非易事。你之前说如何规范人工智能是很困难的,为什么会这样?是什么让人工智能治理如此困难?
Helen Toner:的确,我认为至少有三个原因使这一任务极具挑战性。
1. 人工智能覆盖广泛,它横跨多个行业,有许多不同的应用场景。我们很难全面了解它是什么、它能做什么、它将产生什么影响。
2. 人工智能处于持续演进之中,其技术能力与两年前、五年前乃至十年前相比已大相径庭。而政策制定者并不擅长快速应变式的政策调整,他们并不像软件开发者那样敏捷。
3. 没有人能就它们是如何变化或未来将如何变化达成一致意见。当你询问五位专家技术的未来趋势时,往往会得到五种截然不同,且常常是极其笃定但相互矛盾的答案。这一点同样给政策制定者带来了巨大困扰,因为他们需要依赖科学共识来指导决策,然而现实中的多样性观点却难以提供明确指引。
(笔者:Geoffery Hinton 和 Yann Lecun 作为人工智能的两大教父,有着完全相反的观点,后者前段时间还和马斯克吵了一架)
因此,我认为这第三点,即政策制定者难以确定应听取哪一方的意见、关注哪些问题,以及这些问题又将如何随时间演变,是人工智能政策制定中最为棘手的难题。
Bilawal Sidhu:谈到应听取谁的意见,我觉得可以聊一下 AI 领域的大型公司。当你要求透明度的时候,大公司会觉得“我凭什么让人窥视我们正在建设的东西的内部情况呢?”他们会称这是专有的。另一方面,这些企业或许渴望构建一种实际上利于自身并遏制未来竞争的政策与制度环境。
那我们该如何促使这些强势的企业积极参与并公平竞技呢?
Helen Toner:对于政策制定者来说,弄清楚如何与这些公司互动确实非常具有挑战性,但还有部分原因是他们缺乏深入探究问题所需的专长和时间。一个典型的参议员助手可能同时要处理技术、贸易、退伍军人事务、农业和教育等多个议题,这是他们职责的广泛性。因此,他们急需外界援助。
因此,我认为大公司介入 AI 治理工作并发挥作用是很自然的。同时,我也认为,如果政策制定者不了解技术运作原理,且未与受监管企业沟通未来走向,他们也很容易做出错误决策。所以,难点就在于如何在听取这些企业意见的同时,平衡来自外界的声音,因为这些声音会指出大公司实际上是自私自利的 —— 这就是重点,公民社会要有资源参与到这些对话中来。
大公司显然需要在 AI 治理中有一席之地, 但他们最好只拥有一席之地,而不是占据了 100 个座位中的 99 个。
Bilawal Sidhu:在执行方面似乎也存在挑战,对吧?现在市面上已经有很多 AI 模型开源了,所以一切都覆水难收了。那么,在闭源与开源共存、技术获取途径多样的背景下,我们也有可能像电影《1984》一样采取全面监控的手段来监管 AI 问题,要怎么避免这种极端情况?
Helen Toner:我认为没必要这么“二极管” —— 在彻底放任与全面监控之间存在着诸多中间路径。比如,有个非常受欢迎的开源 AI 模型平台叫 Hugging Face,它们在过去曾经将被认为是冒犯性或危险的模型等下架,这实际上在某种程度上减少了这些模型的使用,因为 Hugging Face 的宗旨就是促进模型的易获取性和易用性。
针对具体问题,如社交媒体平台,确实存在可采取的措施。正如你提到的,面对儿童色情、政治误导信息等问题,虽然在创作阶段难以完全管控,但像 Meta(Facebook)、Instagram 这类公司已具备一定的机制来识别、抑制并报告此类内容。尤其在图像和音频生成领域,业界也在围绕内容来源认证或内容真实性验证逐步进行一些有趣的倡议,这都是为了探讨如何确认内容出处及其真实性。
所以,这是一个发展迅速、充满创新的领域。我认为,虽然最终可能无法实现完美解决方案(即始终有手段能辨识 AI 内容的真伪),但通过这些技术与政策手段,能显著提升个人和平台的辨别能力。我认为我们永远不会拥有完美的解决方案,但社会的逐步适应也是关键的一环,我相信通过技术与政策的创新结合,我们能够有效地应对挑战。
AI 不会毁灭世界,因为人心自会腐蚀
Bilawal Sidhu:如今有很多平台已经对 AI 生成内容进行了标注,这是件好事 —— 因为我觉得普通人不应该成为深度伪造检测专家,这是平台的工作 —— 但如果真的有一个技术解决方案来解决这个问题,那就是最好的了。
这引出了我对未来的思考:你认为在 AI 领域里,最“反乌托邦”和最“乌托邦”的未来景象分别是什么样的?让我们先聊一聊“反乌托邦”的未来,一个监管不力或糟糕的世界是什么样子?请为我们描绘一幅画面。
Helen Toner:可能性太多了。其实反乌托邦的世界可能与现在没有太大不同 —— 许多自动化系统在做很多事情,在社会中扮演很多重要角色,在某些情况下做得不好,而人们没有能力去质疑这些决定。我记得以前曾在一场演讲里听过一种说法:如果有人因为算法问题失去了医疗保险,那对那位老人来说不是生存问题吗?已经有人们在非常严重的方式上直接受到算法系统和 AI 的影响,把 AI 用于战争就是正在发生的一种案例。
但最令我担心的一种未来走向 —— 这也是我直觉认为未来最可能发生的一种走向,就是《机器人总动员》式的未来。不知道你还记不记得那部电影。
你可能忘了/没看过《机器人总动员》
但你应该认识“瓦力”
Bilawal Sidhu:我当然记得。
Helen Toner:我想聊的部分并不是电影里那个变成垃圾堆的地球,而是电影中的人们。他们整天坐在柔软的轮椅上四处滚动,有各种内容、食物和其他东西让他们感到快乐。
《新程序员007》采访Stuart Russell教授时
曾出现了完全相同的比喻
教授说,想象满是灾难的反乌托邦式未来很简单
但没人能准确描述充满希望的乌托邦未来
我的担忧在于,现实中人们往往倾向于追求即时的欲望与选择,这与真正能够滋养心灵、构建意义深远生活的事物有所区别。商业驱动下,我们极易创造出仅能满足人们表面需求的产品,却无形中构筑了一个空洞、浅薄且缺乏内涵的世界 —— 而且在这个世界中,大部分重要的决策都由那些对何为有意义的生活毫无概念的机器作出。
所以我设想的未来并非那种发生戏剧性大事件的未来,而是我们逐渐将越来越多的控制权交给越来越复杂的计算机,而它们对意义、美、喜悦、成就或繁荣等概念毫无理解 —— 更可怕的是,我们无法将这些概念编程给机器,因为我们自己也难以确切把握这些概念 —— 我希望我们不会走向这样的道路,但这确实有可能成为我们的未来。
Bilawal Sidhu:AI 可以利用我们的希望、愿望、焦虑和担忧,不断地给我们提供类似垃圾食品的东西,无论是在营养方面还是在视听内容方面,这肯定会导致不良后果。让我们谈谈相反的情况,乌托邦的设想。在一个创新、监管和社会繁荣之间达到完美平衡的世界里,会是什么样子?
Helen Toner:我认为,一个基本出发点是我们能否解决世界上的一些重大问题?我确实认为人工智能可以帮助解决这些问题。那我们能不能进一步想象一个没有气候变化困扰,能源充沛且价格低廉、人人得以享用,农业发达、粮食供应充足的世界?除此之外,我更感兴趣的是为我们的孩子、孙子和曾孙们设定条件,让他们自己决定未来应该是什么样子,而不是按照某种特定的愿景前进。
虽然我这么说,但我绝对认为,人工智能有潜力为解决我们作为文明所面临的一些最大问题做出真正的贡献 —— 这话听起来很宏大,也是陈词滥调,但我是真心的。
Bilawal Sidhu:最后一个问题是,我们能做什么?
你确实提到了一些关于警惕 AIGC 内容的例子。但作为个人,在遇到、使用或甚至讨论 AI 时,我们可以做些什么?有什么建议吗?
Helen Toner:我最大的建议是,大家不必对技术本身或是技术专家感到畏惧。这是一项连业界顶尖专家都尚未完全掌握其工作原理的技术。因此,如果对此感兴趣,就保持好奇心吧;如果你有创意的使用方式,不妨尝试;如果你心存顾虑,也完全可以表达你的担忧。关键在于,每个人都有权利对技术的未来发展持有自己的见解,无论是监管者还是企业的 CEO,都无法全面预见这项技术将如何影响全球亿万民众的方方面面。所以,我相信,依靠自己的经验去探索,去形成自己的见解,这应是最重要的建议。
开发者正在迎接新一轮的技术浪潮变革。由 CSDN 和高端 IT 咨询和教育平台 Boolan 联合主办的 2024 年度「全球软件研发技术大会」秉承干货实料(案例)的内容原则,将于 7 月 4 日-5 日在北京正式举办。大会共设置了 12 个大会主题:大模型智能应用开发、软件开发智能化、AI 与 ML 智能运维、云原生架构……详情👉:http://sdcon.com.cn/
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。