众人围剿,GPT-5招惹了谁
CSDN 2024-07-16 09:31:02 阅读 80
目录
千人呼吁暂停AI训练代表人物分析反对原因分析信息安全人身安全失业利益
总结
GPT-4 火爆全球,引发了人工智能大浪潮。过去的一个月,OpenAI、微软、谷歌加上百度不断释放王炸,所有人都相信,AI 的就是未来的生产力。俗话说,人红是非多,树未大已招风,这不,反对 AI 继续前进的声音就来了。
千人呼吁暂停AI训练
3月29日,马斯克、苹果联合创始人 Steve Wozniak、Stability AI创始人 Emad Mostaque 等上千名科技大佬和AI专家签署公开信,呼吁暂停训练比 GPT-4 更强大的 AI 系统,为期6个月。
根据公开信的表示,在这 6 个月内,全社会需要完成这些事:
所有 AI 实验室和独立学者都应该合力开发一套共享安全协议,用于高级 AI 的设计和开发协议完成后,应该由独立的外部专家进行严格的审计和监督这些协议必须确保这些 AI 系统毋庸置疑的安全如果不能迅速暂停,就应该让政府介入。
所有的人工智能研究和开发,都应该重新聚焦于这一点——让当如今最强大的 SOTA 模型更加准确、安全、可解释、透明、稳健、对齐,值得人类信赖,对人类忠诚。
代表人物分析
这次呼吁大佬众多,最具代表性的无疑是马斯克和 Stability AI 创始人 Emad Mostaque。
马斯克是 OpenAI 公司的联合创始人之一,可谓是原始股东,但他在2018年离开了 OpenAI 的董事会。马斯克一直对微软和比尔盖茨持批评意见,对于OpenAI也是如此,此前曾表示“ OpenAI 最初是作为一家开源的非营利性公司而创建的,为了抗衡谷歌,但现在它已经成一家闭源的营利性公司,由微软有效控制……这完全不是我的本意。”
言外之意,OpenAI 不应该成为一个赚钱的公司,应该开源,让所有人看到核心代码和核心算法。如果是这样,应该建议特斯拉免费开源所有自动驾驶技术源码,马斯克对这个问题的回复是“如果其他汽车制造商想要获得授权并在他们的汽车上使用特斯拉的自动驾驶技术,这将是非常酷的一件事情,但是考虑到该系统开发成本极高,特斯拉将会收取一定的费用。”
划重点就是自动驾驶技术成本高,所以要收费。ChatGPT 的训练成本高,惨遭无视。
另一位代表人物 Emad Mostaque 是 AIGC 独角兽企业 Stability AI 的创始人,号称“要让10亿人用上开源大模型”。Stability AI 最牛的项目是人工智能文本转图像模型 Stable Diffusion ,如今,这个项目深陷侵权旋涡。在今年一月份,全球知名图片提供商华盖创意(Getty Images)和艺术家萨拉·安德森(Sarah Andersen), 凯利·麦克南(Kelly McKernan)和卡拉·奥尔蒂斯(Karla Ortiz)起诉了Stability AI,认为Stability AI在未经许可或考虑的情况下,使用他人的知识产权,为自己的经济利益服务。
下面这幅图中,左边是知名油画家Erin Hanson的作品 “Crystalline Maples”,右边是CNN记者通过 Stable Diffusion 生成的结果。
以我们受过九年义务教育的眼光来看,这两幅图风格、色彩,线条几乎一样,说是出自同一人之手也不为过。
在自己公司严重侵犯他人知识产权的情况下,去说另一家公司影响了人类安全和社会稳定,不过是五十步笑百步了。
反对原因分析
信息安全
信息安全是过去三个月最容易攻击ChatGPT的理由,联名信提出了一条质询,我们是否应该让机器用宣传和谎言充斥我们的信息渠道?综合起来的观点是,不良行为者可能会故意创建带有事实错误的内容,作为战略影响力活动的一部分,传播错误信息、虚假信息和彻头彻尾的谎言,这可能会对社会和个人造成危害。将这个观点强加于ChatGPT上,是避重就轻之举。
虚假信息,有什么比搜索引擎更多吗?虚假广告,违禁视频,歧视言论等数不胜数,上当受骗的人同样数不胜数。相较而言,ChatGPT的表现已经非常遵守道德和法律了。
错误信息,对于企业而言,文本信息会经过员工的二次编辑和确认,才会发布;错误的代码会经过程序员的修改和验证,才会用于产品中。只要责任制明确,风险是可控的。
人身安全
这次事件,被大家提起最多一条理由就是比GPT-4更先进AI系统将威胁人类安全,AI将杀死人类。若说威胁安全,智能驾驶和机器人更具有天然不安全属性。GPT-5终究是活在互联网世界中,任他搅的天翻地覆,也不会直接对人类进行物理攻击。智能驾驶如果失去控制,将导致车毁人亡,交通瘫痪。未来给机器人装上武器,就是最强特种兵。
不可否认的是,AI未来确实存在风险,但我们不能饮鸩止渴,因为未来的风险而停止新技术的前进。人工智能炒作了这么多年,直到ChatGPT才真正点燃了火炬,我们不应该在刚刚见到光明时,就亲手熄灭了它,技术推进和安全协议制定完全可以同步进行。
失业
根据高盛研究报告,全球预计将有3亿个工作岗位被生成式AI取代。目前欧美约有三分之二的工作岗位都在某种程度上受到AI自动化趋势的影响,而多达四分之一的当前岗位有可能最终被完全取代。该研究计算出美国63%的工作暴露在“AI影响范围”中,其中7%的工作有一半以上的流程可以由AI自动化完成,这使他们很容易马上被人工智能取代。
对于国内来说,目前感觉还好,可能主要在图像创作领域感受到寒意比较强,上周看到有博主表示,公司一次性裁了三个原画师。
当新技术出现时,初期给社会带来的冲击会让很多人感到不适应,因为不适应,所以会本能的去排斥它。比如曾经的克隆,刚出现时引起了大家恐慌,认为会制造另一个自己,同时带来繁衍上的伦理问题。再比如前几年新能源起步时,大家纷纷嘲讽新能源车,认为它是来收智商税的,时至今日,新能源车已经是大势所趋。
现在的失业主要是国际经济形势带来的,而不是刚刚发展的AI系统带来的。ChatGPT只是一个工具,若说替代,机器人替换下来的劳动人口更多,但没有千名大佬站出来说要暂停机器人技术的发展。
利益
世上没有无缘无故的爱,也没有无缘无故的恨,天下熙熙,皆为利来,天下攘攘,皆为利往,所谓者,都是为了自身利益。呼吁暂停训练比 GPT-4 更强大的 AI 系统,目前只有OpenAI有能力训练比GPT-4更强大的系统GPT-5。根据预测,作为过渡的 GPT-4.5 模型将在 2023 年 9 月或 10 月推出,刚好就是联名信提出的暂停6个月。因此,所谓的的暂停,完全就是针对OpenAI的GPT-5。
OpenAI和微软在三月份的一系列进展让其他的公司产生了深深的危机感,这次的专家有的是自己拥有AI公司,有的是自己在AI领域深耕多年,通常来说,大多数人已经成为了利益团体的代言人。既生瑜何生亮,我没有的你也不能有,我有了,但你一枝独秀,那就枪打出头鸟。只有减缓OpenAI的发展速度,才能给自己追赶的机会。
正如前谷歌大脑成员吴恩达所说,我们该做的,应该是在AI创造的巨大价值与现实风险之间,取得一个平衡。把“让AI取得超越GPT-4的进展”暂停6个月,这个想法很糟糕。
总结
AI不是洪水猛兽,暂停GPT-5训练的做法解决不了安全问题,只有技术演进和安全协议制定同步进行,才能实现科技繁荣。6个月后的GPT-4.5依然只是一个工具,不存在威胁人类安全的可能,之后需要更多训练时间的GPT-5同样只是一个工具,这段时间,足够制定联名信期望的安全协议了。
所以,当务之急不是暂停训练比 GPT-4 更强大的 AI 系统,而是立即推动安全协议条款的研究。
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。