专题:OpenAI管理层“地震”:CEO、总裁双双离职

Altman被驱逐背后:AI军备竞赛提速,硅谷已经把安全抛在脑后  第1张
(图片来源网络,侵删)

  来自:华尔街见闻

  席卷周末OpenAI的“”风波,令全球AI行业目瞪口呆。

  华尔街见闻此前文章提到,此次内斗的根源,可能在于AI监管与商业化之间的矛盾——OpenAI首席科学家Ilya Sutskever无法接受CEO Sam Altman激进的商业化战略,因此和其他董事联手,赶走了Altman和公司总裁Greg Brockman。

  但在商业化上不断提速、把AI安全放在次要位置的,并不只有OpenAI,整个硅谷,都是如此。

  野心与安全的矛盾

  在Sam Altman被赶下台之前,OpenAI在商业化上的野心和激进,已经让OpenAI首席科学家Ilya Sutskever等人忧心忡忡。

  媒体援引知情人士的分析指出,Altman和Sutskever的矛盾包括AI安全性、技术发展速度以及公司商业化等方面。Altman“路人皆知”的野心也可能造成了这一局面。

  除了开发大模型,Altman还涉足硬件开发、AI芯片等众多产业。此前有报道称,Altman寻求向中东***财富基金融资数百亿美元以创建一家AI芯片创业公司,与英伟达GPU竞争;Altman还在争取软银孙正义的数十亿美元投资和苹果前设计主管Jony Ivy一同开发一款硬件设备;他还投资了前苹果设计师Imran Chaudhri和Bethany Bongiorno成立的AI硬件公司Humane。

  而且,近期多模态、GPTs等一系列重磅功能的飞速上线,也让首席科学家Ilya Sutskeve感到不安。他认为,OpenAI需要更多的时间来弄清楚研究路径,而不是急于匆忙部署产品。

  因此,在11月17日的董事会议上,内斗爆发了。Ilya Sutskeve当场表示,公司不应该继续筹集资金和扩大规模,Altman未经董事会同意就离开会场,随后被直接解雇。

  Sutskever倾向于把安全放在首位

  相比Altman,Sutskever有着更加深厚的技术背景,是图灵奖得主Geoffrey Hinton的同事、首个深度卷积网络AlexNet的设计者之一。同样,他也更加关注AI的潜在威胁。

  在此前的公开演讲和访谈中,Sutskever曾多次表示,他的主要工作不是开发GPT-5,而是弄清楚如何让“超级智能”安全可控。

  在OpenAI的8年历史中,商业化与AI安全的矛盾并非第一次出现。2020年底,一部分员工由于在公司的商业战略和技术发布速度上的分歧,从OpenAI分裂出去创立了自己的创业公司Anthropic。而为了确保OpenAI的技术开发不会受到财务激励的影响,Anthropic组建了一个独立的五人小组,可以雇佣和解雇公司的董事会。

  多年来,AI从业者一直担心更强大的模型可能被滥用,比如开发生物武器、生成有说服力的深度伪造或入侵关键基础设施。一些人还认为这些系统最终可能会变得自主并以人类的代价失控。

  随着OpenAI开发出可以自动化写作、编程和从零生成逼真图像的突破性人工智能,公司的一些员工开始担忧,一旦AI学会自我改进,之后会发生什么?

  今年夏天公司成立了一个团队,由Sutskever和‘alignment’研究员Jan Leike共同领导(AI alignment研究就是通过各种技术手段,使AI系统的目标与人类利益一致,防止AI系统做出危害人类的行为),致力于寻找技术解决方案,防止其AI系统失控。

  在一篇博文中,OpenAI说它将专注五分之一的计算来解决“超级智能”的威胁,Sutskever和Leike指出,这“可能导致人类失去权力甚至灭绝”。

  与Altman的野心与激进形成对比的是,Sutskever一直以来都非常关注安全,在7月的一次访中,Sutskever说,他最担心强大的通用AI在未来几年的危险性,但希望未来AI技术可以帮助人类对自己进行监管,可能解雇Altman本身就是这个“alignment”的例子。

  他在公司内有许多追随者。前员工将他描述为一位备受尊敬和亲力亲为的领导者,对指导这家创业公司的前沿技术至关重要。

  硅谷风向变了,AI军备竞赛已经开始,安全退居次席

  在技术和商业化上提速的不止OpenAI,整个硅谷都是如此。

  此前有传言称,Meta已经解散了其2019年设立的负责任人工智能(RAI)团队。

  本周日,Meta已证实这一消息:RAI的确已经解散,大部分成员将转到公司的AI产品团队,其他人则将转到AI基础设施相关团队任职。

  Meta对此回应称:

“公司将继续优先投资于安全、负责任的人工智能开发。”

  Meta还表示,虽然公司正在拆分RAI团队,但这些成员将继续支持相关工作,确保公司负责任地开发和使用人工智能。

  RAI的任务主要是识别AI训练方法中存在的问题,包括公司的模型是否经过了充分多样化的信息训练,防止错误和幻觉。Meta社交平台上的自动化系统已经导致了一些问题,Whats的AI表情包在特定提示下会生成有偏见的图片,Instagram的算法之前被曝出会显示儿童内容。

  Meta经常强调其在AI研发上如何“负责任”,甚至还专门为此设立了一个页面,列出了其“负责任的人工智能支柱”,包括问责制、透明度、安全性、隐私等。

  结果现在,连“负责任”这个部门都没有了。

  更早之前,在3月份,有媒体报道称微软已经解散了其整个AI风险评估团队。

  据悉,这个团队正式名称为AI道德与社会团队,其主要职能在于指导微软在AI方面的创新,从而产生符合道德标准、负责任以及可持续的结果。最近,该团队始终在努力评估微软将OpenAI技术整合到其产品中可能存在的风险。

  多位微软离职和在职员工表示,此举导致微软将再也没有专门的团队来确保其AI原则与产品设计紧密结合,而目前该公司正在引领潮流,努力让AI工具成为主流。不过,微软仍然保留着名为负责任AI办公室(ORA)的团队,其任务是制定规则来管理公司的AI。微软表示,尽管最近进行了裁员,但其在责任工作方面的整体投资始终在增加。

  种种迹象表明,追逐热钱的硅谷,在AI风潮中似乎有了迷失的迹象:巨额投入带来的商业化变现压力、对技术进步的狂热信仰,可能正使得至关重要的AI安全问题,被许多科技公司所忽略。

  Altman会去创办一家新公司吗?

  宫斗悬疑尚未尘埃落定,但无论结果如何,Sam Altman肯定不愁去处,连法国都对他抛出了橄榄枝。

  华尔街见闻此前指出,包括微软在内的几家大股东,已经在向OpenAI董事会施压,要求Altman回归。还有媒体报道称,Altman正在考虑另立门户,成立新公司,并吸纳一些OpenAI之前的员工。

  周五被解雇后,包括红杉资本Alfred Lin和SV Angel创始人Ron Conway在内的几位风险投资人都发表公开声明支持Altman,红杉及SV Angel都是OpenAI的主要投资者。

  Alfred Lin在 X 上写道,他期待看到Altman和Brockman创建的下一个改变世界的公司。

  Altman在硅谷有着深厚的关系,与科技巨头高管、投资人和政要有密切私教。他曾经亲自从谷歌和其他公司挖来许多重要的研究人员和工程师,为OpenAI创业成功奠定了基础。

  可以预见的是,无论以何种形式收场,无论Altman的野心会不会收敛,他肯定会比以前小心得多,不会再留出组织架构上的疏漏,让下属能轻易驱逐他。

  剧情可能像一位见闻用户的神评论那样:

  风险提示及免责条款

  市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。