中国新闻周刊

OpenAI大戏折射的真正危机是什么?  第1张
(图片来源网络,侵删)

  整个凸显了人工智能的未来

  很可能取决于少数几家大公司

  及其董事会的一念之间

  2023年11月17日及之后的一周,全球最炙手可热的人工智能公司 OpenAI 董事会对其首席执行官(CEO)山姆·阿尔特曼(Sam Altman)的“解雇门”,震惊了所有人。

  随后一切似乎又回到了开始的地方,但事实并非如此。对于员工、客户和投资者来说一切恢复正常了,但对于OpenAI及其使命来说却并非如此。我们看到,一个本着透明和造福人类的精神创立的机构,在竞争和金钱之下,理想主义如何被一点点侵蚀,让全世界都看到了它的“脏衣服”。

  复杂的权力斗争和幕后诡计,在世界一流的新老公司以及几乎任何权力运作的地方都很常见,我们只是很少与它们有第一手甚至第二手的接触。我们以为,OpenAI 是一家非常公开的公司(尽管它是私营公司,并且其科学和工程工作日益封闭):我们知道他们是谁,他们在做什么,以及他们为什么这样做。但八日“宫斗”剧过后,我们不由得要反问自己,我们真的知道这一切么?

  阿尔特曼的去留本身无关紧要,非常重要的事情是:OpenAI最初的承诺不仅仅是创建 AGI(通用人工智能),而是确保它“造福全人类”。这种“确保”是由OpenAI的使命和结构所决定的。这家营利性公司由一家非营利组织拥有和控制,而该非营利组织在发生的周末之前是由一个独立董事会控制的,其使命是确保 OpenAI 打造的人工智能能够造福全人类。

  OpenAI在结构上有意***推动科技行业发展的价值观——对规模的不懈追求,以及在推出消费类产品时取的“先构建产品,有问题再说”的方式。然而,这种模式并没有完全持续下去。2019 年,OpenAI成立了一家子公司,用“利润封顶”模式以筹集资金、吸引顶尖人才,并不可避免地打造商业产品。很快,OpenAI从一家非营利性研究实验室转型为一个拥有大量投资和消费产品的营利性实体。最初的开源和非营利色彩渐渐褪去,公司的重点转向更传统的利润驱动型科技初创公司,并面临着利润目标与人工智能最重要的安全问题之间越来越大的冲突。

  ChatGPT发布之后,OpenAI的收入和利润有了明确的途径,估值也提升至800 亿~900亿美元。它无法再证明自己是一个理想主义的研究实验室,因为顾客希望在这里得到服务,而投资者也押上了巨大的赌注。这些琐事是OpenAI如日中天的崛起和阿尔特曼令人震惊的遭到驱逐的故事的核心。而若是没有资本施加的强大压力,阿尔特曼也不会这么快就上演反转剧。

  据报道,OpenAI将保留其结构,投资者的利润受到限制,董事会可以自由做出非收入驱动的决策。但我预计,OpenAI的结构在不的将来会更像一家普通公司。如果你要求投资者提供巨额资金来打造未来50年最重要的技术,那么他们就会希望对公司的运营有一定的发言权。OpenAI能走到今天这一步却没有做到这一点很奇怪,但投资者——尤其是最大的投资者微软——绝不会让这种情况再次发生。

  另一方面,整个凸显了人工智能的未来很可能取决于少数几家大公司及其董事会的一念之间。开发人工智能基础模型是一场竞赛,这些模型的数量不会很多。事实上,它可能是一种天然的寡头垄断,而少数模型可能会应用于整个经济。大科技公司现在与主要的基础人工智能模型重叠,换言之,旧的领导者就是新的领导者,我们该如何确保它们不会拥有超强的力量?

  目前,监管机构尚未对OpenAI作出反应,但如何在人工智能技术的快速商业化与确保其负责任的发展之间求得平衡,是监管机构亟须面对的。未来几年,更多将不可避免地转向人工智能监管。

  这场危机也可能成为硅谷围绕人工智能愿景的长期观念斗争的转折点。一派相信,人工智能是一种变革性的新工具,将会开启一个繁荣的新时代;另一派认为,人工智能更接近于一种外星生命形式,必须极其谨慎地加以限制和部署,以防止它接管世界并杀死我们所有人。随着阿尔特曼重返OpenAI,繁荣派大胜末日派。其实两派并不像表面看起来那样泾渭分明。他们都相信“一切皆计算”,他们都在推动以商业竞争促进人工智能系统的发展,只不过就发展速度产生了分歧。然而,他们所信的无法让人相信。如果那些志在创建AGI的人甚至无法提前三天预见他们的决定的影响,我们如何确保AI能够具备这种远见?当我们进入人工智能和技术的新领域时,切不可忘记领导和决策中的人为因素。

  (作者系北京大学新闻与传播学院教授)