微软离Altman越近,离OpenAI就越远!
原创 一蓑烟雨 | 2023-11-21 18:47
【数据猿导读】 在OpenAI这场连续剧中(之所以说是连续剧,这个事情肯定没完,后面肯定还会出续集),让我倍感意外的是,Altman刚跟OpenAI分手,“离婚手续”都还没办齐,转头就投入了微软的怀抱,火线入职微软。如果说他们之前是“清白”的,没有勾连,这谁能信。这说明一个问题,OpenAI罢免Altman,并...
在OpenAI这场连续剧中(之所以说是连续剧,这个事情肯定没完,后面肯定还会出续集),让我倍感意外的是,Altman刚跟OpenAI分手,“离婚手续”都还没办齐,转头就投入了微软的怀抱,火线入职微软。如果说他们之前是“清白”的,没有勾连,这谁能信。
这说明一个问题,OpenAI罢免Altman,并没有冤枉他。为什么这么说?我们来详细说道说道。
不被科技巨头控制,是OpenAI绝对的红线
我们需要回顾一下,OpenAI成立的初衷是什么?当初,马斯克和阿尔特曼等人,担心谷歌垄断人工智能,尤其是担心DeepMind率先开发出AGI,这样的技术被谷歌垄断,对人类不利。所以,几个人一合计,决定创立一个开源的、非盈利的组织,避免AGI这样的技术被谷歌这样的巨头所垄断。
担心被谷歌垄断,创立的OpenAI,后来却与微软越走越近。所以,越来越多人担心,OpenAI被微软控制。刚逃出谷歌的狼窝,转头就进入微软的虎穴,搞了半天折腾了一个寂寞,那创立OpenAI是为了什么?
所以,在OpenAI原教旨主义者(遵守《OpenAI宪章》)的一群人眼中,如果说Altman过渡商业化以及对安全风险的忽视,还可以谅解,但跟微软“眉来眼去”是绝对不能容忍的。他们不会容忍自己为人类创建AGI的果实,被微软偷偷摘了桃子。
但事实情况是,在Altman的主导下,OpenAI与微软的关系越来越暧昧。
某种程度上,OpenAI已经被微软“包了饺子”,已经成为一块“夹心饼干”。何出此言?
在目前的结构中,ChatGPT的底层算力,用的是微软云,也就是说微软云是OpenAI的底层基础设施;在上层,微软的必应、Office365等多个应用,都全面接入ChatGPT。某种程度上,微软控制了ChatGPT的商业化应用,尤其是B端商业化应用。
上层应用和下层基础设施,都被微软控制,而且微软的巨额投资还让其股份占比越来越大,OpenAI可不就是被微软“包饺子”了么?
而主导这一切的,无疑就是Altman。难怪当得知Altman被罢免时,听说微软的CEO纳德拉异常愤怒。
此次,Altman前脚刚离开OpenAI,后脚就入职微软,这要说他们之前没“奸情”,谁能信?Altman与纳德拉在推特(“X”)上的互动,看着都有点肉麻。
微软离Altman越近,离OpenAI越远!
既然Altman与OpenAI闹掰了,并投入微软怀抱。那接下来一个关键的看点,就是微软怎么处理OpenAI的关系。
在探讨微软与OpenAI的未来关系时,我们可以轻松地将这场科技界的“肥皂剧”概括为两个剧本。
第一个剧本:想象一下微软扮演着一位精明的赌徒,左手拿着内部大模型的筹码,右手紧握着OpenAI的合作协议。这就是第一种可能性,其中微软在两个大牌中间游刃有余地下注。
他们会继续在Sam Altman的带领下,研发更强大的AI模型,同时也不松开与OpenAI的紧密合作。在这个方案中,微软既是OpenAI的金主又是其技术合作伙伴,同时将ChatGPT这样的黑科技紧密融入其商业战略。
第二个剧本:微软突然变脸,与OpenAI之间的关系变得岌岌可危。想象一下,微软突然撤回所有资金、算力资源,同时将ChatGPT这个曾经的明星产品从自己的业务版图中一刀切。这种情况下,微软可能会自行研发类似的技术,或者寻找新的合作伙伴,而OpenAI则需要迅速找到新的资金来源和技术支持。
不管哪种情况,微软和OpenAI的未来走向都将对整个科技界产生深远的影响。我们只能拭目以待,看看这场戏码最后会如何上演。
微软怎么做,可能很大程度上取决于OpenAI接下来的行为。OpenAI会怎么做,还有很大的不确定性,毕竟现在OpenAI还要靠金主爸爸们养活。
但是,有一点可以肯定,OpenAI与微软的蜜月期结束了。OpenAI会更加注重自己的独立性,这种独立性可能表现在三个方面:
首先,在融资这块,OpenAI将不再满足于仅仅依赖微软这一个“金主爸爸”。他们可能会像勇敢的探险家一样,走出舒适区,寻找更多的资金来源。这可能包括吸引更多风险投资者的关注,甚至敲响上市的大门。通过这些手段,OpenAI能够减少对微软的财务依赖,从而在财务上更加自立。
其次,在算力这一块,OpenAI可能会像一位智慧的农夫,不再只种一块地。他们可能考虑多云策略,既使用微软云,也采用亚马逊AWS、谷歌云等其他云服务提供商的资源。这不仅能降低对单一供应商的依赖风险,还可能带来成本效益。甚至,OpenAI也可能像个勤劳的建筑工人,自己动手,丰衣足食,建设自己的GPU计算集群。
最后,在商业化方面,OpenAI的策略可能会像一位多面手艺人,不再只依赖微软的“全家桶”。他们可能会拓宽自己的商业合作网络,与更多第三方企业合作,将自己的产品和服务,比如ChatGPT,融入到更广泛的业务场景中。这不仅能增强OpenAI的市场影响力,还能提高其产品的多样性和竞争力。
微软和OpenAI的关系,现在就像一对曾经激情四射的情侣,逐渐步入了理性的“亲情时代”。OpenAI作为这段关系中渐趋成熟的一方,明显开始寻求更多的自主权和独立性。
入职微软的Altman,能复制ChatGPT么?
还有一个问题很关键,那就是Altman加入微软,大概率做的事情跟OpenAI差不多。而且,OpenAI很可能有不少员工,会追随Altman。微软现在的态度是,要钱给钱,要人给人,要资源管够,摆出一副誓要干翻OpenAI的态势。
那么,Altman能在微软做出一个媲美甚至超越GPT-4的产品么?我对此持怀疑态度。
为什么这么说?
在Altman加入之前,微软就没有加足马里搞大模型么?显然不是,但凡微软自己能搞出一个ChatGPT这样好的产品,他会愿意受OpenAI这份气?
事实上,不仅微软,谷歌、亚马逊等一众科技巨头,哪一个不是卯足劲推进自己的大模型项目?这么久过去了,有人成功么?别说微软,就是发明了Transfomer架构的谷歌,现在自己的大模型产品都还拿不出手。
要论人才、资源,这些科技巨头哪一个不能碾压OpenAI?那他们为什么现在都拿不出媲美ChatGPT的产品?
有一个关键的原因,那就是大模型本身就是一个黑箱。别说谷歌、微软,就是OpenAI自己,让他从头走一遍,都不一定能做成现在的ChatGPT,这是他们自己承认的。
直到现在,没有任何人能搞清楚大模型具体的工作机理,更搞不清楚大模型的智能是怎么“涌现”出来的。在未来几年内,都不太可能能解开大模型的黑箱。
大模型的能力,不像是一个标准的数学函数,可以一步步的推理出来。并没有一个标准的步骤,来告诉人们怎么一步步搭建出一个GPT-4。现在的ChatGPT,有一定的“运气”成分在里面,在大量的试错中,一点点试出来的。
大模型的“黑箱”问题是来自于哪里呢?
大型神经网络模型如GPT系列的非线性和复杂的内部结构,是理解其工作机制的一大难点。这些模型包含多个处理层,每层都进行着复杂的数学运算,而层与层之间的相互作用又增加了额外的复杂性。正是这些非线性层的叠加和交互,使得模型能够从简单的输入数据中提取出复杂的模式和关联,从而执行复杂的任务,如语言理解和生成。
非线性是神经网络中的核心特征,它允许网络捕捉输入数据中的复杂、非直观的关系。每个神经元(或节点)在接收输入后,通过非线性激活函数处理信息,这些激活函数决定了信息是否及如何传递到网络的下一层。由于每个激活函数的输出不是输入的线性映射,模型能够学习并表现出高度复杂的数据表示。
然而,正是这种非线性和层间复杂的交互,也造成了理解上的困难。当上千亿个这样的非线性神经元相互作用时,理解每个单独神经元的贡献、追踪信息在网络中的具体流动路径,以及预测网络对特定输入的反应,都变得异常复杂。这不仅需要深刻的数学和编程知识,还需要对模型架构的深入理解。
因此,大型神经网络模型的非线性和复杂的内部结构,是使其成为“黑箱”的重要因素之一。这些模型虽然在处理复杂任务时显示出惊人的能力,但同时也带来了理解和解释上的重大挑战。
此外,参数量巨大、训练数据复杂,进一步加剧了“黑箱”问题。上千亿参数在训练过程中通过机器学习算法调整以优化性能,但正是因为这些参数众多且相互关联,使得理解模型的具体决策过程变得异常复杂。而数据的多样性和丰富性,意味着模型在学习过程中接触到各种各样的信息和语境,这使得追踪模型为何作出特定响应变得更加困难。
正因为大模型本身的黑箱属性,让“复制”ChatGPT并不是一个容易的事情。别说是Altman,就是现在OpenAI的几百号员工,全部转到微软去,在短期内也不太可能做出另外一个ChatGPT。
而且,说实话,Altman的优势在于融资与商业化,而不在于技术。OpenAI真正的技术大牛,是llya。而Altman这样的商业化人才,在微软简直不要太多。
如果我们真的接近AGI,那相比于被微软、谷歌这样追求商业利益最大化的科技巨头垄断,我更希望OpenAI这样的非盈利组织能够率先造出AGI。
商业公司,特别是大型科技企业,通常以利润最大化为主要目标。他们在开发AGI时可能会优先考虑商业应用和市场竞争优势。虽然这种驱动力可以推动技术的快速发展和创新,但它也可能导致某些伦理和安全问题的忽视。尤其是在竞争激烈的市场环境中,“杀红眼”了就顾不上那么多了。
相比之下,非盈利组织如OpenAI,可能更能够在其研究和发展过程中平衡商业利益和社会责任。由于非盈利性质,这样的组织可能更专注于长期的、具有变革性的目标,而不是短期的财务回报。这可能使得它们在处理AGI带来的伦理和安全问题时,更为谨慎和全面。
此外,非盈利组织在开发AGI时可能更注重透明度和包容性。他们可能更愿意与学术界、政府和公众合作,确保AGI的发展和应用是符合伦理的,并为社会大众所接受。这种开放和合作的方式可能有助于减少对AGI潜在风险的忽视,同时促进更广泛的社会利益。
最后,让我们重温一下《OpenAI宪章》里的使命——我们的首要信托责任是对人类的信托责任。
文:一蓑烟雨 / 数据猿
来源:数据猿