OpenAI 前首席研究官:AGI 核心突破已实现

发布时间:2025年07月31日 来源:oneflow 作者:Sequoia Capital 浏览量:22

作为 OpenAI 前首席研究主管,Bob McGrew 曾领导工程团队,为前沿大模型赋予逻辑推理能力,规划了从 GPT-3 到 o1、o3 模型取得逻辑推理突破的技术路线。

在 Sequoia Capital 最新一期播客中,他指出通用人工智能需要三大支柱:Transformer 架构、规模化预训练和逻辑推理能力。在他看来,塑造未来十年以上的技术基础已然成型。

他认为,2025 年将是"逻辑推理的元年",而预训练收益将递减。他还阐述了为何智能体经济将按接近算力的成本来给服务定价,这将彻底颠覆法律和医疗等行业。此外,从机器人技术突破到管理顶尖研究员,他的观点聚焦 AI 发展过程中的根本性转变,以及在顶级实验室主导的竞争格局下初创企业所存在的机遇。

(本文由 OneFlow 编译。原文:https://www.sequoiacap.com/podcast/training-data-bob-mcgrew/#the-changing-role-of-pre-training)

来源 | Sequoia Capital

OneFlow 编译

翻译 | 袁蔚檬

要点概览

1. 逻辑推理能力是 2025 年最大的机遇,其中仍存在大量唾手可得的成果:逻辑推理领域存在“算力、数据和算法效率提升的显著空间”,这为快速进步创造了巨大潜力。从 o1-preview 到 o3 版本的演变(在思维链基础上增加工具调用能力),证明了那些显而易见的改进可能需要数月才能实现,这表明还有更多类似的进步有待发掘。当下,所有顶级实验室在全力聚焦逻辑推理能力研究,使其成为今年模型能力提升的主战场。

2. 智能体将走向商品化,其定价将基于算力成本,而非人类的替代价值:AI 智能体的基础经济学原理与人类服务截然不同。律师因稀缺性而收取高额费用,而 AI 律师一旦具备相应能力,其供应便是无限的。Bob McGrew 警示创业者:切勿假设能基于人类工作的价值来定价,其他初创公司可能利用同样的底层前沿模型加入竞争,迅速压价。真正的价值在于通过网络效应、品牌效应或规模经济等方式,创造真正的稀缺性。

3. 需要深度业务整合的企业级应用,仍能规避来自前沿实验室的竞争: 诸如 Palantir 和 Distyl 这类公司的成功之道,在于围绕大模型构建系统,而非训练专用模型。前沿实验室倾向于将企业问题视为训练新模型的契机,但单个企业的需求规模太小,不足以支撑专用模型的开发。真正的机遇在于构建基础设施——该设施能够从企业业务中提取上下文信息,将其输入大模型,并将模型输出转化为可执行的决策——从而将众多小问题整合成一个可扩展的解决方案。

4. 得益于语言交互接口与视觉能力的进步,机器人技术的发展已迎来拐点:如今,像 Physical Intelligence 这样的公司,能在数月而非数年内解决诸如叠衣服等多样化问题。大语言模型提供自然语言任务描述,结合强大的视觉编码器,使机器人能在现有的前沿模型和研究基础设施的基础上,在完成通用任务方面具备“天然优势”。

5. 随着 AI 能够复制数据背后凝聚的人类劳动,专有数据的价值正在递减:多数专有数据代表着人类劳动的积累——联系客户、分析案例、开展问卷调查等。由于AI现在能够执行这些任务,竞争对手便可在无需原有的时间投入下便复制专有的数据集。唯一的例外是客户授权使用的真实世界数据,如投资组合或个人偏好数据。这类数据的价值在于实现更优的服务交付,而非用于教授通用技能。这一转变挑战了关于数据护城河的固有认知,提示我们应聚焦于构建信任关系,而非囤积数据。

1

大模型“金三角”的突破

Stephanie Zhan(主持人):我们正处在 AI 发展的一个非常有趣的阶段。大模型拥有一个包括预训练、后训练和逻辑推理的新“金三角”。你能剖析下还有哪些待突破的方向吗?

Bob McGrew:我们将持续见证模型能力的提升。未来几年,大模型发展的速度感依然会像过去五年那样快得惊人、令人振奋。发展不会就此止步,但不同之处在于, 2025 年将成为真正的"逻辑推理的元年"。

逻辑推理是一项新兴技术。当存在一种新技术时,往往存在巨大的潜力空间——无论是算力、数据,还是算法效率的提升,都有显著优化余地。只需看看从去年 9 月 o1 预览版到今年 4 月推出的 o3,这短短六个月内取得的惊人进步就可见一斑。与此同时,我们看到逻辑推理技术正快速扩散:OpenAI 深耕多年,而仅在几个月内,谷歌、DeepSeek、Anthropic 等公司也纷纷跟进。因此,这正是今年所有实验室都将全力聚焦的主战场。

我再举个生动的例子。看看 o1-preview 和 o3 之间显著的差异:o1-preview 无法使用工具,而 o3 能在思维链中调用工具。这种改进方向看起来相当明显,我们在训练 o1 时就明确要实现这个功能,但具体实现起来却很困难,耗费了很多时间,所以从想法到最终发布用了六个月。逻辑推理领域的下一步进展,将远没有这么显而易见,难度也会大得多。随着逻辑推理领域逐渐成熟,我们将看到那些唾手可得的潜力空间被消耗殆尽,发展速度势必会越来越慢。

Sonya Huang(主持人):你刚提到技术发展不会就此止步,但当前推特上有种流行观点认为,预训练正遭遇瓶颈。

Bob McGrew:预训练不会消失,但我们看到的是,预训练正面临效益递减的情况。这种递减效应是必然的,模型智能水平与训练算力投入呈对数线性关系——这意味着每提升一级智能,都需要指数级增长的算力投入。

预训练模型是一次庞大的训练工程,需要占用整个数据中心长达数月之久。当你准备预训练下一个模型时,无法在同一个数据中心完成模型训练(算力资源已被占用)。你可以略微依赖算法效率的提升来优化,但本质上必须等待新数据中心建成,这不像当下改进逻辑推理能力那样能在六个月内完成。

然而,这并不意味着预训练变得没有价值了,预训练在 2025 年的真正发力点在于改进架构。因此,即使你专注于逻辑推理阶段,仍需优化预训练,以实现更优的推理(Inference)时效率,或获得更长的上下文窗口,抑或更有效地利用上下文信息。而当你这样做时,你必须基于新架构从头开始进行预训练,然后再次经历整个后训练与逻辑推理优化流程。这就是预训练当前的角色:它依然重要,只是在技术栈中承担了不同的使命。

Stephanie Zhan:后训练还有哪些待突破的方向?

Bob McGrew:预训练和逻辑推理阶段的核心目标都是提升智能水平,它们遵循一条非常清晰的扩展定律——投入更多算力,就能获得更高的智能。后训练阶段则不同,它关乎模型个性的塑造。要知道,智能其实是个单一维度问题(thin problem),如果你能在智能上取得进步,这种进步往往具有极强的通用性,可以应用于所有领域。比如你专注于提升数学能力,结果发现它也能在法律领域的逻辑推理上表现得更好。

模型人格的塑造是个复杂多维难题,需要投入大量人类智慧去思考:什么是理想的人格?希望这个智能体如何表现?这更像是一个需要多年人际互动才能培养的过程。而如今,如何将关于智能体应具备何种特性的设定,转化为真正具有吸引力的实际人格,这本身就是一个极其困难的研究课题。当我们谈论后训练时,我想到的是像 OpenAI 的 Joanne Jang 或 Anthropic 的 Amanda Askell 这样的人。她们真正投入大量时间精心雕琢这些模型的人格。而她们的角色,并非传统意义上的研究实践者。他们要么是配备产品经理的团队,要么是深谙人性本质的专家。

Stephanie Zhan:这个观点还有其他支撑依据吗?

Bob McGrew:我来说点可能引发争议的观点,尽管我觉得这没什么争议性。如果展望 2030 年或 2035 年,也许到那时就是通用人工智能(AGI),也许会是别的形态,到时再回望当下并问:“为了创造越来越高的智能,哪些才是核心要素?”我认为,关键突破将集中在三大方向:基于 Transformer 架构的语言模型、对这些语言模型的预训练规模扩展(即 GPT-1 到 GPT-2 的技术路径)、以及逻辑推理能力的突破。贯穿其中的,还有不断增强的多模态能力。即便到 2035 年,不会出现超越这些范畴的全新趋势。

这个判断源于我的亲身经历。2020 年,GPT-3 刚完成训练时,我们身处 OpenAI 的会议室里,当时模型尚未发布,但深知某种划时代的事情已经发生。Dario Amodei、Ilya Sutskever、Alec Radford 等所有人都坐在房间里审视着它。当时内部的技术路线图相当清晰:我们明白,在这个节点上,扩大预训练规模对于从 GPT-3 迈向 GPT-4 至关重要;我们能看到还需要增强多模态能力,最终目标是打造一个能操作计算机的模型;并且我们已开始对“测试时计算 (test-time compute)”进行初步实验。

到了 2021 年,一些人离职并创办 Anthropic 后,OpenAI 才真正开始深入探索逻辑推理的理念。说来有趣,后来当 Anthropic 发布了具备计算机使用能力(computer use)的模型时,有朋友问我,“你预见到这个了吗?” 我的回答是,“其实在他们离开之前,我们就已经在共同研究这个方向了。” 参与那个项目的人,其中一个去了Anthropic,另一个则留在 OpenAI 并开发了“操作员(Operator)”系统。只是多模态能力要达到那个成熟度,耗费了多年时间,但这个方向在当时是显而易见的。

正因如此,从现在开始往后,我们将看到对这些核心理念极其重要的规模化扩展、开发与提炼。这很难,需要投入巨大的智力资源。但我相信,从 2035 年回望时,不会出现真正全新的基础范式。我认为我是对的,我们拭目以待。

Sonya Huang:OpenAI 在逻辑推理方面确实比其他公司更早地进行大力投入。你当时在逻辑推理方面看到了什么,促使你们迅速地全力投入?

Bob McGrew:当时逻辑推理能力确实是缺失的一环。如果让人类计算两个五位数的乘法,这完全在你的能力范围内,可要求你立刻完成,你也会束手无策——作为人类,在作答前进行思考、借助草稿纸式的思考空间来逐步解决问题是一种天然的能力,而早期模型,甚至是 GPT-3 都不具备这种能力。

于是,我们开始看到这方面能力的初步显现,例如逐步思考以及思维链概念的兴起——模型能够自我学习如何引导一个思维过程,而不仅仅是依靠模仿公开可得的人类思维数据来被引导。我们深知它将比预训练更强大,事实上,人类的思考发生在头脑内部,模型无法直接触及这些思考过程。外界的几乎所有数据,呈现的都只是最终结论。你无法看到那个内在的思维链,因此,模型必须自行摸索出逻辑推理的方法。这就是为什么逻辑推理能力如此关键。

Stephanie Zhan:你之前曾暗示,在逻辑推理领域可能还有更多待发现的东西。依你看来,目前对这些未知事物是否已有清晰认知,还是说我们仍处于这个领域的早期探索阶段?

Bob McGrew:在逻辑推理技术领域,当你身处研发一线时,才能接触到大量可操作的创新思路与技术优化方案。当下的现状是,若你不在前沿实验室工作,很可能完全无法触及这些进展。这与我们曾见证的学术实验室主导突破的时代已截然不同,过去学术界能快速推进研究,但如今当我读到某些论文时,常会感叹“这不过是重现了我们多年前的发现而已”。当前的研发投入强度已远超往日,资源高度集中于少数前沿团队。虽然突破性的发现依然存在,但这些是绝非闲聊就能道明的简单概念,而是需要深度技术攻关的复杂命题。

2

智能体的商品化

Stephanie Zhan:你最近在推特上发表了一个观点:即智能体将变得无比强大,但其定价将因竞争而被压至接近算力成本的水平。如果真是这样,当下正在开发智能体的初创公司机遇何在?

Bob McGrew:人们往往会参照人类从事该工作的价值来给智能体输出的结果定价,比如你想开发一个 AI 律师,然后发现人类律师收费很高。于是你认为,开发出 AI 律师后也能向客户收取巨额费用。不过,律师收费高昂的原因在于他们的时间稀缺,且只有极少数人接受过专业训练。而一旦开发出 AI 律师模型,实际上就等于拥有无限量供应的律师,稀缺性就彻底消失了。或许你的 AI 律师初创公司能暂时领先,但底层都是相同的前沿模型,其他初创公司随时可能加入竞争。因此,最终定价只会略高于计算成本。

有人会说“这对初创公司不利,赚不到钱了”,但这其实正是我们想要的未来。我们渴望那些无需依赖人力的服务变得极其廉价,我们希望每个人都能获得律师服务,真正应当昂贵且稀缺的是那些根植于深度人际关系的事物。因此,也许未来不再需要人类律师来撰写合同,但我们会向人类寻求深度的顾问服务。我认为,这正是我们理想中的世界。

Sonya Huang:应用公司能通过销售智能体赚钱吗?你会建议我们投资哪些领域?

Bob McGrew:人们常讨论价值会沉淀在技术栈的哪一层。你会发现模型层的竞争异常激烈,每家公司都拥有自己的前沿模型,尽管某些前沿模型能做到其他模型做不到的功能,但对企业用户而言,可以非常轻松地替换它们。而在前沿模型之外,处理大多数问题的模型都是经过蒸馏的,这个领域同样竞争激烈。

考虑到训练模型的高昂成本,模型层本身并非一个特别理想的生意。那么,我们最初训练模型的根本目的是什么?是为了提供一个战略布局的抓手,它赋予顶级实验室在新兴应用层高价值领域的优先布局权。ChatGPT 就是一个绝佳的业务,现在可能很难取代 ChatGPT 了,或许其他公司还有机会,但你必须做出截然不同的东西。而编程是当下所有顶级实验室都虎视眈眈的另一个领域。

如果你要与顶级实验室竞争,需要做差异化的事情——不能仅限于与电脑对话、在电脑上处理个人生产力任务,而是应该涉及融入企业场景。企业赖以生存的护城河将一如既往:网络效应、品牌价值和规模经济。因此,你需要寻找一种能让你构建网络效应的智能体,而非仅仅是在市场上能卖个高溢价的产品。

Stephanie Zhan:在智能体日益普及的世界里,我们需要警惕哪些安全隐患?又有哪些潜在机遇?

Bob McGrew:当我思考 AI 如何影响安全领域时,首要考量就是现在发起攻击比以往容易得多。潜在威胁的数量激增,实施攻击所需时间大幅缩短,这迫使防御系统必须更具自主性。我投资了一家公司叫 Outtake,团队由前 Palantir 成员组成,他们开发了一套自主网络安全防护栈,几乎无需人工干预,OpenAI 成功采用了他们的技术。

我认为,当下我们正处于一个关键节点:现有模型已能胜任所有这些任务。如果某项人类可完成的批量操作,你却无法让模型执行,那问题出在人类自身而非模型。真正的障碍在于,企业和组织尚未为此做好准备,他们必须改造业务流程才能实现这种转变。这正孕育着创业公司的机会,你复制这些企业的技术和分销网络的速度,很可能快过他们自我革新以削减人力的速度,这就像从网页端到移动端的变革那样,新兴企业完全可能颠覆现有商业格局。

3

AI 编程跨越了一个临界点

Sonya Huang:感觉软件工程刚刚经历了一个快速腾飞的阶段。单从技术变革的速度来看,有部分人认为,超级智能出现的概率比人们原先预想的要高得多,毕竟编程领域的进步如此迅猛。你如何看待编程领域发生的这些变化?

Bob McGrew:编程领域确实突飞猛进。早在 2020 年 1 月,当我们首次见到 GPT-3 时,就立即启动了教它编程的项目。

当你审视一条指数级增长曲线时,其进步幅度始终如一,但一旦跨越某个临界点,这种进展所产生的影响便会呈现出极强的非线性爆发,而这正是过去几年编程领域所经历的情况。在我看来,未来编程将长期保持两种模式并行——用户通过 IDE 进行传统光标式编码以及与 Devin 这类 AI 智能体在后台自主编程相结合。当然,所谓“长期”在 AI 技术迭代背景下,可能仅意味着一两年时间。

想想“氛围编程(Vibe Coding)”,其典型故事是:产品经理想创建一个 Demo,你会看到他们通过氛围编程鼓捣出非常酷的原型和演示,用来获取用户反馈。然而,这些东西最终会被丢弃,然后由专业的软件工程师推倒重来。问题在于,如果你拿到一个无法理解的代码库,它究竟是资产还是负债?这是个经典的软件工程问题,答案是:它绝对是负债!你得维护这玩意儿,却没人懂它的运作原理,这太糟糕了。因此,通常的结论是:从零开始写,反而更划算。

因此,我们目前尚未找到一种令人放心的方式,让智能体成为真正理解代码库的角色。我认为,智能体带来的负债虽已降低,但总体上仍是净负债。你需要人类来完成设计工作,从高层次理解代码库。这样当系统出现故障,或者项目本身变得过于复杂,超出 AI 理解能力时,就可以由人类进行问题分解,将其拆解为足够小,小到 AI 能够处理的子问题。

Stephanie Zhan:我非常欣赏你提出的二分法:一方面是在后台自主处理任务的智能体软件工程师,另一方面则是在 AI 辅助下于 IDE 中进行编码的人类程序员。目前主流观点并未真正理解或意识到这一点。这两者是否会在某个节点交汇融合?还是说从长远来看,它们将始终是泾渭分明的两条路径?

Bob McGrew:两者已经在交汇了。你可以让智能体软件工程师完成诸如“修复漏洞”或“代码重构”这类任务,这些工作对审美判断的要求相对较低,并且有明确的结果。

我听过的另一个绝佳用例是:“将 COBOL 代码翻译成 Python”。这需要大量工作,非常枯燥,而且很难找到愿意投入并做好这项工作的聪明人。另一方面,如果你做的事情对品味有较高要求,包括在实现方式上的品味,其中可能存在不明显的后果——也许是性能上的隐性影响,也许是用户界面演变过程中难以预见的连锁反应,进而需要改变系统更深层的抽象结构——这些只能依靠人类来完成,目前别无选择。

这确实非常有趣。关键问题是,智能体能否为我们编写出足够详细的设计规格或足够详尽的架构图,使得当我们将一个智能体的工作成果交给另一个智能体,甚至可能只是同一个智能体在第二天加载了不同的上下文窗口时,是否能真正有效推进代码库的开发?在未来两三年里,我希望能看到这类问题的答案。

4

专有数据的价值是否被高估了?

Stephanie Zhan:你的推文还提到:“当竞争对手拥有无限智能,耐心的 AI 智能体能从公开数据中推测信息时,你们的专有数据还有多大价值?”能详细解释下这个观点吗?

Bob McGrew:这一切的起点可以追溯到几年前,当时业界对训练行业领域专有模型有浓厚的兴趣。金融公司说:“我们拥有海量独家数据,要在 GPT 或 Llama 的基础上训练一个金融专用模型,效果肯定会好得多。” 然而现实是,所有这些专有模型的效果远逊于下一代 GPT。智能本身的威力与新信息的综合能力,其价值远胜于仅仅死记硬背你所拥有的旧信息。

现在变成了这样:我拥有所有这些专有数据,它们是我多年累积的成果,然而在很大程度上,如果这些数据的目的是教会模型某项技能,或者旨在传授一项技能,那么这些数据实际上就是某种“具身劳动”,有人曾付出努力才完成了所有这些案例分析。

然而,如今这种“具身劳动”的成本已归零——AI 可以完成所有这些事情。于是,机遇随之显现:你可以让 AI 去联系所有客户、执行大规模调研、发掘他们所知的信息;可以让 AI 处理所有案例分析、与 o3 等大模型进行大量对话。如此一来,你便复制了那份专有数据,却无需投入原始工作量。

Stephanie Zhan:这如何与现实世界中专有数据的价值相协调?比如 Cursor 从其开发者社区持续获取的数据,或者特斯拉 Autopilot 过去几年积累的数据?

Bob McGrew:这些数据处于中间地带,它们的数据量确实非常庞大。我认为,使用从用户处获取的数据进行训练有时会面临挑战。要知道,模型存在一个无法避免的问题:如果用包含特定个人信息的数据进行训练,模型可能会记忆这些数据,进而在下一次交互中泄露给其他人。这是使用此类专有数据的一个挑战。

确实存在一类极具价值的真实世界专有数据——即那些关于极其具体的客户,并且客户信任你代其使用的高度具体化数据。举个例子:我的财务顾问对我了如指掌,她清楚我的整个投资组合,也了解我的各类财务目标。她利用所有这些信息为我提供更优投资方案,这些数据并不会让她成为更出色的财务顾问——不会提升她的专业技能,但能让她有机会充分发挥既有能力。我认为,这类专有数据确实很有用。

5

创业公司的机遇在哪里?

Sonya Huang:你认为,基础模型最终能拿下多少应用层的市场份额?

Bob McGrew:可以从另一个角度来思考这个问题:哪些领域是初创企业的安全区,哪些领域又会被前沿实验室碾压?在我看来,相对安全的领域往往需要深度理解模型之外的专业知识。

许多企业级应用就符合这个特征,Palantir AIP 平台就是个典型案例。它本质上并非模型公司,而是构建在模型之上的解决方案。还有一家我参与投资并担任顾问的公司,名叫 Distyl。他们构建的 AI 系统,能够帮助企业从其业务内部提取上下文信息,将其输入大模型,并利用模型输出来做出决策。

这类事情,顶级实验室通常无意涉足。顶级实验室看待企业问题的视角是:“我该如何训练一个新模型来解决这个问题?” 但如果你审视所有这些企业客户,每个企业的问题规模都太小。专门为其中任何一家企业客户训练一个定制模型,都不值得 OpenAI 或 Anthropic 投入时间。然而,如果转换视角,思考如何构建一个围绕大模型运作的系统,如何利用模型来高效地输入上下文并获取输出结果,突然间这就变成了一个统一的问题,其中蕴藏着巨大机遇。

Stephanie Zhan:Distyl 和 Palantir 为这些企业客户解决的具体场景和痛点是什么?

Bob McGrew:当前很多时候,我们看到的是去自动化某个现有的工作环节。其中相对容易的案例,是那些存在于强监管行业中的环节。比如,如果你从事医疗健康相关工作,可能需要与保险公司打交道,并且你面对的是一个高度脚本化的工作流,公司极其重视该流程的执行。然而,这并不意味着你可以直接让 AI 去读临床指南,然后做决策, 但通过一个改造流程,可以逐步达到让 AI 承担此类决策的程度,而这正是当下唾手可得的成果。

然而,更高阶的挑战在于,如果你从事的领域并非强监管行业,工作流程也非高度脚本化,而你希望将某个劳动密集型流程自动化。那么,你首先必须做的就是将这个流程本身清晰化梳理出来。如果你去找相关人员,请他们描述自己的工作,很多时候他们并不清楚具体做什么,甚至他们自己也未必完全清楚。他们可以给你举些例子,但无法明确说出“这就是我遵循的工作流程”。在实际工作中,他们并不遵循单一、固定的流程。

这正是许多问题的症结所在。Distyl 公司的业务核心就是协助企业,利用 AI 访谈员工,系统化整理既有数据,最终形成 AI 模型可执行的标准化流程。

Stephanie Zhan:是否存在某些特定领域,既处于前沿实验室创新范围之外又值得关注?

Bob McGrew:我对机器人技术非常感兴趣,2016 年时我已经做到让机器人通过视觉系统玩跳棋了,我曾想自己创立一家机器人公司。

当初,我们在 OpenAI 研究机器人技术时,并非出于商业动机,而是为了展示机器学习的能力。我们在机器人领域的一些构想后来对大型语言模型的发展产生了影响。真正的变革在于:如今有了大语言模型,机器人获得了语言交互界面,你可以用极低成本描述任务指令,同时,我们还拥有了真正强大的视觉编码器,它们与这套智能系统紧密集成。正因如此,机器人在执行通用任务方面获得了天然优势。

我们曾耗费数年时间攻克教会机器人解魔方这个单一难题,而现在像 Physical Intelligence 这样的公司,只需数月就能解决诸如叠衣服、处理纸箱等多样化任务。他们之所以能做到这一点,是因为他们构建在现有前沿模型之上,并且充分利用了近十年积累的整个技术体系与研究基础设施。

机器人技术目前完全不在顶级实验室的路线图上,距离商业化落地尚有距离,但这种状态让我感觉很像几年前 AI 所处的位置。因此,我认为这是当下像 Skild AI 或 Physical Intelligence 这类公司发展的绝佳时机。你或许可以创办一家另辟蹊径、独树一帜的机器人公司。我认为,机器人技术作为一项研究挑战已进入尾声,距离商业化落地仅剩数月或数年之遥,这极具吸引力。

6

在 OpenAI 工作那些事

Sonya Huang:为什么 OpenAI 会把工程师与研究员叫做“技术团队成员(member of the technical staff)”?

Bob McGrew:早在我加入 OpenAI 之前,这个理念就已存在,我相信这是 Greg Brockman 提出的观点。我们真正希望消除工程师与研究员之间的界限。以传统实验室为例,比如 Google Brain 总把拥有博士学位的学者型研究员以及负责数据与代码实现的软件工程师区分得很清楚。

这种划分非常不利,研究员们往往不愿动手写代码,但若不写代码,你无法真正理解研究中的系统工程问题。想想Alec Radford 之所以成为天才研究员,是因为他在每次关键突破中细致观察数据并思考“这些数据蕴含什么可能性”,而且最初阶段他就坚持自己编写数据爬虫代码。

因此,如果你想找到真正理解全栈技术的人,Paul Graham 有个绝妙的绘画类比——媒介的阻力决定了你能创作的画作类型。研究也是如此,它本质上是一项艺术事业,研究者本身就是艺术家,也应该像艺术家那样行事。通过模糊界限,统称所有人“技术团队成员”,我们创造了一个更公平的竞争环境。这个做法后来发挥了重要作用——OpenAI 的许多杰出研究者如 Aditya Ramesh、Alec Radford 没有博士学位,他们实际上是在 OpenAI 的工作实践中掌握了这门技能。

Sonya Huang:我很想听听你 OpenAI 的经历。那里汇聚了一群绝顶聪明也很有创造力的人才。我们收到的反馈都对你赞誉有加,认为你是这个组织公正而杰出的管理者和领导者。领导这样的机构,你有什么心得可以分享吗?

Bob McGrew:这话听起来可能有点老生常谈,但作为管理者最核心的素养是真心关怀你管理的团队。很多时候这似乎无关紧要——日常管理工作无非是协调事务、帮助成员理解工作内容,忠诚度之类的品质显得没那么重要。但管理者总会面临这样的关键时刻:在下属的职业生涯初期,你可能需要他们放弃周末篮球赛来加班;而在他们职业后期,你或许不得不让核心成员放弃挚爱的项目转交他人,或是要求其分享本可独享的研究——当几个顶尖人才协同作战时,突破性进展会来得更快。

在 Palantir 与 Alex Karp 共事时,我认识到,虽然才华横溢之人拥有超能力,却也伴随着致命弱点。对于那些处于能力巅峰的人而言,他们甚至意识不到自身的弱点,但这些弱点在旁人眼中却极为明显。作为管理者,我能轻易洞察这一点。在这个能力层级上,当人们失败时,那几乎总是一种自我毁灭的形式。

我说的不是小挫折,不是“今天状态不好”这种。而是当有人以糟糕方式做出改变职业生涯的抉择时,那几乎总是自我毁灭的结果。他们必须去做对自己异常艰难的事,需要直面那些令自己极度恐惧的处境,而这些对其他人来说明显是正确答案,对公司显然最有利,但对他们从感性的角度却异常艰难。

回到管理者的角色,作为管理者,如果下属知道你是为自己谋利,当你要求他们做事时,他们就不会信任你。但如果他们知道你是在为他们争取最大利益,那么当你要求他们去做那件极其困难且令他们恐惧的事情时,有时你就能帮助他们跨越鸿沟,解决问题,避免他们做出愚蠢的举动,最终获得圆满的结果。

我甚至在解雇员工时也坚持这一标准。对我而言,无论何时与员工交谈——即便是解雇某人时——我都必须以他们的利益和公司利益为出发点,给予建议和帮助。如果他们在现有岗位上注定无法成功,而我已经投入足够时间确认这一点,那么坦诚告知其失败现状并提供寻找新机会的空间,反而是对他们最有利的选择。

Stephanie Zhan:当面对一群能力超群、对某个研究方向充满激情、渴望实现突破的研究者时,他们可能自信甚至有些自负,认为自己独立或只需一两个搭档就能达成目标。你究竟如何说服他们接受协作的力量?

Bob McGrew:确实非常困难,这正是研究实验室与工程文化的本质差异之一。在工程文化中,团队协作构建同一产品是基本前提,但科研往往脱胎于学术界那种负面文化——PI(首席研究员)独占团队成果,争夺第一作者和通讯作者,中间贡献者则被完全忽视。

我们在这个问题上挣扎了很久,我认为并没有唯一正确的解决方案。我们尝试过让 OpenAI 作为论文第一作者,这样就能避免署名顺序的争议。这个方法一度很有效,但并非所有情况都适用,也不总是合理。归根结底,与人合作时要理解他们的诉求,既要让他们实现创作目标,又要协调所有人的贡献形成整体成果,并持续反复地解决这个问题。

免责声明:本文来自oneflow客户端,不代表超天才网的观点和立场。文章及图片来源网络,版权归作者所有,如有投诉请联系删除。

0 0 0
有话要说  人讨论    22 人阅读
发表

游客

这位投稿者太神秘了,什么都没留下~

超天才网©2017 www.supergenius.cn All Rights Reserved ICP备09005826号 京ICP证130304号

联系我们| 加入我们| 法律声明| 关于我们| 评论互动

超天才网©2013-2014 All Rights Reserved ICP备09005826号 京ICP证130304号

关注我们: