75. 和OpenAI前研究员吴翼解读o1:吹响了开挖第二座金矿的号角

00:00
01:14:10
节目详情

上集节目,广密在OpenAI o1问世之前,准确地预言了代号为“Strawberry”(草莓)的项目走向,以及它背后暗示的AGI范式已经转移,强化学习开启了新赛道。

这集节目录制在o1问世之后,我第一时间和边塞科技创始人、清华叉院信息研究院助理教授,同时也是前OpenAI研究员的吴翼聊了聊。他的研究方向正是强化学习。吴翼从技术视角全方位地解读了o1模型,并且分享了只有内部视角才能看见的真实的OpenAI。

我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)
  • 01:50 2019年在OpenAI做研究员
  • 03:04 那个年代所有PHD都希望去Google Brain和DeepMind
  • 03:46 OpenAI o1-preview初体验,很意外在用户使用端做这么大规模的推理
  • 07:20 pre-training(预训练)能挖的金矿越来越少,以强化学习为基础的post-training(后训练)是另一个大金矿,使迈向AGI的梯子多了几节
  • 09:00 o1-preview版本是GPT-3时刻,到没到ChatGPT时刻要看正式版本
  • 10:33 o1应该核心关注两个要点和背后的技术原理
  • 13:54 强化学习能否探索出Scaling Law有希望,但很复杂
  • 15:06 强化学习三要素:reward model+搜索和探索+prompt,每一块都很难
  • 16:42 2014年开始,UC Berkeley集体转向,押注强化学习
  • 19:36 RL算法的演进:从DQN(Deep Q-Network)到PPO(Proximal Policy Optimization)
  • 23:45 相信会带来通用能力而不是垂类能力提升
  • 24:47 长文本是实现AGI的第一步,推理能力是第二步
  • 29:57 通过o1-preview能反向复原哪些技术细节?
  • 34:00 reward model不太可能有一个单独的小组闭着眼睛训练,是耦合的
  • 38:30 思维链、安全、幻觉和算力
  • 41:25 为什么这么项目叫“Q*”?后来又叫“草莓”?梗都很有意思
  • 49:49 o1不代表垂直模型,依然相信会出现全能的大统一模型
  • 57:57 关于Scaling Law,2019年OpenAI内部讨论的细节
  • 01:00:26 2019年的OpenAI处于“闭着眼睛挖矿的状态”
  • 01:03:20 OpenAI当年如何做管理:搞大新闻、发博客,KPI是博客关注量
  • 01:10:28 2020年离开OpenAI后悔吗?

o1发布前的预言单集:AGI范式大转移:和广密预言草莓、OpenAI o1和self-play RL|全球大模型季报4

【更多信息】

联络我们:微博@张小珺-Benita,小红书@张小珺jùn

更多信息欢迎关注公众号:张小珺

展开
大家都在听
评论(0条)
快来抢沙发吧!
打开蜻蜓 查看更多