您现在的位置是:主页 > 行业 > 头条 >
诺贝尔奖连续“颁给 AI ”,背后最大赢家竟是 Google?
来源:硅星人 2024-10-13 16:30:18 阅读:
提要从时间线上来看,谷歌绝对是最早入局人工智能的大公司玩家。...
2024 年的诺贝尔化学奖一半授予大卫 · 贝克(David Baker)," 以表彰在计算蛋白质设计方面的贡献 ";另一半则共同授予德米斯 · 哈萨比斯(Demis Hassabis)和约翰 · M · 詹珀(John M. Jumper)," 以表彰他们在蛋白质结构预测方面的成就 "。
David Baker 是华盛顿大学蛋白质设计研究所所长,被誉为蛋白质设计领域先驱。2003 年起,他成功设计出全新的 Top7 等多种创新蛋白质,广泛应用于药物、疫苗、纳米材料、微型传感器等领域。并在 1999 年就提出了蛋白质结构预测算法 RoseTTA,早于 Deepmind 的 AlphaFold。
另两位获奖者就更不陌生。Demis Hassabis 是 Google DeepMind 联合创始人兼 CEO,John M. Jumper 现任 Google DeepMind 总监。两人通过领导团队开发 AI 模型 AlphaFold 2,解决了困扰科学界 50 年的难题:从氨基酸序列预测蛋白质的复杂结构。
蛋白质是生命的基础化学工具,它们控制并推动着所有生物化学反应,担任激素、信号物质、抗体和组织构建的关键角色。在蛋白质中,氨基酸以长链的形式连接在一起,并折叠成三维结构。自上世纪 70 年代以来,研究人员一直尝试根据氨基酸序列预测蛋白质结构,无奈进展缓慢,直至四年前 DeepMind 带来的惊人突破。2020 年,Demis Hassabis 和 John Jumper 在初代 AlphaFold 的基础开发了 AlphaFold 2。它几乎能够预测所有已被研究人员识别的 2 亿个蛋白质的结构,至今已被引用超过 2 万次,被来自 190 个国家 200 多万人使用,在推动包括疟疾疫苗、癌症治疗、酶设计和抗生素耐药性研究等领域取得了巨大进展。实际上在诺奖以前,两人已于去年获得素有 " 科学界奥斯卡 " 之称的生命科学突破奖和 " 诺奖风向标 " 拉斯克奖,以表彰他们为基础医学研究做出的突出贡献。
瑞典皇家科学院在声明中称," 没有蛋白质,生命无法存在。如今我们能够预测蛋白质结构并设计自己的蛋白质,这为人类带来了巨大的福祉。"
得知获奖消息后,Google DeepMind 官方第一时间发文 " 报喜 "。
" 获得诺贝尔奖是我一生的荣誉。感谢瑞典皇家科学院,感谢 John Jumper 和 AlphaFold 团队,感谢更广泛的 DeepMind 和 Google 团队,以及所有为这一时刻做出贡献的同事。我将我的职业生涯奉献给 AI 的进步,因为它拥有无与伦比的潜力,能够改善数十亿人的生活。AlphaFold 已经被 200 多万研究人员用于推进关键工作,从酶设计到药物发现。我希望未来我们能将 AlphaFold 视为 AI 加速科学发现巨大潜力的第一个实证。"
John Jumper 随即表示:" 这是 AI 能够加速科学研究并最终帮助理解疾病和开发治疗方法的一个重要证明。这项工作归功于 Google DeepMind 的优秀团队,这个奖项也认可了他们的杰出贡献。"
怪不得连 " 诺贝尔派对 " 都直接在 Google 园区举办了。
Google 的进攻
从时间线上来看,谷歌绝对是最早入局人工智能的大公司玩家。
尽管在许多故事版本中,都将 2012 年冬天那场发生在美国太浩湖旁赌场酒店里的秘密竞拍,描述为 Google、微软、百度三家科技巨头与 DeepMind 之间,围绕 Hinton 刚成立、除了几篇论文外没有任何实质产品的小公司 DNNResearch 的公平竞争。但事后回看,这场竞拍的结局其实早已注定。因为它的起源之一,正是来自 6 个月前 Google 的推动。
2012 年 6 月,Google Brain 公开启动 " 谷歌猫(The Cat Neurons)" 项目,用算法识别 YouTube 视频中的猫。由吴恩达领导,Jeff Dean 参与,并获得公司创始人 Larry Page 的大力支持。
项目构建了一个拥有 10 亿个连接的大型神经网络,使用来自 YouTube 的 1000 万段未标注视频,在 16,000 个 CPU 上进行训练。通过无监督学习,该系统成功自主学会了识别猫脸,准确率达 74.8%,并能识别人脸等其他物体。
不过,吴恩达在项目后期选择了激流勇退,临走前向 Google 举荐了自己的老师 Hinton 接替工作。Hinton 表示自己不会离开大学,只愿意去 Google" 待一个夏天 "。就这样,他成为 Google 历史上最年长的实习生。
作为深度学习领域的权威,Hinton 很快就意识到项目的缺陷,指出谷歌猫 " 运行了错误的神经网络,并使用了错误的计算能力。" 于是在短暂的 " 实习期 " 结束后,Hinton 马上召集学生 Ilya Sutskever 和 Alex Krizhevsky 组建团队,开发了新的神经网络架构 AlexNet。并带着仅 4 颗英伟达 GPU 训练出来的成果参加了 2012 年 ImageNet 图像识别比赛,最终以 84% 的准确率取得颠覆性胜利。
同年 10 月,Hinton 团队在佛罗伦萨计算机视觉会议上正式介绍了冠军算法 AlexNet。一支学界团队逆袭击败硬件和研发资源对比悬殊的 Google,引发学术界和产业界彻底轰动。AlexNet 论文也成为计算机科学史上最有影响力的论文之一,被引次数超过 12 万。
当时的 Hinton 在一篇声明中写道:" 我会继续在多伦多大学兼职任教,但在 Google,我能够看到我们如何处理超大型计算。"
在直到 2023 年 5 月的十年谷歌生涯中,Hinton 继续参与大规模人工神经网络研究,为 Bard 和 ChatGPT 等现代 AI 系统的底层技术奠定了基础性贡献。他也参与开发了开源机器学习软件库 TensorFlow,推动了图像识别、语言理解等 AI 应用的能力提升,并将深度学习技术广泛应用于 Google 的各类产品和服务中。
Google 对人才和技术的聚集从未放缓。在收购 DNNResearch 仅两年后,当年参与竞拍的对手之一, Hassabis 创立的 DeepMind 也被它纳入囊中。
据悉,Google 当时还专门包了架私人飞机带 Hinton 去伦敦 " 验货 ",并且专门改造了座椅,解决他背痛不能坐飞机的问题。而当时被 Google 挤走的 Facebook 在错失 DeepMind 后,则转而高价挖走了 " 深度学习三巨头 " 之一的 Yann LeCun。
Deepmind 的故事
来到 DeepMind 这边,其实被 Google 收购前,DeepMind 已经在财务方面遇到了困难,公司一直在烧钱,却未能找到可持续的商业模式,甚至濒临破产。
谷歌的 6 亿美元收购拯救了 DeepMind,不仅保留了核心技术团队,还为其提供了强大的计算资源,包括云计算平台和数据中心支持。这让 DeepMind 能够利用更强的算力来训练深度神经网络,特别是在 AlphaGo 的开发中,大幅提升了计算速度和模型精度。除此之外,谷歌还提供了专门设计的 TPU(张量处理单元),进一步优化了深度学习模型的训练和推理效率,AI 基础工具 TensorFlow 也被广泛应用到 DeepMind 的研究之中,协助加强 AlphaGo 的表现。
AlphaGo 是 DeepMind 团队开发的一款人工智能围棋程序。它通过分析数百万局棋谱,用自我对弈进行强化学习,掌握了复杂的围棋策略,能够超越人类顶尖围棋选手。2016 年,AlphaGo 在与围棋世界冠军李世石的比赛中取得了 4 比 1 的胜利,从此一战成名,震惊全球。
于是在几个月内,DeepMind 便迅速雇佣生物学家,组建了一支跨学科团队,专注于解决蛋白质折叠难题,最终在 2018 年促成了 AlphaFold 项目诞生。经过多次迭代,AlphaFold 已凭借其突破性的蛋白质结构预测能力,彻底改变了生物学研究,展现了 AI 在科学领域的强大应用前景。
就在今年 5 月,Google Deepmind 再次官宣,与 Isomorphic Labs 联合推出新一代蛋白质预测模型 AlphaFold 3,相关论文一举登上《Nature》杂志。
与之前的版本相比,AlphaFold 3 不仅在蛋白质折叠预测上取得了进展,还首次实现了对蛋白质、DNA、RNA 及配体等生命分子的结构及其相互作用的高精度预测。这一突破帮助科学家更深入地理解疾病机制和生命过程,同时大幅缩短了研发时间和成本。无论是开发可再生材料,还是加速药物设计和基因组学研究,AlphaFold 3 都为生物分子领域打开了更广泛的应用空间。
不仅如此,团队还基于 AlphaFold 3 推出了一个名为 AlphaFold Server 的免费平台,供全球科学家进行非商业性研究,进一步推动科学探索的普及。
通过 DeepMind,Google 不断吸引着全球顶尖的科研人才,并提供长期的资金支持,使其能够专注于突破性研究,而不必依赖短期的商业回报。Google 还赋予了 DeepMind 高度的战略自主权,使其能够自由选择研究方向。正是这种独立性和长期支持,为 DeepMind 进行前瞻性研究奠定了坚实基础。
除游戏领域和生物学突破外,DeepMind 还开发了用于谷歌助手的逼真语音合成模型 WaveNet,提升了语音交互体验。通过视觉 - 语言 - 动作模型 RT-2 增强了机器人在多样环境中的任务执行能力。其研究还涉及天气预测、核聚变反应堆等复杂问题,并通过 AlphaCode 和 AlphaDev 等项目推动了计算机算法的进一步发展。
Google 的 " 家底 " 依然深厚
在今天的人工智能竞争中,OpenAI 和 Anthropic 等明星公司的迅速崛起、ChatGPT、Claude 之于 Gemini 的 " 碾压 ",一度让人们对 Google 的 AI 策略产生了质疑。特别在生成式 AI 产品和开发者工具的商业化进程上,OpenAI 们的快速发展与 Google 相对缓慢的步伐形成了鲜明对比。
然而眼前的两项诺贝尔奖似乎在提醒我们,Google 深厚的科研土壤和技术积累仍是其他公司难以复制的优势。
在 2006 年之前,深度学习的现状可以用开尔文男爵的那句名言来概括:" 深度学习的大厦已经基本建成,只不过在阳光灿烂的天空下,漂浮着三朵小乌云。"
这三朵小乌云分别是算法、算力和数据。
而 Google 恰恰在这些关键领域拥有明显优势。首先,它掌握了全球领先的庞大数据资源,依托 YouTube、Google Scholar 和 Google Search 等平台,Google 为视觉、语音识别和自然语言处理等 AI 模型提供了丰富且多样化的训练数据。
其次,Google 在计算资源方面具有显著优势。其自主开发的 TPU 硬件大大加快了深度学习模型的训练速度,Google Cloud 不仅为内部研究提供了强大的计算能力,还为全球开发者提供了工具,帮助他们快速构建和部署复杂的 AI 应用。
在算法研发领域,Google 也处于行业前沿。诞生于 Google Brain 团队的 Transformer 架构奠定了现代自然语言处理的基础,推动了今天几乎所有前沿 AI 模型的发展。这些技术不仅推动了学术界的进步,还广泛应用于 Google 的核心产品中。
在与 OpenAI、微软等公司的竞争中,Google 的 " 家底 " 依然厚实,在 AI 竞赛中也并未被打败。人工智能的潜力远未被充分挖掘,而在这场长跑中,或许技术创新的深度和广度才决定了最终的胜者。