真正的ChatGPT之父 根本没打算让它问世
2023年,美国人工智能公司OpenAI的首席科学家、人工智能先驱伊利亚·苏茨克维(Ilya Sutskever)入选《自然》年度十大人物(Nature's 10),而非该公司首席执行官山姆·奥特曼(Sam Altman)。|Time
超越人类智商的人工智能,还能掌握在我们手中吗?
“人工智能会解决人类遇到的所有问题,也将带来新问题。假新闻会严重一百万倍,网络攻击会变得更极端,甚至是人工智能武器。”
2023年12月,OpenAI的首席科学家伊利亚·苏茨克维(Ilya Sutskever)给爆火的ChatGPT浇了一盆冷水后消失了。
作为OpenAI公司负责融资和商业化的首席执行官,山姆·奥特曼(Sam Altman)一直被视为“ChatGPT之父”。
但几乎没人知道,在工程实现上为ChatGPT诞生做出突破的伊利亚,没有他就不会有今天的ChatGPT。
年少成名
1986年,伊利亚出生在前苏联西部的下诺夫哥罗德,他在这里生活了五年,苏联解体后全家搬去了耶路撒冷。
他经常建议OpenAI的员工阅读《古拉格群岛》,这是一本将近700页,关于苏联强制劳动体系的非虚构作品。
动荡的生活直到他23岁那年才结束,全家离开以色列搬去了加拿大,伊利亚得以在多伦多大学完成学业。
2003年,刚上本科的伊利亚敲响了“人工智能之父”杰弗里·辛顿(Geoffrey Hinton)的办公室大门,凭借独特的思考赢得辛顿的青睐。
当时正值人工智能寒冬,没人相信辛顿的深度学习(Deep Learning)实验——即通过训练一个神经网络来解决一个问题。
2012年,ImageNet大赛让他们迎来了转机,辛顿带着他的两位学生,其中之一就是伊利亚,在这次大赛中发明了AlexNet系统。
使用深度神经网络,让图像识别率突破了75%的准确度,远超所有竞争对手。由他们三人共同撰写的论文至今引用量已超过6万次,成为计算机科学领域引用最多的论文之一。
自此,深度学习广为人知,当时伊利亚只有26岁。
改变AI进程
大赛结束后,伊利亚年少成名,三人共同创办了一家名为DNNResearch的公司。
该公司并没有推出任何产品,也没有明确的发展计划。包括百度、谷歌、微软在内的四家公司参与了竞标收购。
2013年3月,谷歌以4400万美元的金额收购了该公司,并聘请伊利亚担任Google Brain的研究科学家。
图像识别并非是伊利亚的研究巅峰。
2016年,谷歌一款围棋人工智能程序AlphaGo(又称“阿尔法狗”)击败了韩国国手李世石。在与李世石交手的第二场比赛中,第37手棋超越了所有人类棋手的理解范围,最终指向了胜利。
“想象一下,如果这种洞察力可以使用到各种地方,会怎么样?”伊利亚参与了AlphaGo研发的核心工作。
除此之外,他还发明了一种将英语翻译成法语的变体神经网络——序列到序列学习(Sequence-to-Sequence Learning)算法。
当时的研究者们并不相信神经网络能够进行翻译工作,而伊利亚的发明击败了表现最佳的翻译器,促使谷歌翻译重大升级,让机器翻译领域从此焕然一新。
在人工智能的关键发展节点中,伊利亚没有缺席任何一个章节。就在所有人以为谷歌能继续辉煌时,伊利亚却转身离开了。
与ChatGPT决裂
2015年,帕洛阿尔托一场小型晚宴上,奥特曼与马斯克决定创办一个非营利性的AI研究实验室,他们将其命名为OpenAI。
这次晚宴上,OpenAI首次明确提出创始理念——“利用人工智能造福全人类,并以负责任的方式推动人工智能的发展”。
伊利亚和马斯克、奥特曼坐在同一张餐桌上,马斯克不惜和谷歌DeepMind的首席执行官哈萨比斯决裂,也要把伊利亚从谷歌挖出来,担任OpenAI的首席科学家。
此时的伊利亚对OpenAI的未来充满期待。
伊利亚没有辜负OpenAI,他几乎主导并推动了之后的一切。伊利亚主导了对GPT的研发,后来发展成了GPT-2、GPT-3和ChatGPT。
但从ChatGPT开始,伊利亚与奥特曼在OpenAI路线选择上的裂缝就已经出现了。
《大西洋月刊》采访了OpenAI的10名现任和前任员工,还原了一个事实:ChatGPT在2022年11月的上线,是一个带有些防御性意味的仓促决定。
ChatGPT激增的流量带来了巨大安全风险——比如将ChatGPT用于行骗。包括伊利亚在内的安全和和对齐团队希望ChatGPT的进展能够放慢一点,ChatGPT的商业化也与最初的使命背道而驰。
2023年11月,OpenAI将山姆·奥特曼踢出局,伊利亚代表董事会通知了关于其被罢免的决定。
在一些零碎的报道里,伊利亚跟他的同事提起,把奥特曼踢出局是OpenAI能够沿着正确道路做AI研究的“唯一路径”。
超级对齐
伊利亚对AI和人类的不信任感与他的导师辛顿十分相似。
ChatGPT问世后,辛顿提出了一个看起来非常致命的问题,“我并不知道之前有任何案例,关于低智能物种能够对高智能物种实现完全的掌控”。
他担心AI会在海量数据中学习到意想不到的行为时,最终威胁到人类——比如欺骗,伪造的图片,和漫天的假消息。
为此伊利亚提出了“超级对齐”的概念——
其含义是确保当未来人类对人工智能系统的评估把握超过了那个可控的临界点后,人类仍然有可以有效地监督人工智能系统的办法。
通俗点说,确保AI永远受到人的控制。
但对马斯克和奥特曼等一众硅谷精英而言,当人们掌握一个颠覆性的产品或者技术,最好的办法是尽快把它拿到众人面前,哪怕这个产品或技术还不完美,真实的反馈比在象牙塔里夯实基础更有价值。
在奥特曼离开后,OpenAI内部迎来了史无前例的混乱局面,科研出身的伊利亚显然无法控制。但也是伊利亚,最后选择在要求董事会让奥特曼复职的请愿书上签了名。
无论如何,伊利亚参与或主导的工作一度改变了计算机视觉领域、机器翻译甚至自然语言处理领域的研究进程,其研究工作被引用超过42.7万次,成为引用量最多的计算机科学家之一。
美国《时代》杂志称其“真真切切,就是那个有能力决定人类未来的人”。一个人工智能是否会统治人类的电车难题,站在这个关键节点上,或许没有人能不犹豫。
网友评论