长期以来,谷歌一直被视为顶尖人工智能研究中心,但随着AI竞争加剧,这家科技巨头开始了“防守”模式。
今年2月,长期担任谷歌AI主管的杰夫·迪恩(Jeff Dean),向员工宣布了一项惊人的政策转变:他们将推迟与外界分享自己的研究成果。
多年来,迪安把他的部门当作一所大学来管理,鼓励研究人员大量发表学术论文。根据谷歌Research网站的数据,自2019年以来,他们推出了近500项研究。
(相关资料图)
但去年底OpenAI推出的爆红聊天机器人ChatGPT改变了一切。
据纽约时报,迪恩在公司研究部门的季度会议上说,OpenAI通过阅读其团队的科学论文来跟上谷歌的步伐。事实上,Transformers——最新人工智能技术的基础部分和ChatGPT 中的T——起源于谷歌的一项研究。
迪恩说,谷歌将充分运用自己的人工智能发现,只有在实验室工作转化为产品后才会分享论文。
正如谷歌在其研究网站的哲学部分所描述的那样,该公司长期以来一直认为,研究成果方面的透明度将激励外部研究人员推进与谷歌核心产品相关的领域。
但是现在,竞争对手利用这些研究成果推出了对谷歌核心业务构成威胁的产品。
ChatGPT就是建立在谷歌研究人员发明并发表的AI模型之上。与OpenAI有战略合作关系的微软,现在正将这些底层技术用于与谷歌竞争的产品,包括必应搜索和协作平台Teams。
一位前谷歌AI研究员将这种转变描述为谷歌从“和平时期”转向“战时”。
谷歌Brain研究员Brian Kihoon Lee在今年4月的一篇博客文章中写道,广泛发布研究成果有助于整个领域的发展。但一旦竞争变得更加激烈,游戏规则就会改变。
Lee说:
“在战时模式下,竞争对手的蛋糕份额增长多少也很重要。”
限制AI论文发表这一政策变化,是谷歌内部更大转变的一部分。
长期以来,谷歌一直被认为是AI领域的领导者,但它现在不得不进入“防守”状态——首先是为了抵御一群灵活的AI竞争对手,现在更是为了保护其核心搜索业务、股价,以及潜在的未来,高管们曾表示这些都与人工智能交织在一起。
谷歌CEO桑达尔·皮查伊(Sundar Pichai)曾在专栏、播客和电视节目中敦促人们对人工智能保持谨慎。他在今年4月的一档节目中警告说:“从社会层面来看,它可能会造成很大的伤害。”他描述了这项技术可能会加速虚假图像和视频的产生。
而现在根据对11名谷歌现任和前任员工的采访,谷歌最近几个月对其AI业务进行了全面改革,目标是迅速推出产品。
此前有分析认为,皮查伊之所以无法将AI研发成果植入到搜索等现有产品,主要原因是内部官僚主义横行、管理层厌恶风险,以及联合创始人垂帘听政。
如今谷歌降低了向较小群体推出实验性人工智能工具的门槛,在社会公平等领域开发了一套新的评估指标和优先事项。
为了加速在AI方面的进展,谷歌将以前独立的人工智能研究实验室谷歌大脑(Google Brain)和DeepMind合并为一个名为Google DeepMind的新部门。这个新部门的负责人将不是迪恩,而是DeepMind的首席执行官Demis Hassabis。
在本周早些时候的一次会议上,Hassabis表示,以后AI可能比大多数AI专家预测的更接近人类的智能水平。“我们可能只需要几年,也许……十年,”他说。
尽管许多知名公司校友和业内资深人士呼吁人工智能开发者放慢脚步,并警告称,这项技术的发展速度甚至超过了其开创者的预期。但分析认为,面对竞争,企业对冒险行事后果的担忧可能会减弱。
DeepMind的联合创始人Mustafa Suleyman表示:
“这(担忧冒险行事的后果)并不是说他们谨慎,他们不愿意破坏现有的收入来源和商业模式。”“只有当存在真正的外部威胁时,它们才会开始觉醒。”
Suleyman于2022年离开谷歌,并于本周推出了个性化人工智能Pi,这是他的新创业公司Inflection AI的一款产品。
在发表相关AI研究之前需要额外批准,可能意味着研究人员将在闪电般快速发展的生成式AI世界中,“抢先一步”运用他们的发现。
一些人担心这可能会被利用来悄悄压制有争议的论文,例如2020年关于大型语言模型危害的研究。
但其他人承认,去年谷歌的许多顶尖AI研究人员跳槽到了被视为尖端的初创企业,一些人的出走源于谷歌没有采取看似明显的举措,比如将聊天机器人纳入搜索,因为担心会造成法律和声誉上的损害,这让他们感到沮丧。
在季度会议的直播中,迪恩的声明得到了很好的回应,员工们分享了乐观的表情符号,希望这一转变能帮助谷歌赢回上风。
“OpenAI在我们自己的游戏中打败了我们,”一名参加会议的员工表示。
风险提示及免责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。