最近,似乎全世界都在围剿ChatGPT。
(资料图)
前一阵由马斯克、图灵奖得主Bengio等大佬联名发起的暂停高级AI研发的公开信,现在签名已经上升到9000多人。
即使全世界都对超级AI如临大敌,想赶紧悬崖勒马,恐怕也为时已晚。
因为,如今的AI,已经学会自我进化了!
前段时间,前谷歌大脑研究工程师Eric Jang发现:GPT-4能够以合理的方式批评自己的成果。
与其为大型语言模型(LLM)寻找完美的提示(让我们一步一步思考),不如让LLM评估自己的输出并立即纠正自己的错误。
甚至连特斯拉前AI总监,OpenAI研究科学家Andrej Karpathy大赞,这是一个很好的例子,说明我们还没有看到GPT-4的最大能力。
在Eric Jang给出的例子中,曾看到微软研究员发推说GPT-4根本无法写出「不押韵」的诗歌。
然而,当再去询问GPT-4是否完成了任务。这时,它道歉后,生成了一个不押韵的诗!可以说是满分。
这恰恰印证了GPT-4是有「反思」能力的。
最近,来自美国东北大学、MIT等机构研究者提出了Reflexion。这一方法赋予智能体动态记忆,以及自我反思的能力。
论文地址:https://arxiv.org/abs/2303.11366
为了验证方法的有效性,研究人员评估了智能体在AlfWorld环境中完成决策任务的能力,以及在HotPotQA环境中完成知识密集型、基于搜索问答任务的能力。
在这两项任务的成功率分别为97%和51%。
Reflexion智能体的整体架构
有网友便表示,你可以通过要求 GPT-4 反思「你为什么错了?」,并为自己生成一个新的提示,将这个错误原因考虑在内,直到结果正确,从而将GPT-4的性能提高惊人的30%。
另外,论文指出,在测试模型编写代码的能力时,Reflexion+GPT-4也显著优于常规的GPT-4。
这样看来,就像Eric Jang所说,
我们现在可以考虑一种「后缀提示工程」,而不是巧妙的「前缀提示工程」。这将鼓励LLM在先前生成的解决方案中找到更正和不一致的地方。
本文摘自新智元,原文标题为《GPT-4超强进化,近万人联名封杀!白宫紧急开会,ChatGPT概念股暴跌》
风险提示及免责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。