【资料图】
近来频频呼吁对AI技术加强监管的OpenAI CEO Sam Altman再次强力发声,呼吁成立类似联合国系统下国际原子能机构的监管机构来监管AI技术。
6月6日周二,Altman在访问阿拉伯联合酋长国期间警告说,AI对人类构成“生存风险”,并建议成立类似国际原子能机构的政府间监管机构监督这项突破性技术的发展。
Altman说:
世界面临的挑战是我们如何管理这些风险并确保我们仍能享受到这些巨大的好处。没有人想毁灭世界。
OpenAI研发的ChatGPT的成功让人们得以一窥AI如何改变人类工作和学习的方式,这也引发了人们的担忧。包括Altman在内的数百名行业领袖在5月份签署了一封公开信,警告说“减轻AI灭绝人类的风险应该与疫情和核战争等风险一起被列为全球优先事项。”
Altman特别提到了联合国旗下的核能监督机构国际原子能机构(IAEA),该组织是二战结束前夕美国向日本投下两颗原子弹后的几年内成立的,旨在确保全球核能安全。
Altman说:
风险提示及免责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。让我们确保我们能够团结一致,成立一个全球性的组织——我希望这个组织能够在监管AI方面发挥真正的作用。
我们将国际原子能机构视为一个典范,全世界都在说‘好吧,非常危险的技术,让我们都设置一些护栏吧。’我认为我们可以兼顾AI技术的发展和监管。
我认为当前我们处在一个非常微妙的时间点,因为AI技术今天并没有那么危险,但它会很快变得危险。但我们可以提前做好准备。