2024年6月4日上午,13名人工智能领域的工作者发表联名信,谷歌和OpenAI等科技巨头正在进行一场可能危害人类的技术竞赛。在公开信,他们要求获得“向公众发出警告的权利”。
这封公开信由OpenAI、Google DeepMind和Anthropic的现任和前任员工签署。13名AI工作者,其中11人曾就职或目前就职于OpenAI,包括Kokotajlo、Jacob Hilton、William Saunders、Carroll Wainwright和Daniel Ziegler。信中警告,“人工智能公司有强烈的经济动机来逃避有效的监管”。
信中指出,潜在的风险包括错误信息的传播、不平等现象的加剧,甚至“失去对自主人工智能系统的控制,这可能导致人类的灭绝”——尤其是在OpenAI和其他公司追求所谓的高级通用智能(AGI),其能力与人类思维相当或超越人类思维的情况下。
这封信的组织者之一,OpenAI的前员工丹尼尔·科科塔伊洛(Daniel Kokotajlo)在一份声明中表示:“各大公司竞相开发和部署功能更强大的人工智能,完全不顾人工智能的风险和影响。我决定离开OpenAI,因为我对他们能否负责任地行事不再抱有希望,尤其是在他们追求通用人工智能的时候。”
科科塔伊洛补充说:“他们和其他公司都采取了‘快速行动,打破常规’的做法,这与如此强大且难以理解的技术所需要的谨慎态度背道而驰。”
科科塔伊洛于2022年加入OpenAI担任研究员,专注于绘制人工智能进步的图表,并于今年4月离职。他认为,未来先进的人工智能摧毁或严重伤害人类的可能性高达70%。
他还预测,到2027年,研究人员实现通用人工智能的可能性为50%。
这封信得到了两位被誉为“人工智能教父”的著名专家的支持——杰弗里·辛顿和加拿大计算机科学家约书亚·本吉奥。辛顿去年警告说,流氓人工智能对人类的威胁比气候变化“更为紧迫”。英国著名人工智能研究员斯图尔特·拉塞尔也支持这封信。 这封信要求人工智能巨头承诺遵守四项原则,以提高透明度并保护公开发表言论的举报人。其中包括一项协议,不对公开谈论安全问题的员工进行报复,并支持举报人匿名向公众和监管机构通报风险。
|