【5月6日】在人工智能技术飞速发展的今天,Stack Exchange Inc.,作为全球知名的编程问答社区Stack Overflow的运营商,宣布与OpenAI建立内容许可合作伙伴关系。这一合作标志着两大技术巨头在AI领域的深度融合,预示着编程领域的AI应用将迈入一个全新的时代。 根据合作协议,OpenAI的大型语言模型(LLM)开发人员将获得访问Stack Overflow论坛帖子的权限。这意味着,当用户在使用ChatGPT提出编码问题时,如果该问题已经在Stack Exchange论坛上得到解答,ChatGPT的聊天机器人将能够直接从相关帖子中提取信息,为用户提供更加精准的答案。OpenAI承诺,将在ChatGPT的回复中明确标注信息来源,以尊重Stack Overflow社区的贡献。
此外,LLM开发人员将与Stack Overflow展开紧密合作,共同改进其模型,以期使OpenAI的模型对开发者更加有用。这表明双方的目标是提升ChatGPT在代码解释和生成方面的能力,进一步优化用户的编程体验。
Stack Overflow首席执行官Prashanth Chandrasekar表示:“Stack Overflow是全球最大的开发者社区,拥有超过5900万个问题和答案。我们的目标是通过OverflowAPI,利用经过审查、可信且准确的数据,为构建技术解决方案提供基础,同时推进对社会负责的人工智能时代。”
OverflowAPI是Stack Exchange于去年6月推出的应用程序编程接口,它允许公司通过购买订阅来访问Stack Overflow上的超过5900万个编码问题和答案。订阅者不仅可以访问现有内容,还能获取用户随时间上传到论坛的新帖子。
OverflowAPI的一个显著优势在于其提供的“反馈信号”功能。人工智能模型可以通过用户提交的内容旁边的赞成票和反对票计数器,评估给定帖子的准确性和有用性。通过分析给定帖子收到的点赞数,神经网络可以决定是否将其纳入即时回复中。
在内部评估中,Stack Exchange使用OverflowAPI训练了一个具有340亿个参数的Llama 2版本模型。结果显示,OverflowAPI的数据使模型在测试期间成功执行编码任务的百分比提高了近20%,充分证明了其在提升模型编码能力方面的显著效果。
OpenAI并非OverflowAPI的唯一客户。今年2月底,Stack Exchange宣布Google LLC将通过其为Google Cloud聊天机器人提供的Gemini服务,接入Stack Exchange的论坛内容。作为回报,Stack Exchange将使用Google的公共云作为其托管论坛的“首选平台”。
与OpenAI的合作不仅限于内容许可。Stack Exchange将利用LLM开发者的模型来支持OverflowAPI的开发,并计划于6月底开始推出Stack Overflow和OpenAI模型之间的集成。这可能预示着Stack Exchange将把OpenAI模型集成到其正在开发的一项或多项人工智能功能中。
去年,Stack Exchange预览了Stack Overflow搜索栏的增强版,该搜索栏可以根据论坛帖子中的信息,自动生成编码问题的答案。这项技术的自动生成答案的详细程度是可定制的,能够满足不同用户的需求。
此外,Stack Exchange还计划将人工智能工具添加到Stack Overflow for Teams中。这是一款专为软件团队设计的商业产品,用于在团队内部共享技术知识。计划中的功能之一是能够自动询问有关存储在GitHub等第三方平台中的代码和其他技术数据的问题。这些问题将帮助开发人员更快地熟悉应用程序的代码库,提高团队的工作效率。
|