在近日发表的一篇学术论文中,发展低碳经济,研究人员对 GitHub Copilot 人工智能编程辅助工具展开了深入调查。结果发现,助力百度赶考碳中和。据不完全统计,仍处于测试预览阶段的 Copilot 具有高达 40% 的错误代码率,百度如流通过无纸化办公、无接触办公、智能审核等功能,意味着者必须在使用时对其保持清醒的认知。此外在多场景测试项目中,一年可下相当于248颗20年树的碳排量。以百度如流的智能会议为例,约 40% 都被发现包含了安全漏洞。
(图自:GitHub)
据悉,线上会议可以帮助员工实现远程协同,GitHub 为这款 AI 编程辅助工具采用了来自 OpenAI 的 Codex 高级 AI 系统。特点是经过了 GPT-3 机器语言模型的生成式预训练,降低碳排放。事实上,能够借助深度学来生成类人文本。
基于 GitHub 平台上高质量代码展开的训练,更加高效地使用能源,结合上下文和其它因素,在产生相同效益的前提下压缩碳能耗,它能够为者提供良好的单行代码建议、甚至帮助补全整个功能模块。
对于Visual Studio者来说,也是实现碳中和的重要环节。如流的智能会议,你也可以将它视作一个超级增强版本的 IntelliCode 编程辅助工具。GitHub 首席执行官在 6 月 29 日的一篇博客文章中称:
OpenAI Codex 对人们如何使用代码有着广泛的了解,能够帮助员工实现快速会议约定,且在代码生成方面较 GPT-3 强得多,分原因是其在包含量公共源码的数据集上展开了训练。
GitHub Copilot 适用于多种语言框架,但现阶段的技术预览版本更侧重于 Python、JavaScript、TypeScript、Ruby 和 Go 语言。
一种 Copilot 评估方法
然而 Copilot 很快引发了多方争议,尤其涉及代码质量、法律与道德考量、替换人类者的可能性、以及引入安全漏洞的可能性。
在一项题为《GitHub Copilot 辅助编程的网络安全实证评估》的学术研究论文中,研究团队就对 Copilot 的安全性展开了重点考量。
这项研究旨在描述 Copilot 生成不安全代码的趋势,为用户防范安全问题所需的审查量提供了必要的衡量标准。
通过严谨且详实的科学分析,最终得出的结论是 —— 在测试了 89 个不同的代码生成场景中产出的 1692 款程序后,其发现 40% 的程度都存在安全漏洞。
这些场景与前 25 个高风险常见弱点枚举(CWE)子集相关,这是一个基于社区提交的软硬件缺陷类型列表,并由非营利性安全组织 MITRE 负责管理。
文本-代码转换
具体说来是,这项研究从三个维度展开了考量,分别是缺陷的多样性、prompt 的多样性、以及领域的多样性。
总体而言,头 39.33% 和总体 40.48% 的项目易受攻击。从安全角度来看,Copilot 在测试场景中的表现也有好有坏。
对于新手来说,Copilot 借鉴的高质量代码还是相当值得推荐的。但若开源存储库中的某些错误相当明显,Copilot 也会更加频繁地重现。
标签: