近日腾讯发布的大模型安全白皮书《大模型安全与伦理研究报告2024:以负责任AI引领大模型创新》指出,随着社会步入一个越来越被先进人工智能(AI)模型主导的时代,围绕安全性和伦理的关切变得更加显著。2023年,在人工智能技术加速创新之外,反思人工智能风险和安全影响也成了人工智能领域的主基调之一。
一是数据安全、隐私泄露、抗攻击能力提升等问题是现有大模型应用面临的真实挑战,解决这些问题的技术手段还存在一定的局限性,如数据来源验证不足、数据加密技术的性能开销、防御效果与模型性能之间的权衡等。
二是从整体上对AI大模型的安全风险进行建模,系统化地构建安全评估系统是大模型安全领域的未来发展方向。在2023年OpenAI人事风波平息后,对其AI安全团队做出调整。微软、谷歌则通过扩大漏洞奖励计划和红队测试方式激励研究人员发现针对人工智能系统的攻击场景,进而提高AI模型的安全性。
三是增强模型透明度和可解释性。研究模型的可解释性,提高模型的透明度既是未来AI的发展方向,也能帮助提升AI模型的安全性。未来的人工智能模型可能融入更先进的XAI技术。
四是人机价值对齐和伦理嵌入设计的理念将变得越来越重要。AI系统将越来越多地以伦理原则为指导进行设计,从而实现伦理嵌入设计。
五是人工智能监管立法和国际治理合作将得到进一步推进。随着大模型在各行业的广泛应用,政府和监管机构对大模型安全和伦理的关注也在不断加强,欧盟已经就制定全球首个人工智能法案达成了最终的立法共识,英国政府召开全球首个AI安全峰会并建立专门的AI安全研究所推进AI安全相关研究和工作,美国政府出台的关于安全、可信AI的行政命令提出AI安全相关的措施。未来立法和监管措施将给大模型安全和伦理的研究与实践提供更进一步的指导。
在大模型安全和伦理研究中,跨学科合作是一个重要趋势。随着大模型在各个领域的应用,安全和伦理问题的复杂性也在不断提高。因此,未来大模型安全和伦理研究需要吸收多领域的知识和技术,形成跨学科的研究团队,共同解决不断升级的复杂安全和伦理问题,确保负责任的、安全可控的AI发展应用。
来源:中国工信新闻网 人民邮电报