企业不仅是人工智能技术的研发者和应用者,更是治理环节中的重要参与者和实践者
来源:通信产业报 作者:赛迪智库网络安全研究所 发布时间:2024-10-07企业不仅是人工智能技术的研发者和应用者,更是治理环节中的重要参与者和实践者,是推动人工智能技术健康发展的重要力量。一方面,遵循人工智能伦理原则,如可信、公平、非歧视等,确保技术的公正性和透明度,明确人工智能技术的研发、应用和管理等方面的要求和规范,推动企业内部治理体系逐步完善。另一方面,参与行业自律与标准制定,推动形成行业共识,共同应对人工智能带来的挑战和问题。
科技企业通过签署承诺书、实施最佳实践、设定风险阈值等方式,大力推动了全球人工智能技术的安全和可靠。
签署自愿性承诺提升人工智能系统安全可信度。2023年7月和9月,美国拜登政府分别召集了包括Amazon、Anthropic、Google、Inflection、Meta、Microsoft、OpenAI、Adobe及IBM等在内的15家领先的人工智能技术公司,共同作出自愿性承诺,旨在提升人工智能系统和产品的安全性与可信度。2024年2月,在第二届全球人工智能(AI)伦理论坛上,全球移动通信系统协会(GSMA)、INNIT、联想、LGAI研发(LGAIResearch)、微软、摩托罗拉、赛富时和西班牙电信八家全球性科技机构和公司与联合国教科文组织签署协议,将结合教科文组织《人工智能伦理问题建议书》中有关人工智能伦理的价值观和原则,设计和使用人工智能系统。
设定风险阈值管控人工智能安全风险。2024年5月,在韩英两国举办的人工智能首尔峰会上,包括OpenAI、谷歌、Microsoft、智谱AI等涵盖中美欧等国家或地区的16家科技公司,共同签署《前沿人工智能安全承诺》,这些公司自愿承诺实施与前沿人工智能安全相关的一系列最佳实践,包括内外部红队测试、信息共享、网络安全投资、第三方漏洞报告机制等,并公开透明地报告其安全框架和风险管理方法。此外,签署方还承诺设定并评估“不可容忍”的风险阈值,在风险过大时暂停开发或部署人工智能模型和系统,以确保技术的安全和可信。