虽然业界承认需要采取强有力的安全措施,但 PSA Certified 公司的研究表明,投资和最佳实践难以跟上人工智能的快速发展。
对 1260 名全球技术决策者的调查显示,三分之二(68%)的人担心人工智能的发展速度会超过行业保护产品、设备和服务的能力。这种忧虑推动了边缘计算应用的激增,85% 的人认为安全问题将推动更多的人工智能用例转向边缘计算。
边缘计算是在本地设备上处理数据,而不是依赖集中式云系统,它在效率、安全性和隐私方面具有固有优势。然而,这种向边缘的转移要求我们更加关注设备安全。
“人工智能与安全之间存在着重要的相互联系:二者缺一不可,"Arm(PSA 认证联合创始人之一)市场战略高级总监 David Maidment 提醒说。“虽然人工智能是一个巨大的机遇,但它的扩散也同样为坏人提供了机会。”
尽管人们认识到安全是最重要的,但在意识和行动之间存在着严重的脱节。只有一半(50%)的受访者认为他们目前的安全投资是足够的。 此外,独立认证和威胁建模等基本安全实践也被相当一部分受访者所忽视。
“Maidment强调说:"现在比以往任何时候都更需要互联设备生态系统中的企业不要为了追求人工智能功能而忽略最佳安全实践。“整个价值链需要共同承担责任,确保维护消费者对人工智能驱动服务的信任。”
报告强调,从设备部署到管理在边缘运行的人工智能模型,整个人工智能生命周期都需要采用整体安全方法。这种积极主动的方法结合了安全设计原则,被认为对建立消费者信任和降低不断升级的安全风险至关重要。
尽管存在种种顾虑,但业内人士仍持乐观态度。大多数(67%)决策者认为,他们的组织有能力应对人工智能激增带来的潜在安全风险。越来越多的人认识到需要优先进行安全投资--46%的人专注于加强安全,而 39% 的人则优先考虑人工智能的准备工作。
“Maidment说:"那些希望充分释放人工智能潜力的企业必须确保采取正确的措施来降低潜在的安全风险。“随着互联设备生态系统中的利益相关者迅速接受一系列新的人工智能用例,至关重要的是,他们不能不顾安全影响而简单地推进人工智能。”
上一条: 谷歌在Pixel 9智能手机中推进移动人工智能发展
下一条: 尼日尼亚.NG域名注册局发展历史