资讯中心
资讯中心

人工智能安全的重要

发布时间:2021-06-01 阅读数: 77

制造商在实施人工智能战略之前,必须考虑采用新技术保护隐私,确保符合安全标准。


制造商若要参与下一代数字产品项目,尝试使用人工智能将有助于企业建立新的商业模式、收入流和体验。


但企业要多了解关于人工智能技术创新的头条新闻。就如,AlphaFold解决了50年来蛋白质折叠问题,以及一些可能更有影响力的人工智能技术,这些进步使得人工智能更负责任,更注重隐私。


随着算法在培训和部署中吸收和使用越来越大的数据集,尤其是GDPR、CCPA、HIPAA等新的隐私法规的发布,与人工智能/机器学习相关的数据隐私只会越来越重要。实际上,美国食品药品监督管理局最近发布了一项新的行动计划来规范医疗设备中使用的人工智能。不断扩大的监管框架部分解释了数据隐私是十年来最重要的问题之一。



当企业计划在未来投资人工智能时,以下三种人工智能技术会保证未来的合规性和安全性。


1、联合学习。


联合学习是越来越重要的机器学习和训练技术,可以解决机器学习中最大的数据隐私问题之一,尤其是在敏感用户数据领域(如医疗保健)。过去十年的传统做法是尽可能隔离数据。然而,训练和部署机器学习算法所需的聚合数据造成了严重的隐私和安全问题,尤其是在企业共享数据时。


联合学习可以让企业提供聚合数据集的洞察力,保证非聚合环境中数据的安全。基本前提是本地机器学习模型是在私人数据集中培训的,模型更新是在数据集之间流动,集中聚合。重要的是数据永远不需要离开本地环境。


这样,数据仍然可以在保持安全的同时给组织带来群体智慧。联合学习降低了单次攻击或泄漏的风险,因为数据不存储在单个存储库中,而是分散在多个存储库中。


2、可解释的人工智能(XAI)


很多人工智能/机器学习模型(尤其是神经网络)都是黑盒模型。经过大量的数据训练,这些模型通常不负责任,因为很难确定如何做出决定。为了让他们更有责任感和透明度,他们需要更有解释性。


新兴的研究领域被称为可解释性,它使用复杂的技术来帮助简单的系统,如决策树,以及神经网络等复杂的系统。解释有助于建立对系统的信任,也有助于研究者理解为什么会犯错误,以及如何迅速纠正错误。


在医疗、银行、金融服务、保险等敏感领域,人工智能决策不能盲目相信。例如,在批准银行贷款时,要明白为什么有人被拒绝,尤其是考虑到种族偏见潜入其他人工智能系统的例子。随着人工智能越来越复杂,这些黑盒模型越来越清晰越来越重要以解释的人工智能应该成为未来开发人工智能系统的组织关注的主要领域。


3、AIOps/MLOps


大约20年前,DevOps完全改变了应用程序的开发、部署和管理模式。它使管道标准化,从而显著提高效率,缩短交付时间。


现在AIOps/MLOps在人工智能方面也是如此。Cognilityca预测,到2025年,全球MLOps市场将扩大到40亿美元。


这种想法是通过标准化操作、性能测量和自动修复来加快整个机器学习模型的生命周期。AIOps可应用于以下三个层次:


(1)基础设施层。


这是容器化发挥作用的地方。自动化工具可以扩大组织的基础设施和团队,满足容量需求。DevOps的新兴子集叫GitOps,是将DevOps原理应用于容器运行的基于云计算的微服务。


(2)应用性能管理(APM)


据IDC公司调查,全球应用程序停机每年造成的损失在1.25美元至25亿美元之间。APM(APM)通过简化应用程序管理,限制停机时间,最大限度地,帮助组织实现应用性能管理。AIOps解决方案与AIOps方法相结合,利用人工智能和机器学习主动识别问题,而非被动方法。


(3)信息技术服务管理(ITSM)


信息技术服务规模巨大,实际上可以代表信息技术组织为最终用户提供的任何硬件、软件或计算资源,无论最终用户是内部员工、客户还是商业合作伙伴。ITSM使用AIOps实现票务流程、管理和分析事件、授权和监控文件的自动化。


尽管AIOps/MLOps是大多数组织为了提高效率而实施的,但是很多组织发现,比如APM应用程序性能管理平台可以利用其丰富的数据资源作为预警系统,从而增加额外的安全性。由于人工智能/机器学习生命周期得到了更严格的优化和结构化,因此安全和隐私风险更容易识别和降低。


负责实验。


近几年来,人们,人们已经看到了许多强大的人工智能用例,但未来将确保这些用例背后的人工智能系统有责任使用数据。随着越来越多的隐私法规的发布和组织看到的法规实际上增加了透明度和对客户的信任,是时候尝试负责任的人工智能了。联合学习、可解释的人工智能和AIOps/MLOps将是三个好起点。


联系电话
联系电话
在线客服
在线客服
返回顶部