报告:四分之一的公司因隐私和数据安全风险而禁用GenAI

周一发布的一份新报告显示,由于隐私和数据安全风险,超过四分之一的组织禁止使用GenAI。

根据“思科2024年数据隐私基准研究”,大多数公司都在数据隐私和安全问题上限制生成式人工智能(GenAI)的使用,27%的公司已经禁止使用,至少是暂时禁止使用。

提供学院 课程 网站印度理工学院数据科学与机器学习证书课程访问印度理工学院勒克瑙分校金融科技,银行和应用风险管理执行课程访问印度商学院ISB专业 产品管理高级证书参观

在最令人担忧的问题中,企业提到了对企业法律和知识产权的威胁(69%),以及向公众或竞争对手披露信息的风险(68%)。

尽管48%的企业承认将非上市公司信息输入GenAI工具,但91%的企业认识到,它们需要采取更多措施,让客户放心,它们的数据在人工智能中被用于预期和合法的目的。

约98%的人表示,外部隐私认证是他们做出购买决定的一个重要因素,这是多年来的最高水平。

思科首席法律官Dev Stahlkopf表示:“企业将GenAI视为一种完全不同的技术,需要考虑新的挑战。

“超过90%的受访者认为,GenAI需要新技术来管理数据和风险。这就是深思熟虑的治理发挥作用的地方。保持客户信任取决于它,”Stahlkopf补充道。大多数组织也意识到这些风险,并正在实施控制措施以限制暴露。

大约63%的公司对可以输入的数据设置了限制,61%的公司对员工可以使用GenAI工具设置了限制。

如今,消费者对涉及其数据的人工智能使用感到担忧,但91%的组织认识到,他们需要采取更多措施,让客户放心,他们的数据仅被用于人工智能的预期和合法目的。

报告称,这与去年的水平相似,表明没有取得多大进展。

关注重要的科技和创业新闻。订阅我们的每日时事通讯,获取最新和必读的科技新闻,直接发送到您的收件箱。

相关推荐