(SeaPRwire) –   新闻概要

  • 该报告显示,大多数组织限制使用生成性人工智能(GenAI)的原因是数据隐私和安全问题。27%至少暂时禁止其使用。
  • 48%承认将非公开公司信息输入到生成性人工智能工具中。
  • 91%的企业认识到他们需要做更多工作来向客户保证他们的数据仅用于预期和合法的目的。
  • 98%表示外部隐私认证是他们购买决策中很重要的一个因素,这是多年来的最高水平。

旧金山, 2024年1月25日 — 思科(NASDAQ: CSCO)今天发布了其《2024年隐私基准》,这是一项对关键隐私问题及其对企业影响的年度审查。在国际数据隐私日前,研究结果强调了对生成性人工智能的日益增长的隐私关注,面对人工智能使用,组织需要应对的信任挑战,以及隐私投资的吸引回报。该第七版基准调查来自12个地区2600名隐私和安全专业人员的答复,表明隐私不仅是一个合规事项。

思科2024年隐私基准

思科2024年隐私基准
对生成性人工智能的日益增长的隐私关注

“组织认为生成性人工智能是一种根本不同的技术,带来新的挑战需要考虑,”思科首席法律官Dev Stahlkopf说。“90%以上的受访者认为生成性人工智能需要新的技术来管理数据和风险。这就是明智治理发挥作用的地方。保持客户信任取决于此。”

企业提出的主要关注点包括对组织的法律和知识产权的威胁(69%)以及信息披露给公众或竞争对手的风险(68%)。

大多数组织意识到这些风险,并采取措施限制风险敞口:63%建立了限制可以输入的数据,61%限制了员工可以使用的生成性人工智能工具,27%表示其组织至少暂时禁止了生成性人工智能应用。尽管如此,许多人输入了可能有问题的信息,包括员工信息(45%)或公司非公开信息(48%)。

人工智能透明度方面的进展缓慢

消费者今天对涉及自己数据的人工智能使用感到担忧,然而91%的组织认识到他们需要做更多工作来向客户保证他们的数据仅用于预期和合法的目的。这与报告结果相似,表明在这方面没有取得太大进展。

组织和个人建立客户信任的优先事项不同。消费者将获得清晰信息以了解自己数据的确切用途,以及不出售自己数据用于营销为首要事项。而企业将遵守隐私法(25%)和避免数据泄露(23%)视为首要事项。这表明在人工智能应用中,其算法如何作出决定可能难以理解,增加透明度将很有帮助。

外部认证和法律的作用

组织意识到需要向客户保证数据使用情况,98%表示外部隐私认证是他们购买决策中很重要的一个因素,这是多年来看到的最高水平。

“94%的受访者表示如果不能充分保护数据,客户将不会从他们购买,”思科副总裁兼首席隐私官Harvey Jang解释说。“他们寻找组织可以信赖的实质性证据。在人工智能时代,通过投资隐私,组织能够更好地利用人工智能以道德和负责任的方式。”

尽管隐私法可能给组织带来成本和要求,但80%的受访者表示隐私法对他们影响正面,只有6%表示影响负面。强有力的隐私法规提高了消费者对选择共享数据的组织的信心。

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。