Copyleaks 推出首款专为企业使用而设计的生成式 AI 治理、风险和合规解决方案

该公司通过唯一一款旨在识别生成式人工智能相关风险、确保整个组织的网络合规性并保护专有数据的解决方案扩展了其产品组合

纽约 – 2023 年 6 月 6 日Copyleaks, 领先的基于人工智能的文本分析、抄袭识别和人工智能内容检测平台,今天宣布正式推出其 生成式 AI 治理、风险与合规 (GRC) 解决方案,一整套保护措施,确保生成式人工智能企业合规性、降低整个组织的风险并保护专有数据。 

随着人工智能生成内容的激增以及未经许可意外使用受版权保护的内容或代码的风险,以及即将出台的人工智能监管,首席信息安全官 (CISO) 识别人工智能创建的内容变得比以往任何时候都更加重要,以主动解决整个企业中任何潜在的隐私、准确性和安全漏洞。 

为了应对这一情况,Copyleaks 利用其屡获殊荣的抄袭和 AI 内容检测功能开发了一款专为企业组织量身定制的新产品。该解决方案可跟踪整个组织的内容并验证 AI 的存在,以发现任何潜在风险,执行企业生成 AI 禁令,并主动缓解所有潜在风险。  

Copyleaks 首席执行官兼联合创始人 Alon Yamin 表示:“鉴于人工智能生成内容的快速采用,以及随之而来的所有问题,现在是时候确保组织采取主动措施,在后 ChatGPT 时代实施生成式人工智能 GRC。我们致力于成为解决方案的一部分,揭示人工智能的采用、使用和风险,并通过创新来支持不断变化的技术格局。”

新型生成式 AI GRC 解决方案支持的关键用例包括:

识别基于代码的版权侵权
AI 生成的代码很容易导致版权侵权和许可问题,例如使用不允许商业使用的许可证下的代码。此外,如果它包含属于通用公共许可证 (GPL) 的代码,则可能会导致整个项目(甚至是专有元素)被宣布为开源。

预防 专有信息的使用
通过识别 AI 创建的内容,组织可以识别潜在的隐私、监管、准确性和安全漏洞。组织中的团队使用 AI 文本生成器创建内容存在风险,包括无意抄袭以及版权和知识产权侵权。此外,选择禁止访问包括 ChatGPT 在内的生成 AI 平台的组织现在拥有识别任何未经授权的使用并执行指导方针的工具。 

保护和跟踪您组织的专有内容 
人工智能生成的内容可能会侵犯您组织的专有内容和代码:了解您的内容和数据的使用方式,识别泄密和侵权者,并了解您的内容分发。 

有关 Copyleaks' GRC 解决方案的更多信息,请参见 这里

###

关于 Copyleaks

致力于创建安全的环境,让人们可以自信地分享想法和学习, Copyleaks 是一家基于人工智能的文本分析公司,全球各地的企业、教育机构和数百万个人使用它来识别几乎所有语言中的潜在抄袭和释义、检测人工智能生成的内容、验证真实性和所有权,并实现无错误写作。

 

如需了解更多信息,请访问我们的 网站 或关注我们 领英.