在最近的一项研究中,Copyleaks 被验证为最准确的 AI 内容检测器。 |
该公司通过旨在识别生成人工智能相关风险、确保组织范围内的网络合规性和保护专有数据的唯一解决方案来扩展其产品组合
纽约州纽约市 – 2023 年 6 月 6 日—Copyleaks, 领先的基于人工智能的文本分析、抄袭识别和人工智能内容检测平台,今天宣布正式推出其 生成式 AI 治理、风险和合规性 (GRC) 解决方案,一整套保护措施可确保生成式 AI 企业合规性、降低组织范围内的风险并保护专有数据。
随着 AI 生成内容的激增以及未经许可意外使用受版权保护的内容或代码的风险——以及即将出台的潜在 AI 监管——首席信息安全官 (CISO) 识别由 AI 创建的内容变得比以往任何时候都更加重要人工智能主动解决整个企业中任何潜在的隐私、准确性和安全漏洞。
作为回应,Copyleaks 利用其屡获殊荣的抄袭和 AI 内容检测功能开发了专为企业组织量身定制的新产品。该解决方案跟踪组织范围内的内容并验证 AI 的存在,以发现任何潜在的风险,实施企业生成 AI 禁令,并主动降低所有潜在风险。
“鉴于 AI 生成内容的快速采用,以及随之而来的所有问题,现在是时候确保组织采取积极措施,在后 ChatGPT 世界中实施生成 AI GRC,”Alon 说Copyleaks CEO兼联合创始人亚敏。 “我们致力于通过揭示 AI 的采用、使用和风险以及创新来支持不断变化的技术环境,从而成为解决方案的一部分。 ”
新的生成式 AI GRC 解决方案支持的主要用例包括:
识别基于代码的版权侵权
人工智能生成的代码很容易导致版权侵权和许可问题,例如在不允许商业用途的许可下使用代码。此外,如果它包含属于通用公共许可证 (GPL) 的代码,它可能会导致整个项目,甚至是专有元素,被宣布为开源。
防止 专有信息使用
识别 AI 创建的内容使组织能够识别潜在的隐私、监管、准确性和安全漏洞。跨组织的团队使用 AI 文本生成器创建内容会带来风险,包括无意的抄袭以及侵犯版权和知识产权。此外,选择禁止访问包括 ChatGPT 在内的生成 AI 平台的组织现在拥有识别任何未经授权的使用和执行准则的工具。
保护和跟踪您组织的专有内容
AI 生成的内容可能会侵犯您组织的专有内容和代码:了解您的内容和数据的使用方式,识别泄漏和侵权者,并了解您的内容分发。
可以找到有关 Copyleaks' GRC 解决方案的更多信息 这里.
###