Ресурс
Дата теста: 20 октября 2024 г.
Дата публикации: 19 ноября 2024 г.
Протестированная модель: В7.1
Мы считаем, что сейчас как никогда важно обеспечить полную прозрачность в отношении ИИ-детектора. точность, показатели ложных положительных и ложных отрицательных результатов, области для улучшения и многое другое для обеспечения ответственного использования и внедрения. Этот всесторонний анализ направлен на обеспечение полной прозрачности в отношении методологии тестирования модели V7.1 нашего AI Detector.
Команды Copyleaks Data Science и QA независимо друг от друга провели тестирование, чтобы обеспечить беспристрастные и точные результаты. Тестовые данные отличались от данных обучения и не содержали контента, ранее отправленного в AI Detector для обнаружения AI.
Тестовые данные состояли из текста, написанного человеком, полученного из проверенных наборов данных, и текста, сгенерированного ИИ из различных моделей ИИ. Тест был выполнен с помощью API Copyleaks.
Метрики включают общую точность, основанную на частоте правильной и неправильной идентификации текста, оценку F1, частоту истинно отрицательных результатов (TNR), частоту истинно положительных результатов (TPR), точность и матрицы путаницы.
Тестирование подтверждает, что AI Detector демонстрирует высокую точность обнаружения, различая текст, написанный человеком, и текст, сгенерированный искусственным интеллектом, сохраняя при этом низкий уровень ложных срабатываний.
Используя систему из двух отделов, мы разработали наш процесс оценки, чтобы гарантировать высочайшее качество, стандарты и надежность. У нас есть два независимых отдела, оценивающих модель: команды по науке о данных и по контролю качества. Каждый отдел работает независимо со своими данными и инструментами оценки и не имеет доступа к процессу оценки другого отдела. Такое разделение гарантирует, что результаты оценки будут беспристрастными, объективными и точными, при этом охватывая все возможные измерения производительности нашей модели. Кроме того, важно отметить, что данные тестирования отделены от данных обучения, и мы тестируем наши модели только на новых данных, которые они не видели в прошлом.
Команды Copyleaks' QA и Data Science независимо друг от друга собрали множество тестовых наборов данных. Каждый тестовый набор данных состоит из конечного числа текстов. Ожидаемая метка — маркер, указывающий, был ли конкретный текст написан человеком или ИИ — каждого набора данных определяется на основе источника данных. Человеческие тексты были собраны из текстов, опубликованных до появления современных генеративных систем ИИ или позже из других надежных источников, которые были снова проверены командой. Тексты, сгенерированные ИИ, были сгенерированы с использованием различных моделей и методов генеративного ИИ.
Тесты проводились с использованием API Copyleaks. Мы проверили, был ли вывод API правильным для каждого текста на основе целевой метки, а затем агрегировали баллы для расчета матрицы путаницы.
Команда Data Science провела следующий независимый тест:
Метрики, которые используются в этой задаче классификации текста:
1. Матрица ошибок: таблица, в которой показаны TP (истинно положительные результаты), FP (ложно положительные результаты), TN (истинно отрицательные результаты) и FN (ложно отрицательные результаты).
2. Точность: доля истинных результатов (как истинно положительных, так и истинно отрицательных) среди общее количество текстов которые были проверены.
3. TNR: Доля точных отрицательных прогнозов в все негативные прогнозы.
В контексте обнаружения ИИ TNR — это точность модели применительно к текстам, написанным человеком.
4. TPR (также известный как отзыв): доля истинно положительных результатов в все фактические прогнозы.
В контексте обнаружения ИИ TPR — это точность модели в текстах, сгенерированных ИИ.
5. Оценка F-бета: взвешенное гармоническое среднее между точностью и полнотой, в большей степени отдающее предпочтение точности (поскольку мы хотим добиться более низкого уровня ложных срабатываний).
6. ROC-AUC: Оценка компромисс между ТПР и ФПР.
Команда QA провела следующее независимое тестирование:
*Версии моделей могут меняться со временем. Тексты были сгенерированы с использованием одной из доступных версий вышеуказанных генеративных моделей ИИ.
В модели v7.1 мы ввели 3 уровня чувствительности для модели обнаружения ИИ. Вот результаты теста:
Точность истинных положительных результатов (тексты ИИ) и истинных отрицательных результатов (тексты человека) по чувствительности
В процессе оценки мы выявили и проанализировали неверные оценки, сделанные моделью, и создали подробный отчет, который позволит команде по науке о данных исправить основные причины. Это делается без раскрытия неверных оценок команде по науке о данных. Все ошибки систематически регистрируются и классифицируются на основе их характера и природы в «процессе анализа первопричин», который направлен на понимание основных причин и выявление повторяющихся закономерностей. Этот процесс всегда непрерывен, обеспечивая постоянное улучшение и адаптивность нашей модели с течением времени.
Одним из примеров такого теста является наш анализ интернет-данных с 2013 по 2024 год с использованием нашей модели V4. Мы отобрали 1 млн текстов за каждый год, начиная с 2013 года, используя любые ложные срабатывания, обнаруженные с 2013 по 2020 год, до выпуска систем ИИ, чтобы помочь улучшить модель дальше.
Подобно тому, как исследователи по всему миру тестируем и продолжаем тестировать различные платформы детекторов ИИ, чтобы оценить их возможности и ограничения, мы полностью призываем наших пользователей проводить тестирование в реальных условиях. В конечном итоге, по мере выпуска новых моделей, мы продолжим делиться методиками тестирования, точностью и другими важными соображениями, которые следует учитывать.
Все права защищены. Использование данного веб-сайта означает ваше согласие с Условия эксплуатации.