Исследования Оксфордского университета выявили, что рост ИИ-контента может привести к коллапсу моделей машинного обучения. Обучение моделей на наборах данных, сгенерированных ИИ, может привести к бессмысленным результатам из-за пропуска менее распространенных строк текста в обучающих данных. Этот цикл может привести к рекурсивной деградации. Такими сведениями поделилось издание The Register.

The Register: Искусственному интеллекту предсказали деградацию из-за отсутствия новых данных
Изображение взято с: pixabay.com

С ростом крупномасштабных языковых моделей (LLM) масштабы отравления контента усиливаются. Эмили Венгер из Университета Дьюка иллюстрирует это на примере генератора изображений собак: перепредставление определенных пород в наборах данных ИИ может привести к тому, что последующие модели забудут о менее распространенных породах, вызывая коллапс модели.

Для решения этой проблемы исследователи предлагают использовать водяные знаки для идентификации ИИ-контента. Широкое распространение неразрешенного обучения нейросетей на пользовательских данных, как в случае с Илоном Маском, также вызывает беспокойство.

Источник: www.gazeta.ru
Поделитесь: