Исследования Оксфордского университета выявили, что рост ИИ-контента может привести к коллапсу моделей машинного обучения. Обучение моделей на наборах данных, сгенерированных ИИ, может привести к бессмысленным результатам из-за пропуска менее распространенных строк текста в обучающих данных. Этот цикл может привести к рекурсивной деградации. Такими сведениями поделилось издание The Register.

The Register: Искусственному интеллекту предсказали деградацию из-за отсутствия новых данных
Изображение взято с: pixabay.com

С ростом крупномасштабных языковых моделей (LLM) масштабы отравления контента усиливаются. Эмили Венгер из Университета Дьюка иллюстрирует это на примере генератора изображений собак: перепредставление определенных пород в наборах данных ИИ может привести к тому, что последующие модели забудут о менее распространенных породах, вызывая коллапс модели.

Для решения этой проблемы исследователи предлагают использовать водяные знаки для идентификации ИИ-контента. Широкое распространение неразрешенного обучения нейросетей на пользовательских данных, как в случае с Илоном Маском, также вызывает беспокойство.

Источник: www.gazeta.ru
Поделитесь:


Антивоенное этническое движение «Новая Тыва» (New Tuva), Транс, Некоммерческая организация «Фонд защиты прав граждан «Штаб», Региональная общественная правозащитная организация «Союз «Женщины Дона» признаны в РФ иностранными агентами.