Компания OpenAI выразила опасения по поводу того, что следующие версии их моделей искусственного интеллекта могут повысить вероятность разработки биологического оружия. В своем сообщении издание Fortune сообщает, что в OpenAI ожидают, что будущие модели достигнут уровня высокого риска в рамках внутренней оценки готовности, направленной на определение и снижение угроз от новых мощных систем ИИ.

OpenAI предупреждает о рисках новых ИИ в создании биологического оружия
Изображение взято с: pxhere

По словам Йоханнеса Хайдеке, руководителя отдела систем безопасности компании, уже грядущие модели, являющиеся преемниками текущей «рассуждающей» системы (o3), могут оказаться на этом уровне. В связи с этим OpenAI сообщила о планах усилить тестирование безопасности, чтобы уменьшить вероятность того, что их модели будут способствовать созданию биологического оружия.

Компания выражает озабоченность тем, что без необходимых мер новые модели могут позволить людям с ограниченными знаниями в науке получить доступ к информации, необходимой для воспроизводства уже известных угроз. При этом в OpenAI уточнили, что речь идет не о создании абсолютно новых биологических угроз, а о возможности воспроизводства существующих.

Сложность в ограничении использования ИИ заключается в том, что те же технологии, способные привести к важным медицинским открытиям, могут быть использованы и в вредных целях. Таким образом, подчеркивается необходимость создания практически идеальных систем для тестирования безопасности. К тому же, в Госдуме ранее предложили отменить домашние задания в школах в связи с развитием нейросетей.

Источник: www.gazeta.ru
Поделитесь: