По словам Йоханнеса Хайдеке, руководителя отдела систем безопасности компании, уже грядущие модели, являющиеся преемниками текущей «рассуждающей» системы (o3), могут оказаться на этом уровне. В связи с этим OpenAI сообщила о планах усилить тестирование безопасности, чтобы уменьшить вероятность того, что их модели будут способствовать созданию биологического оружия.
Компания выражает озабоченность тем, что без необходимых мер новые модели могут позволить людям с ограниченными знаниями в науке получить доступ к информации, необходимой для воспроизводства уже известных угроз. При этом в OpenAI уточнили, что речь идет не о создании абсолютно новых биологических угроз, а о возможности воспроизводства существующих.
Сложность в ограничении использования ИИ заключается в том, что те же технологии, способные привести к важным медицинским открытиям, могут быть использованы и в вредных целях. Таким образом, подчеркивается необходимость создания практически идеальных систем для тестирования безопасности. К тому же, в Госдуме ранее предложили отменить домашние задания в школах в связи с развитием нейросетей.
Источник: www.gazeta.ru