Профессор компьютерных наук Оксфордского университета Майкл Вулдридж отмечает, что чат-боты, такие как ChatGPT, способны выполнять конкретные запросы пользователей, и могут использовать личные данные, предоставленные ими, для ответов на запросы других пользователей. Этот аспект вызывает опасения исследователей.
Вулдридж также подчеркивает, что информация, собранная чат-ботами, может сохраниться и передаться следующему поколению чат-ботов, что создает риски в отношении конфиденциальности данных, загруженных в систему случайно.
Директор проекта Ai-Da, Эйдан Меллер, предупреждает об увеличивающейся мощности искусственного интеллекта и утверждает, что общество уже находится на пороге значительных изменений. Он считает 2024 год ключевым для развития ИИ, так как ожидается выпуск новой версии ChatGPT, способной генерировать данные не только в текстовой форме.
Интересно, что в середине декабря ученые из Медицинского центра Бет-Изрейел (BIDMC) сообщили о потенциале чат-ботов в диагностике заболеваний и их интеграции в клинические процессы. Это демонстрирует, что ИИ имеет не только риски, но и перспективы в различных областях.
Источник: lenta.ru