DeepSeek: убийца ChatGPT или угроза безопасности?

Эксперты в области искусственного интеллекта (ИИ) призывают к осторожности при использовании сервиса DeepSeek из-за возможных рисков, связанных со сбором данных для обучения нейросетей и их потенциальной передачей третьим лицам.

Китайский стартап DeepSeek представил одноимённый чат-бот, разработка которого обошлась как минимум в несколько раз дешевле американских аналогов и требует меньше вычислительных ресурсов.

Запуск сервиса вызвал широкий резонанс: DeepSeek стремительно занял лидирующие позиции по числу загрузок в магазинах приложений, а капитализация технологических компаний в США сократилась более чем на 1 трлн долларов.

Президент США Дональд Трамп назвал появление DeepSeek тревожным сигналом для американской индустрии ИИ и призвал активизировать национальные разработки. Как заявила пресс-секретарь Белого дома Каролин Ливитт, влияние DeepSeek станет одной из ключевых тем первого заседания Совета национальной безопасности.

В то же время генеративные ИИ-модели нуждаются в больших объёмах данных для обучения, и многие компании собирают информацию о пользователях без их явного согласия. Ранее в подобных практиках уже обвиняли Microsoft.

Согласно политике конфиденциальности DeepSeek, сервис хранит на своих серверах IP-адреса, User-Agent, данные об устройствах, куки, отчёты о сбоях, журналы производительности, шаблоны нажатий клавиш, язык системы и другую техническую информацию. Причём даже после удаления учётной записи часть данных может оставаться в системе.

Из-за потенциальных угроз безопасности и этических вопросов, связанных с происхождением и использованием модели, военно-морской флот США запретил использование DeepSeek.

Член консультативного совета по искусственному интеллекту при ООН Венди Холл в комментарии для Guardian отметила, что китайские технологические компании обязаны соблюдать законодательство КНР. В частности, Закон о национальной разведке Китая предписывает гражданам и компаниям содействовать спецслужбам страны.

Она также напомнила, что генеративные ИИ-модели подвержены так называемым «галлюцинациям», а значит, результаты работы DeepSeek могут содержать дезинформацию.

Профессор Оксфордского университета Майкл Вулдридж в интервью Guardian выразил основное опасение по поводу возможной утечки конфиденциальных данных. Он предостерёг пользователей от передачи личной или корпоративной информации любым чат-ботам на основе ИИ, включая ChatGPT.

Обновлено:

Исследователи из Wiz утверждают, что DeepSeek плохо защитила инфраструктуру своих сервисов, и в результате разговоры с чат-ботом DeepSeek, а также другие данные оказались в открытом доступе.

«За несколько минут мы обнаружили общедоступную базу данных ClickHouse, связанную с DeepSeek, полностью открытую и неаутентифицированную, раскрывающую конфиденциальные данные. Она размещалась по адресам oauth2callback.deepseek.com:9000 и dev.deepseek.com:9000, — заявляют исследователи. — База содержала значительный объем историй чатов, данные бэкэнда и конфиденциальную информацию, включая логи, секреты API и оперативные данные».

Хуже того, по словам исследователей, потенциальный злоумышленник мог полностью контролировать БД и повышать привилегии в среде DeepSeek, без какой-либо аутентификации.

С заботой о вашей безопасности, команда Origin Security

 

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *