/ Автор: orsecadmin | Оставить комментарий
Как сообщает информационная служба портала Хабр, компания американского миллиардера Питера Тиля Palantir представила платформу искусственного интеллекта Palantir (AIP) для запуска больших языковых моделей (LLM), таких как GPT-4 и её альтернатив в частных сетях. Она продемонстрировала, как военные могут использовать AIP для ведения войны.
На видео оператор использует чат-бота в стиле ChatGPT для вызова разведки дронами, составления нескольких планов атаки и организации подавления коммуникаций противника. Затем он просит чат-бота показать более подробную информацию о скоплении техники противника и угадать, какие это могут быть боевые единицы.
Получив данные от ИИ, оператор просит систему сделать более качественные снимки. Он запускает дрон Reaper MQ-9.
Затем оператор спрашивает систему, какие возможные варианты действий существуют. Предложенные ИИ опции включают атаку танка с помощью F-16, дальнобойной артиллерии или ракет Javelin. При этом система сообщает, достаточно ли у ближайших подразделений войск этого оружия для выполнения миссии.
AIP поддерживает различные LLM с открытым исходным кодом, включая FLAN-T5 XL, доработанную версию GPT-NeoX-20B и Dolly-v2-12b, а также несколько пользовательских подключаемых модулей.
Первая проблема заключается в том, что такие системы могут «галлюцинировать». В частности, GPT-NeoX-20B — это альтернатива с открытым исходным кодом GPT-3, предыдущей версии языковой модели OpenAI, созданной стартапом EleutherAI. Одна из моделей EleutherAI, доработанная другим стартапом Chai, недавно убедила бельгийца в ходе беседы с ней покончить с собой.
Palantir же обещает, что её система будет «безопасной». AIP можно будет развернуть «на тактических устройствах», и она будет анализировать как секретные данные, так и данные в реальном времени «ответственным, законным и этичным способом».
На видео оператор сможет контролировать действия LLM и ИИ в системе. «По мере того, как операторы принимают меры, AIP создает защищённую цифровую запись операций. Эти возможности имеют решающее значение для снижения значительных юридических, нормативных и этических рисков в конфиденциальных и секретных условиях», — поясняет компания.
Также Palantir показала бэкенд системы, который позволит контролировать LLM и доступ к ним.
Однако компания не объяснила, как она будет решать проблемы работы самих LLM и какие последствия они могут иметь.
Напомним, ранее более 1000 экспертов и руководителей отрасли по развитию искусственного интеллекта подписали открытое письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности.
«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски — управляемыми», — говорится в документе, разработанном Институтом будущего жизни (Future of Life Institute).
С заботой о вашей безопасности, команда Origin Security