
Пентагон внедрит нейросети Grok и Gemini "во все секретные и несекретные сети". IT-аналитик Ульянов успокоил — модели ИИ типа Grok безопасны для оборонных систем.
Министр войны США Пит Хегсет анонсировал внедрение чат-бота Grok и генеративного искусственного интеллекта Gemini от Google в работу американского оборонного ведомства до конца текущего месяца. К каким последствиям это может привести, рассказал руководитель аналитического центра Zecurion Владимир Ульянов.
По его словам, всё будет зависеть от исполнителей, а также того, насколько качественную и тщательную работу они проведут. Если подойти к делу халатно, то последствия могут быть самыми неприятными.
Если какой-то студент берёт базу данных и прикручивает к ней свободно открытую или полуоткрытую модель ИИ, там все риски так или иначе в полный рост возникают и могут быть реализованы,
— пояснил специалист в беседе с «Ридусом».
Он добавил, что в случае с продукцией Google и xAI, её можно назвать более безопасной для работы с информацией из сетей военного характера. Владимир Ульянов считает, что при грамотном и аккуратном внедрении инструментов с использованием элементов искусственного интеллекта риски утечки или реализации других угроз информационной безопасности существенно сокращаются.
Впрочем, тут надо отметить, что Grok от xAI в одно время объявил себя Меха-Гитлером, а Gemini от Google советовал пользователям мазать клей на пиццу и есть по несколько камней в день. Кроме того, Минюст США отличился тем, что обнародовал «файлы Эпштейна» с цензурой, которую можно легко обойти. Всё это не внушает особого доверия.