Meta* заявила, что модели Llama теперь доступны в проектах, связанных с национальной безопасностью США
Meta*, стремясь бороться с критикой, что её открытый ИИ может быть использован противниками США, объявила, что делает свою линейку ИИ-моделей Llama доступной для американских государственных учреждений, включая оборонные ведомства и подрядчиков в сфере национальной безопасности.
«Мы рады сообщить, что делаем Llama доступной для государственных учреждений США, в том числе для тех, которые работают в сфере обороны и национальной безопасности, а также для партнёров из частного сектора, поддерживающих их работу», — написала Meta* в своём блоге. Компания сотрудничает с такими партнёрами, как Accenture, Amazon Web Services, Lockheed Martin, Microsoft и Palantir, чтобы внедрить Llama в правительственные и оборонные структуры.
Некоторые компании уже начали использовать Llama для узкоспециализированных задач. Например, Oracle применяет её для обработки документации по обслуживанию самолётов, а Scale AI адаптирует модель для задач в области национальной безопасности. Lockheed Martin предлагает Llama своим оборонным клиентам для автоматизации создания программного кода.
Хотя Meta* обычно запрещает использовать Llama для военных и разведывательных проектов, в данном случае компания делает исключение для американских и некоторых зарубежных союзных правительств, включая Великобританию, Канаду, Австралию и Новую Зеландию.
Объявление Meta* прозвучало вскоре после того, как Reuters сообщило, что китайские исследователи, связанные с Народно-освободительной армией Китая (НОАК), применяли более раннюю версию Llama 2 для разработки военного чат-бота. Этот инструмент предназначен для сбора разведывательных данных и поддержки принятия оперативных решений. Meta заявила, что использование её модели было несанкционированным и противоречило политике компании.
Вопрос использования ИИ для оборонных нужд остаётся весьма спорным. В недавнем отчёте некоммерческой организации AI Now Institute говорится, что ИИ для военных нужд несёт риски из-за уязвимостей, таких как предвзятость и склонность к ошибочным интерпретациям. Эксперты рекомендуют создавать оборонные ИИ-системы, полностью изолированные от коммерческих моделей.
*признана в РФ экстремистской организацией и запрещена
Источник
Написать комментарий