Война за Open Source AI: новый стандарт или угроза безопасности?
Open Source Initiative приближается к объявлению определения Open Source для искусственного интеллекта, но вместо поддержки сталкивается с жесткой критикой. Новый стандарт вызывает споры о будущем технологий, прав пользователей и о том, что значит быть «по-настоящему открытым». IT-World разбирается в спорах между экспертами.
В мире технологий разгорается новая война — за Open Source в сфере искусственного интеллекта (ИИ). Open Source Initiative (OSI) совместно с десятками экспертов, юристов, разработчиков и представителей крупных технологических компаний, таких как Meta*, Google и Amazon, разрабатывает новое определение Open Source для искусственного интеллеката. Окончательное объявление о принятии определения ожидается в конце октября на конференции All Things Open. Но уже сейчас новые формулировки вызывают ожесточенные споры.
Старое определение Open Source, применяемое OSI к программному обеспечению, было четким и понятным. В случае ИИ все сложнее: обучающие данные, алгоритмы и веса моделей открывают много пространства для манипуляций. Согласно последнему черновику Open Source AI Definition (версия 0.0.9), представленному на KubeCon и Open Source Summit Asia в Гонконге, обучающие данные полезны, но не обязательны для модификации ИИ. Это сделано с учетом юридических и конфиденциальных проблем. Данные могут быть открытыми, публичными или непубличными, и для каждой категории существуют свои рекомендации.
Критика не заставила себя ждать. «Система, которая может быть построена только на проприетарных данных, по определению является проприетарной», — считают эксперты. Новое определение предоставляет лазейку для проприетарных ИИ-систем, чтобы называться Open Source. Определение в текущем черновике размывает саму суть того, что значит Open Source.
Вторая часть нового стандарта — разделение чек-листа оценки лицензий и основного определения. Это соответствует предложенному Фондом Linux Model Openness Framework (MOF), в котором выделяются три уровня открытости моделей. Первый уровень подразумевает, что все компоненты и данные открыты; второй — большинство, но не все; третий — доступность только описания набора данных.
Некоторые члены сообщества считают такой подход отступлением от принципов Open Source. «Принятие этого определения не в интересах OSI и Open Source в целом», — утверждают они.
Meta* активно продвигает свой путь к открытости через модель LLaMA, предоставляя свободный доступ к коду и весам. Это позволило стартапам, таким как Blinder, использовать эту модель для создания собственных решений, например, для редактирования и защиты юридических документов. Однако критики говорят, что такие шаги Meta* — не что иное, как попытка «раздать бесплатные булочки, чтобы потом продавать сосиски».
Проблема безопасности — еще один камень преткновения в дискуссиях об открытости ИИ. Али Фархади из Института искусственного интеллекта Аллена, разработавший полностью открытую модель OLMo, считает, что открытость позволит тысячам специалистов исправлять ошибки в моделях. В то же время многие эксперты опасаются, что открытость ИИ делает их уязвимыми для злоумышленников, которые могут использовать эти технологии для создания оружия или манипуляций.
Тем не менее, OSI настаивает на своем прагматическом подходе с уровнями открытости. Идеализированные стандарты нереалистичны и приведут к стагнации. Вместо этого OSI планирует создать механизм контроля для выявления моделей, которые называют себя Open Source, но не соответствуют новым критериям. Также будет выпущен список моделей, соответствующих новому стандарту. Среди ожидаемых кандидатов — модели, такие как Pythia от Eleuther и OLMo от Ai2.
Главный вопрос остается открытым: удастся ли сообществу Open Source прийти к компромиссу, или дискуссия рискует затянуться на годы, пока ИИ продолжает развиваться, все меньше обращая внимания на то, что значит быть «по-настоящему открытым»?
* признана экстремистской организацией и запрещена в РФ
Написать комментарий