15:00, 10 июля 2024

В суде США разваливается коллективный иск «разработчики против Microsoft, GitHub и OpenAI из-за работы GitHub Copilot»

В конце июня 2024 года судья в США отклонил большую часть обвинительных заявлений по иску разработчиков о том, что GitHub Copilot незаконно копировал их код. В результате этого решения суда у истцов на данный момент осталось всего два обвинения в иске против Microsoft, GitHub и OpenAI за нарушение лицензий Open Source и компенсации в $9 млрд за работу GitHub Copilot.

Читать на сайте

Всего в рамках этого коллективного иска было подано 22 обвинения, но со временем их количество было сокращено, поскольку защита Microsoft, GitHub и OpenAI методично ходатайствовала о снятии каждого из обвинений, а судья Джон Тигар в основном удовлетворил эти требования.

Последние отклонённые обвинения в иске были довольно важными: одно из них касалось нарушения Закона об авторском праве в цифровую эпоху (DMCA), раздел 1202(b), который, по сути, гласит, что вы не должны удалять без разрешения важную информацию об «управлении авторскими правами», например, контекст, кто написал код и условия использования, которые как правило, диктуют лицензии.

В коллективном иске утверждалось, что Copilot убирала эту информацию, предлагая фрагменты кода из проектов людей, что, по их мнению, нарушало бы 1202(b).

Однако судья не согласился на том основании, что код, предложенный Copilot, недостаточно идентичен собственной работе разработчиков, защищённой авторским правом, и, следовательно, раздел 1202 (b) не применим. Действительно, в прошлом году GitHub, как сообщается, обновил GitHub Copilot так, чтобы он генерировал небольшие вариации загруженного обучающего кода так, чтобы его выходные данные не могли быть точной копией лицензионного программного обеспечения.

Теперь истцы по этому делу не смогут предъявить новый иск об авторских правах раздела 1202(b) DMCA против Microsoft, GitHub и OpenAI», поскольку судья Тигар отклонил это обвинение с предубеждением.

В рамках слушания по этому иску адвокаты программистов неоднократно настаивали на том, что Copilot может и будет генерировать код, идентичный тому, который написали сами программисты, что является ключевым моментом их иска, поскольку в заявлении DMCA существует требование идентичности. Однако судья Тигар ранее постановил, что истцы на самом деле не продемонстрировали подобных случаев, что привело к отклонению иска с возможностью внесения в него поправок.

В новой жалобе по иску утверждалось, что незаконное копирование кода было неизбежным, если пользователи выключали защитный переключатель Copilot для защиты от дублирования, а также цитировалось исследование кода, сгенерированного ИИ, в попытке подтвердить свою позицию о том, что Copilot будет заниматься плагиатом исходного кода. Но и в этом случае судья не был убеждён, что система Microsoft действительно ворует работу людей.

В частности, судья процитировал наблюдение исследования о том, что Copilot, как сообщается, «редко выдаёт заученный код в безопасных ситуациях, и большая часть запоминания происходит только тогда, когда модели подсказывают длинные фрагменты кода, которые очень похожи на обучающие данные».

«Соответственно, доверие истцов к исследованию, которое в лучшем случае утверждает, что от Copilot теоретически может быть предложено пользователем сгенерировать совпадение с чужим кодом, неубедительно», — заключил судья.

«Мы твердо верим, что ИИ изменит способы создания программного обеспечения в мире, что приведёт к повышению производительности и, что самое важное, к более счастливым разработчикам», — говорится в заявлении GitHub по этому иску после решения судьи.

«Мы уверены, что Copilot соблюдает применимые законы, и с самого начала мы были привержены ответственному внедрению инноваций вместе с Copilot. Мы продолжим инвестировать и защищать возможности разработчиков будущего на основе искусственного интеллекта», — пояснил представитель Microsoft.


Примечательно, что в конце июня руководитель ИИ-подразделения Microsoft Мустафа Сулейман заявил, что считает весь контент, размещённый в Сети, доступен для использования в целях обучения ИИ, если только владелец контента не заявит иное. «Что касается контента, который уже находится в Сети в открытом доступе, то, согласно общественному договору ещё с 90-х годов, его использование является добросовестным. Любой может его скопировать и воссоздать. Это “бесплатное ПО”, таково моё понимание», — рассказа СМИ Сулейман. Он добавил, что существует отдельная категория контента, владельцы которого, будь то сайт или издательство, прямо запретили его использование. Это, по словам Сулеймана, «серая зона», где вопросы решаются через суд.


В январе 2023 года Microsoft, GitHub и OpenAI попросили суд в США отклонить иск за нарушение лицензий Open Source и компенсации в $9 млрд за GitHub Copilot.

Юристы Microsoft, GitHub и OpenAI пояснили, что изложенные в коллективном иске обвинения в нарушении лицензий для создания инструмента GitHub Copilot и требования по компенсации не имеют силы.

Компании заявили, что в иске отсутствуют доказательства причинения ущерба и нет обоснования претензий с примерами нарушений юридических прав. Microsoft, GitHub и OpenAI считают, что истцы полагаются только на «гипотетические события», а GitHub Copilot лично им никак не навредил.

Юристы компаний рассказали, что в иске не указаны конкретные работы, защищённые авторским правом, которые GitHub Copilot использовал не по назначению, или контракты и лицензии, которые нарушены при создании этого инструмента.

Microsoft считает, что обвинения в нарушении авторских прав «упираются в доктрину добросовестного использования», которая допускает нелицензионное использование произведений, защищённых авторским правом, в некоторых ситуациях. Microsoft и GitHub сослались на решение Верховного суда США от 2021 года о том, что использование Google исходного кода Oracle для создания своей операционной системы Android было таким случаем с добросовестным использованием.

«Copilot ничего не удаляет из общедоступного открытого исходного кода, а только помогает разработчикам писать код, генерируя предложения, основанные на том, что он узнал из всей совокупности знаний, почерпнутых из общедоступного кода», — заявили в Microsoft и GitHub.

Юристы IT-компаний в ответном заявлении суду написали, что истцы — это те, кто подрывает принципы открытого исходного кода, требуя судебного запрета и многомиллиардной компенсации в отношении программного обеспечения, которое они охотно распространяют как открытое ПО.

Судебное заседание по рассмотрению запроса об отклонении иска против GitHub Copilot состоится в мае.


В начале ноября 2022 года программист-юрист Мэтью Баттерик подал иск в окружной суд Калифорнии на Microsoft, GitHub и OpenAI за то, что нейросетевой помощник программиста GitHub Copilot нарушает условия лицензий Open Source проектов и ущемляет права программистов. Разработчик требует $9 млрд компенсации от американских компаний.

В настоящее время GitHub Copilot при генерации кода использует миллиарды строк кода из общедоступных репозиториев GitHub и может преобразовывать естественный язык в фрагменты кода на десятках языков программирования. Copilot выполняет работу автоматически без должного анализа и отработки правил в лицензировании Open Source проектов, включая понимание типов лицензий GPL, Apache и MIT, которые требуют указания имени автора и определения конкретных авторских прав при использовании кода проекта.

Причём Microsoft, GitHub и OpenAI подстраховались при разработке Copilot. Нейросетевой инструмент обучен удалять любое упоминание лицензий Open Source в выдаваемом коде. Это происходит и в том случае, когда он копирует чужой код сниппетами длиннее 150 символов непосредственно из определённого репозитория. Система специально не указывает авторство исходного фрагмента кода.

Некоторые разработчики называют такой способ работы Copilot отмыванием открытого исходного кода. Они считают, что юридические последствия такого подхода должны быть определены и приняты сообществом, прежде чем использовать Copilot в коммерческих целях на постоянной основе. В конце 2022 года, по заявлению GitHub, появятся специальные корпоративные тарифы для компаний по этому инструменту.

Баттерик считает, что Copilot, помимо прямого нарушения лицензий Open Source проектов, каждый раз при выполнении запроса пользователя нарушает следующие законы и политики:

Баттерик прикинул, что каждый раз, когда Copilot выдаёт фактически незаконный результат, то этот нейросетевой инструмент трижды нарушает DMCA, так как распространяет лицензионные материалы без указания авторства, уведомления об авторских правах и условий лицензии.

По мнению разработчика, с начала использования Copilot и за пятнадцать месяцев его работы каждый пользователь этого инструмента как минимум один раз получал ответ от Copilot. Это значит, что Microsoft, GitHub и OpenAI около 3,6 млн раз нарушили законы США. При минимальном установленном законом ущербе в размере $2,5 тыс. за каждое нарушение в данном случае, Copilot уже нанёс ущерб сообществу Open Source на $9 млрд.

По мнению Баттерика, стимул для вклада и сотрудничества разработчиков в Open Source проекты по существу начнёт быстро устранятся, если предлагать другим пользователям фрагменты кода и никогда не сообщать им, кто создал код, который они используют.

Баттерик опасается, что по прошествии достаточного времени Copilot приведёт к упадку сообщества Open Source, и, как следствие, снизится качество кода в обучающих данных самой системы, которая не создаёт код самостоятельно.

Представитель GitHub пояснил СМИ по этому иску, что компания с самого начала стремилась к ответственному внедрению инноваций с Copilot и будет продолжать развивать продукт, чтобы он ещё лучше служил разработчикам по всему миру.


Обсудить