Издатели против ИИ в борьбе за авторское право
Судебные иски против ИИ множатся. Теперь Britannica и Merriam-Webster обвиняют Perplexity в плагиате. На кону не только тексты и определения, но и будущее рынка контента, где доверие и авторство становятся главным дефицитом.
В сентябре 2025 года издательство Encyclopedia Britannica и его дочерняя компания Merriam-Webster подали в федеральный суд Нью-Йорка иск к Perplexity AI. По их словам, сервис вопросов и ответов не просто ищет информацию, а воспроизводит словарные статьи и определения практически дословно.
В материалах дела приведены примеры, где ответы совпадают с формулировками Merriam-Webster без изменений. Для Britannica, как и многих других издателей, это принципиальный вопрос выживания: пользователи получают готовый ответ у ИИ и уже не заходят на сайт, где размещена реклама и платный контент.
Иск стал еще одним делом в глобальной линии противостояния, где на одной стороне стоят издатели и медиакомпании, опирающиеся на авторское право и долгую традицию защиты интеллектуальной собственности, а на другой технологические компании, воспринимающие тексты, фото и видео как бесплатные данные для своих алгоритмов. Напряжение становится все более острым, и каждое новое дело только поднимает ставки.
Суть конфликта
Чтобы обучать языковые и генеративные модели, разработчики собирают колоссальные объемы данных: от художественных книг до научных статей, от архивных фото до телепередач. Значительная часть этих материалов охраняется авторским правом. И именно здесь возникает главный вопрос, могут ли алгоритмы использовать этот контент без разрешения и компенсации?
Технологические компании в США опираются на доктрину fair use, которая допускает ограниченное заимствование при условии, что оно трансформативно и не вредит рынку оригинала. Но для издателей эта логика звучит как оправдание бесплатного использования их труда. Более того, риски становятся очевидными, когда модели начинают не просто учиться на материалах, но и воспроизводить их почти дословно. Характерным примером стало разбирательство Getty Images против Stability AI в Лондоне. Издательство утверждает, что модель Stable Diffusion обучалась на базе изображений Getty без лицензии. В качестве доказательств в суде представлены картинки с частично сохранившимися водяными знаками фотобанка. Для Getty это прямое свидетельство, что контент не только служил источником обучения, но и «просачивается» в готовый продукт, разрушая ценность оригинала.
Старые правила в новой цифровой реальности
Современная система авторского права сформировалась в XIX–XX веках, когда появились международные конвенции и единые правила защиты книг, музыки, фильмов и фотографий. Но начало было раньше. Уже в XVIII веке в Британии приняли Statute of Anne, который можно назвать первым законом, который прямо закрепил права авторов. Никто тогда не мог представить, что в будущем алгоритмы смогут за месяцы обработать миллионы произведений и на их основе выдавать новые тексты и изображения. Сегодня юристы вынуждены применять эти старые правила к технологиям, о которых законодатели прошлого даже не догадывались, и это неизбежно ведет к противоречивым решениям.

Характерен пример процесса Thomson Reuters против Ross Intelligence. Юридический стартап использовал аннотации из базы Westlaw, чтобы обучить свою систему. Эти аннотации создаются редакторами и охраняются авторским правом. Ross утверждал, что это подпадает под fair use. В феврале 2025 года суд решил иначе, и копирование признали нарушением, а доводы о трансформативности отклонили.
Эта история перекликается с более старыми кейсами. Вспомним громкое дело Google Books середины 2000-х. Тогда Google оцифровал миллионы книг и сделал их доступными в поиске. Издатели подали иски, но спустя годы суд признал проект законным, потому что пользователи видели лишь фрагменты, а не полный текст. Разница в том, что нейросети не ограничиваются отрывками и способны выдать готовый текст, близкий к оригиналу. В этом и кроется разрыв между старыми доктринами и новой реальностью.
Подходы разных стран
В США ключевой ориентир по-прежнему fair use, но практика выходит неоднозначная. Летом 2025 года суд по делу Bartz против Anthropic признал допустимым обучение модели на книгах, если они получены легально и не подрывают рынок оригинала. Однако там же подчеркнули, что использование пиратских копий является прямым нарушением. В других делах против Meta (признана экстремистской и запрещена в России) спор вновь сводится к происхождению данных. Получается, что суды вынуждены ставить «сито» на источники, но универсальной формулы пока нет.
В Европе действует исключение для text and data mining: данные можно использовать для анализа и обучения, если автор заранее не запретил. С августа 2025 года в ЕС вступил в силу AI Act, требующий от разработчиков раскрывать источники обучения. Это шаг к прозрачности, но не к снятию конфликтов. В марте 2025 года французские ассоциации авторов и издателей подали иск против Meta (признана экстремистской и запрещена в России), заявив, что их книги массово использовались без уведомлений.
Написать комментарий