Runway анонсирует API для своих ИИ-моделей, генерирующих видео
Runway, один из ИИ-стартапов, разрабатывающих технологии генерации видео, объявил о выпуске API, позволяющего разработчикам и организациям встраивать генеративные ИИ-модели компании в сторонние платформы, приложения и сервисы.
В настоящее время API Runway находится в ограниченном доступе (есть waitlist) и предлагает на выбор только одну модель — Gen-3 Alpha Turbo, более быструю, но менее производительную версию флагмана Runway, Gen-3 Alpha и два тарифных плана, Build (ориентированный на индивидуальных пользователей и команды) и Enterprise. Базовая цена составляет один цент за кредит (одна секунда видео стоит пять кредитов). Runway утверждает, что API уже используют «надежные стратегические партнеры», включая маркетинговую группу Omnicom.
API Runway также содержит необычные требования к раскрытию информации. Любые интерфейсы, использующие API, должны «на видном месте» размещать баннер «Powered by Runway» со ссылкой на сайт Runway, пишет компания в своем блоге, чтобы «[помочь] пользователям понять технологию, лежащую в основе [приложений], соблюдая при этом наши условия использования».
Runway, которую поддерживают инвесторы, включая Salesforce, Google и Nvidia, и которая в последний раз была оценена в 1,5 миллиарда долларов, сталкивается с жесткой конкуренцией в области создания видео, в том числе со стороны OpenAI, Google и Adobe. Ожидается, что OpenAI выпустит свою модель генерации видео, Sora, в той или иной форме этой осенью, в то время как стартапы вроде Luma Labs продолжают совершенствовать свои технологии.
Так, например, сегодня компания Luma запустила API для генерации видео, который не имеет списка ожидания и предлагает функции, превосходящие возможности Runway, включая возможность «управлять» виртуальной камерой в сценах, созданных ИИ.
С предварительным запуском Runway API Runway становится одним из первых поставщиков ИИ, предлагающих модель генерации видео через API. Но хотя API может помочь компании на пути к высокой прибыли (или хотя бы окупить высокие затраты на обучение и запуск моделей), он не решит остающиеся юридические вопросы, связанные с данными моделями и технологиями генеративного ИИ в целом.
Модели Runway, генерирующие видео, как и все модели, генерирующие видео, обучались на огромном количестве примеров видео, чтобы «выучить» закономерности в этих видео для создания нового материала. Откуда брались обучающие данные? Runway отказывается говорить, как и многие другие поставщики в наши дни — отчасти из-за страха потерять конкурентное преимущество.
Но детали обучения также являются потенциальным источником судебных исков, связанных с интеллектуальной собственностью, если Runway будет обучаться на данных, защищенных авторским правом, без разрешения. Есть доказательства того, что это действительно так — в июльском отчете 404 Media была опубликована таблица с информацией о тренировках Runway, которая включала ссылки на каналы YouTube, принадлежащие Netflix, Disney, Rockstar Games и таким создателям, как Linus Tech Tips и MKBHD.
Неясно, использовала ли Runway в конечном итоге какие-либо видеоролики из электронной таблицы для обучения своих видеомоделей. В интервью TechCrunch в июне соучредитель Runway Anastasis Germanidis сказала только, что компания использует «кураторские внутренние наборы данных» для обучения моделей.
- «Яндекс Браузер для образования» представил курс для школьников, как защищать свои данные в интернете
- Mail улучшила работу справочного центра и службы поддержки пользователей с помощью ИИ
- В Asobo раскрыли причины сбоя, из-за которого релиз Microsoft Flight Simulator 2024 стал проблемой для пользователей
Написать комментарий