ИИ не обязан быть громоздким, дорогим и требовательным к инфраструктуре. Если вчерашние лидеры гонки нейросетей мерялись количеством параметров и весом моделей в десятки гигабайт, то сегодня выигрывает тот, кто делает то же самое, но в десять раз компактнее. Так появился новый термин — Low Tech AI. Его предложил Томас Вольф, сооснователь Hugging Face, и он оказался на пересечении трёх трендов, которые кардинально меняют ландшафт индустрии.
Во-первых, размер ИИ-моделей перестал расти, а в некоторых случаях даже уменьшается. Модели нового поколения, такие как Llama и Qwen, демонстрируют сопоставимую с прошлогодними гигантами производительность, при этом занимая в 2–10 раз меньше места. Иными словами, мы получаем тот же уровень интеллекта за меньшие вычислительные деньги. И в буквальном смысле — деньги тоже экономятся: благодаря снижению стоимости вычислений, за ту же сумму пользователь получает всё более мощные ресурсы. Персональный доступ к многопоточному «мышлению» становится обыденностью.
Во-вторых, ИИ стал проще. Не в смысле наивности, а в архитектурном — его вычислительные схемы и рабочие процессы менее сложны, чем традиционные программы для CPU. Сегодняшний ИИ можно описать как систему с «низкой ветвящейся сложностью» — минимальное число логических развилок, линейность процессов, чистота архитектуры. Это не только ускоряет работу, но и делает его легко воспроизводимым на специализированном «железе», которое тоже стало проще.
Рынок охотно подхватил это направление: Etched, Fractile, GROQ, Cerebras — лишь несколько компаний, создающих AI-ускорители, которые не стремятся эмулировать универсальный процессор, а делают одно: быстро считать ИИ. И делают это проще и дешевле, чем когда-либо.
Третий тренд — интеграция в старые программные стеки. Искусственный интеллект, созданный на данных, полученных от людей, идеально ложится в существующий софт, написанный этими же людьми. Отсюда неожиданный эффект: бизнес на инфраструктуре из 2000-х годов может стать «ИИ-ориентированным» практически мгновенно. Без капитальных вложений, без переезда в облако, без DevOps-команды. Просто подключили модель, настроили API — и вот уже старый CRM ведёт себя как штатный аналитик.
Если соединить эти три потока — компактные модели, простое «железо» и бесшовную интеграцию — возникает эффект технологического сдвига. Он может быть сравним с тем, как смартфоны стали главной вычислительной платформой в странах, где массовое распространение ПК так и не произошло. Только в случае с ИИ эффект масштабирования может быть ещё мощнее и быстрее.
Представьте себе чип мощностью 5 Вт, работающий с моделью в несколько миллиардов параметров, обеспечивающей интеллектуальные функции уровня GPT-3 или даже GPT-4. С низкой задержкой, минимальным энергопотреблением — и возможностью использовать инструменты. Это не футурология. Это вполне реалистичный сценарий ближайших лет, если не месяцев.
Low Tech AI — это не о простоте ради экономии, а о масштабировании через доступность. ИИ без облака, без фермы из GPU, без армий инженеров. Просто — и везде. И в этом смысле, возможно, самое умное, что может сделать бизнес сегодня — это отказаться от идеи, что для работы с ИИ нужно быть Google.
Интеллект перестаёт быть дорогим и эксклюзивным. Он начинает работать на слабом железе, но с сильным эффектом.