Google открыла Gemini AI для детей

Google выходит на новый уровень — теперь её искусственный интеллект Gemini будет доступен для детей младше 13 лет. Запуск начнётся в США и Канаде уже на следующей неделе, а в Австралии — позже в этом году. Доступ к чат-боту получат только те дети, чьи родители используют сервис Google Family Link, позволяющий контролировать цифровую активность ребёнка.

Сама идея вызывает неоднозначную реакцию: с одной стороны — инновации и обучение, с другой — серьёзные риски, особенно для самых маленьких пользователей.

Как устроен Gemini и что он умеет

Gemini — это чат-бот, который работает на основе генеративного искусственного интеллекта. Он может отвечать на текстовые запросы, объяснять сложные темы и даже рисовать картинки по описанию. Например, ребёнок может попросить бота нарисовать собаку или объяснить, как работает солнечная система.

Его отличие от обычного поисковика, в том, что Gemini не показывает уже существующие материалы, а создаёт новые ответы сам. Он анализирует, как устроены тексты или изображения, и на основе этого генерирует уникальный результат.

ИИ свойственно ошибаться

«Галлюцинации» ИИ – одна из главных проблем. Такие системы нередко «галлюцинируют» — придумывают несуществующие факты, имитируя уверенный стиль ответа. Даже взрослому человеку может бывает сложно это заметить, а для ребёнка такой ответ и вовсе может казаться абсолютно надёжным.

Например, если ребёнок использует чат-бота, чтобы сделать домашнюю работу, он может получить красивый, логичный, но полностью ложный ответ. Без проверки в других источниках такие ошибки могут привести к дезинформации.

Насколько безопасен чат-бот для детей?

Google утверждает, что в Gemini встроены меры безопасности: система фильтрует неподобающий или потенциально вредный контент. Но даже эти меры могут работать слишком грубо — например, блокировать слова, которые важны для образовательного контекста. Слово «грудь» может быть заблокировано как "неприемлемое", хотя оно может встречаться в обучающих материалах по биологии.

Кроме того, дети сегодня очень хорошо разбираются в технологиях. Многие умеют обходить ограничения и легко осваивают даже самые сложные приложения. Поэтому родителям придется не просто доверять встроенной защите, а помогать ему разбираться в полученной информации.

Почему дети могут доверять боту — и это опасно

ИИ-системы вроде Gemini стараются вести себя «по-человечески»: они вежливы, поддерживают диалог, используют фразы вроде «молодец» или «отличный вопрос!». Это создаёт впечатление настоящего общения. Но для маленького ребёнка грань между виртуальным и реальным может стереться.

Исследования показывают, что дети, особенно младшего возраста, склонны воспринимать такие боты как настоящих друзей. А если «друг» говорит неправду или советует что-то небезопасное — последствия могут быть серьёзными.

Gemini от Google — шаг в будущее, который открывает детям новые возможности, но также требует большой осмотрительности. Родителям придётся не просто включать или выключать доступ, а уделять время и объяснять детям, как работает ИИ, а также каким его утверждениям можно доверять, а что — лучше перепроверить.

Почему компании возвращаются к людям в клиентском сервисе?
Сможет ли ЕС построить общеевропейский платежный проект?
Как создать ИИ-ассистента, который работает за вас

На этой неделе Google выпустила обновлённую версию своего флагманского ИИ — Gemini 2.5 Pro Preview (I/O edition). Компания говорит, что новая модель стала заметно умнее и особенно хороша в программировании.

Материал опубликован при поддержке сайта it-world.ru
Комментарии