С 2022 года генеративный ИИ превратился из технической новинки в повседневный инструмент для миллионов пользователей. Однако большая часть обсуждений по-прежнему сосредоточена на "внутренностях" моделей: архитектурах, тренировках, скоростях, параметрах. А вот то, как человек взаимодействует с ИИ, остается в тени. Хотя именно в этом месте — на границе интерфейса и мышления — скрываются как главные ограничения, так и огромные возможности.
Чизбургер как метафора: декларативное vs. императивное
Представьте: вы заходите в кафе и говорите:
— Мне, пожалуйста, чизбургер, медиум, с помидорами и салатом.
Вы не рассказываете повару, как поджаривать котлету, как нарезать булочку и в какой последовательности собирать ингредиенты. Вы описываете, ЧТО хотите, а не КАК это сделать. Это и есть декларативный подход.
Теперь вспомните, как вы работаете с ChatGPT или другим LLM. Вы пишете:
— Составь юзер-стори для A/B теста кнопки “Купить” на сайте.
Вы не объясняете, как формировать юзер-стори, не уточняете фреймворки. Вы задаёте желаемый результат. Модель додумывает остальное.
Генеративный ИИ как декларативный интерфейс
Компьютерные науки давно используют термин "декларативный", особенно в контексте языков программирования — например, SQL. Вы пишете, какие данные хотите получить, а движок сам решает, как их достать и обработать.
С генеративным ИИ — так же:
- Фокус на результате: вы описываете, что хотите получить (текст, изображение, сценарий, код).
- Скрытая реализация: вы не думаете о внутреннем алгоритме.
- Интерпретация и дополнение: модель заполняет пробелы, добавляет “типичные” детали, даже если вы их не указали.
Но это же — и главный вызов. Если вы плохо сформулировали желание — получите “бургер с сыром и… маринованным ананасом”
Почему без итерации не обойтись
Человек — плохой формулировщик. Мы редко с первого раза точно описываем, чего хотим. Поэтому при работе с LLM-ами итерации неизбежны.
Пример:
- “Сделай мне чизбургер, медиум, с салатом и помидорами.”
- Получили бургер с сыром чеддер, с майонезом и… с маринованными огурцами.
- “Без огурцов. Добавь сыр пепперджек. Майонез — острый, срирача.”
- Получили бургер с нужным сыром и соусом… но булочка не поджарена.
- “Тот же рецепт, но булочки поджаренные, срирача — сверху.”
- И вот он — идеальный бургер.
Вывод: генеративный ИИ требует поэтапного взаимодействия. Модель — не телепат. Она угадывает, но не всегда попадает. Значит, дизайн взаимодействия должен включать итерации и обратную связь.
Что делает результат качественным
Есть два условия, при которых генеративный ИИ работает особенно хорошо:
- Пользователь умеет оценить результат.
- Например, программист может сразу понять — рабочий ли код. Или маркетолог — насколько цепляет текст.
- У пользователя есть контекст.
- Чем больше вы знаете о теме — тем точнее запрос и тем лучше вы поймёте, когда бот "нафантазировал".
Что модель “знает” — а что нет
Чтобы эффективно использовать ИИ, важно понимать, на каких данных он обучался, и какие виды информации ему недоступны:
1. Общедоступная информация
Это данные из Википедии, книг, статей, форумов, кодов и т.п., доступные во время обучения модели.
Всё, что было опубликовано до момента обучения — модель "помнит".
2. Необщая информация
Это внутренняя информация компании, личные данные, специфика задач, которой не было в обучающем наборе.
Модель не знает ваши регламенты, Excel-таблицы и Slack-диалоги.
3. Свежая информация
Новости, курс валют, распродажи — всё, что быстро меняется.
Такие данные нужно "докармливать" в момент запроса.
4. Непубличная информация
Например, расписание совещаний, чаты с клиентами, база знаний.
Подгружается только если у модели есть доступ и правильно настроено подключение.
Подходы к включению нестандартной информации
Чтобы ИИ работал с вашими задачами, нужно “обучить” его контексту:
- Fine-tuning: дообучение на ваших данных (дорого, но эффективно)
- RAG (retrieval-augmented generation): подключение базы знаний, поиск по ней и генерация ответа
- Ввод данных пользователем: напрямую в запросе
Пример: заказ ужина через чат-бота
Запрос: “Помоги забронировать столик в хорошем месте с неаполитанской пиццей.”
Что ИИ знает:
- Что такое пицца — да
- Что "ужин" — это вечер — да
- Где вы находитесь — нет
- Сколько человек — нет
- Учитывать аллергию? — не знает
Чтобы всё сработало, бот должен либо задавать уточняющие вопросы, либо получить данные заранее (например, из профиля пользователя).
Проблемы универсальных агентов
Разработчики OpenAI представили “Operator” — ИИ-помощника, который должен “делать всё”. Но, как показал опыт журналистов, это не так просто:
- Запрос: “Помоги купить продукты на Instacart.”
- Результат: бот открыл магазин… в Айове и добавил молоко в корзину.
Почему? Запрос был декларативным, но неполным. Модель дополнила его средними значениями.
Вывод: чем шире задача — тем больше рисков, если не задать структуру. Нужны ограничения, уточняющие вопросы и понятный интерфейс.
Лучшие практики проектирования ИИ-продуктов
- Ограничивайте ввод — шаблоны, примеры, поля, тэги.
- Делайте диалог итеративным — малые шаги, быстрый фидбэк.
- Понимайте типы информации — и откуда они будут поступать.
- Сужайте кейс — не “умный помощник на все случаи”, а “бот для резюме”, “бот для обучения”, “бот для ресторана”.
- Делайте работу с контекстом прозрачной — если нужно, спрашивайте пользователя.
Исключение из правил: когда просто весело
А иногда всё это не нужно. Когда вы просто играете с ИИ: рисуете котиков в шляпах, просите сказку на ночь или тестируете 5 вариантов описания под LinkedIn — важны не точность, а удовольствие от процесса.
Итерации и ошибки — часть игры. ИИ здесь как музыкальный инструмент, который играет с вами.
Заключение
Генеративный ИИ — это не магия. Это умный исполнитель, который ждёт от нас чёткого желания. Он не требует знать, как всё устроено — но требует точно понимать, что мы хотим. Чем лучше мы формулируем, уточняем и оцениваем результат — тем сильнее становится наша работа с ИИ.
- Не “Сделай красиво”, а “Сделай вот это, так-то, для таких-то”.
И тогда всё получится. Даже чизбургер с булочкой, поджаренной до хруста.
Подключайтесь к «ИИ, нальешь чайку» — наш Telegram-уголок, где нейросети варят идеи, автоматизируют процессы и иногда шутят лучше людей.