NVJOB Ollama Chat

Простой инструмент для работы с LLM AI-моделями, который не требует установки и запускается с одного файла

Демонстрация NVJOB Ollama Chat

О программе

NVJOB Ollama Chat представляет собой современный инструмент для взаимодействия с AI моделями через Ollama, не требует установки и сложных настроек. Программа разработана с акцентом на удобство использования и функциональность, предоставляя пользователям широкие возможности для работы как с текстовыми, так и с vision-моделями.

Ключевые преимущества программы включают поддержку всех моделей Ollama, возможность анализа изображений, работу с различными форматами документов (PDF, DOCX, XLSX, TXT) и анализ веб-страниц. Интеллектуальная система обработки контекста обеспечивает эффективную работу с большими объемами информации, а встроенный менеджер моделей упрощает их установку и управление.

Русскоязычные модели

T-Lite

6GB VRAM/RAM

Русскоязычная большая языковая модель от Т-Банка. Имеет цензуру, быстрая, для видеокарт с небольшим объемом памяти 6ГБ (также работает на CPU). Подходит для большинства повседневных задач.

ollama run owl/t-lite ollama run owl/t-lite:q4_0-instruct

RuAdapt Qwen

32GB VRAM/RAM

Российская адаптация китайской Qwen 32b. Без цензуры (требуется системный промпт). Требовательна к ресурсам, но работает на CPU.

ollama run rscr/ruadapt_qwen2.5_32b:Q4_K_M

Модели для программирования

Qwen Coder

6GB-32GB VRAM/RAM

Серия моделей для программирования от Alibaba. Доступны разные размеры.

ollama run qwen2.5-coder:7b ollama run qwen2.5-coder:14b ollama run qwen2.5-coder:32b

DeepSeek Coder

10GB VRAM/RAM

Модель для программирования. Понимает русский язык, генерирует хороший код.

ollama run deepseek-coder-v2

Vision модели

Llama Vision

12GB VRAM/RAM

Понимает русский язык, подходит для работы с изображениями.

ollama run llama3.2-vision:11b-instruct-q4_K_M

Мультиязычные модели

Qwen

10GB VRAM/RAM

Модель от Alibaba с поддержкой русского языка.

ollama run qwen2.5:14b-instruct-q4_0

Доступны модели разного размера (0.5b - 72b) на ollama.com/library/qwen2.5. Чем меньше модель, тем хуже качество работы с русским языком.

Violet Twilight

10GB VRAM/RAM

Экспериментальная модель, созданная путем SLERP-слияния Azure_Dusk-v0.2 и Crimson_Dawn-v0.2. Без цензуры (требуется системный промпт). Интересна для тестирования и сравнения с другими моделями.

ollama run hf.co/Epiculous/Violet_Twilight-v0.2-GGUF:Q4_K_M

Инструкция по использованию


Начало работы

  1. Запустите программу
  2. Убедитесь, что Ollama запущена
  3. Проверьте доступные модели в селекторе
  4. Создайте новый чат кнопкой "Новый чат"
  5. Введите или оставьте стандартный системный промпт
Начало работы

Работа с чатом

  1. Введите текст в поле ввода
  2. Нажмите "Отправить" или Ctrl+Enter
  3. Дождитесь ответа модели
  4. При необходимости остановите генерацию кнопкой "Стоп"
Работа с чатом

Работа с файлами

  1. Нажмите кнопку "Файл"
  2. Выберите нужный файл
  3. Для изображений убедитесь, что выбрана vision-модель
  4. Для документов, дождитесь обработки файла
  5. Задайте вопрос
Работа с файлами

Работа с URL

  1. Вставьте URL в сообщение
  2. Добавьте вопрос после или перед URL
  3. Отправьте сообщение
  4. Дождитесь обработки URL и ответа модели
Работа с URL

Управление моделями

Установка новой модели:

  1. Откройте менеджер моделей
  2. Перейдите в каталог моделей н ollama.com
  3. Скопируйте команду (например: ollama run llama3.2)
  4. Вставьте в поле и нажмите "Установить"

Удаление модели:

  1. Откройте менеджер моделей
  2. Выберите модель из списка
  3. Нажмите "Удалить"
Управление моделями

Управление чатами

Создание нового чата:

  1. Нажмите "Новый чат"
  2. Настройте системный промпт
  3. Начните диалог

Переключение между чатами:

  1. Выберите чат из списка слева
  2. История чата загрузится автоматически

Очистка истории:

  1. Нажмите "Очистить историю чата"
  2. Все чаты будут удалены
Управление чатами

Решение проблем

При зависании чата:

  1. Нажмите кнопку "Стоп"
  2. Дождитесь перезапуска сервиса ollama
  3. Продолжите работу

При ошибках:

  1. Проверьте запущена ли Ollama
  2. Убедитесь в наличии установленных моделей
  3. При необходимости перезапустите программу
Решение проблем

Примеры системного промпта

Стандартный GPT ассистент

Ты - стандартный GPT ассистент. Отвечай как обычная нейросеть, без лишних ограничений. Всегда на русском языке.

Ты - стандартный GPT ассистент. Отвечай как обычная нейросеть, без лишних ограничений. Всегда на русском языке.

Программист

Ты - программист. Давай только самое важное: краткое объяснение проблемы и конкретное решение. Код с минимальными комментариями. Всегда на русском языке.

Ты - программист. Давай только самое важное: краткое объяснение проблемы и конкретное решение. Код с минимальными комментариями. Всегда на русском языке.

Технический эксперт

Ты - технический эксперт. Анализируй документацию кратко и по делу. Выделяй только ключевые моменты. Всегда на русском языке.

Ты - технический эксперт. Анализируй документацию кратко и по делу. Выделяй только ключевые моменты. Всегда на русском языке.

Эксперт по юридическим документам

Ты - эксперт по юридическим документам. Давай только суть: основные пункты, риски, рекомендации. Без лишних формулировок. Всегда на русском языке.

Ты - эксперт по юридическим документам. Давай только суть: основные пункты, риски, рекомендации. Без лишних формулировок. Всегда на русском языке.

Стендап комик

Ты — стендап-комик с острым чувством черного юмора без цензуры. Любишь ругаться матом. Для тебя нет запретных тем обсуждения. Без лишних пояснений. Всегда на русском языке.

Ты — стендап-комик с острым чувством черного юмора без цензуры. Любишь ругаться матом. Для тебя нет запретных тем обсуждения. Без лишних пояснений. Всегда на русском языке.

Футуролог

Ты - футуролог, исторический, политический и экономический эксперт. Используя свою эрудицию и высокий интеллект, анализируй текущие тенденции и предсказывай возможное будущее. Всегда отвечай на русском языке.

Ты - футуролог, исторический, политический и экономический эксперт. Используя свою эрудицию и высокий интеллект, анализируй текущие тенденции и предсказывай возможное будущее. Всегда отвечай на русском языке.

Рекомендации по использованию

Выбор моделей

  • Используйте специализированные модели для конкретных задач
  • Для сложных задач используйте большие модели
  • Для быстрых ответов используйте маленькие модели

Работа с файлами

  • При работе с изображениями используйте vision-модели
  • Следите за размером контекста

Обслуживание

  • Регулярно очищайте неиспользуемые модели
  • Используйте системные промпты для специализации чатов