Это простая оболочка чата для удобного общения с моделями Ollama, сделанная как pet-проект при активной помощи ИИ.
Требуется запущенный Ollama на вашем компьютере! Скачать можно на
ollama.com.
Исходный код этого чата можно найти на
github.com/Arsmeen/ollama-chat-shell
Проект изначально делался под
gemma3:12b, но можно использовать любую модель, поддерживаемую Ollama и вашим железом.
История сообщений сохраняется в
chat_history/ChatHistory.json.gz
, и при достижении лимита
history_max_file_kb
создаются дополнительные архивы.
Так как gemma3:12b видит изображения только при инициализации, а не в чате, реализовано так: если к сообщению прикреплено изображение — модель будет инициализирована заново, чтобы "увидеть" его, но она не увидит историю сообщений до этого. Это важно помнить. Для тестов есть опция
image_include_messages
— она принудительно включает указанное число нитей чата в сообщение, но любые значения кроме 0 обычно приводят к галлюцинациям модели. Следующее сообщение после такого уже включает всю историю (до лимита
history_max_chars
) как обычно.
Помните, что при первом запуске, если модель не скачана через ollama, чат будет ждать её загрузки — время зависит от размера модели и скорости интернета.
Бинарные сборки в архиве:
- SoulChat-win32-x64-0.1.7.zip
Немного увеличил размер области ввода текста, изменил порядок и вид кнопок.
- SoulChat-win32-x64-0.1.6.zip
Добавлен вывод "размышлений" у модели gpt-oss, переключатель глубиры "размышлений. Добавлена рамка скрывающая это с возможностью раскрыть.
Так-же это добавлено и для модели deepseek-r1.
Начальное пустое облачко ответа модели теперь с индикатором, чтобы понятно было что идёт какой-то процесс.
Если модель долго не отвечала и в чате появилась ошибка "⚠️ TypeError: fetch failed" - модель слишком "тяжелая" для вашего железа, ищите версию меньше размером или другую.
- SoulChat-win32-x64-0.1.5.zip
Исправлен вывод эмодзи при окончании ответа модели.
- SoulChat-win32-x64-0.1.4.zip