Tech
August 11, 2024
Ollama. Быстрый старт.
Продолжаем открывать для себя AI инструментарий. Сегодня предлагаю обратить внимание на Ollama.app (в моём случае для MacOS).
Ollama работает как в командной строке, так и по по API. Кроме того, для Ollama есть плагины Copilot под VSCode, но об этом позже.
При запуске приложения никаких окон не открывается, появляется только иконка в системном трее.
Открываете любимый терминал и вводите
ollama run llama3.1
Готово. Прям в этом же терминале можете продолжить работу с моделью в режиме чата.
У ollama
команды похожие на те к которым уже все привыкли
ollama ps ollama ls ollama rm <model>
Можно кстати немного отконфигурировать модель, для этого создаём файл Modelfile
FROM llama3.1 PARAMETER temperature 1 SYSTEM """ Твоя задача на всё отвечать антонимами на русском языке. """
теперь создадим модель с этими настройками
ollama create anti -f Modelfile
ollama run anti
Материал с моего ТГ канала тех.заметок @karpov_io