Поддержка локальных LLM, запущенных под Ollama, LM Studio... LLM выбираем сами, ориентируясь на Leaderboard! Совместимо с IDE: VS Code, JetBrains (IntelliJ IDEA, PyCharm …) Ссылки: Плагин Continue:
Документация:
Исходное видео (English 8,5 минут): • ContinueDev + CodeQwen : STOP PAYING ... LM Studio:
Leaderboard:
Модель: Qwen/CodeQwen1.5-7B-Chat
Что еще изучить и посмотреть: · LM Studio: • LM Studio | Запускаем локально Open S... · Ollama: • Ollama: Command line сервер для запус... · RAG (Retrieval-Augmented Generation): • Использование ChatGPT API в приложени... · AI Avatar: • Генератор ИИ-аватаров. AI Avatar Gene... · AI Agents: • AutoGen. Multi-agent framework. Созда... · LlamaIndex: • Создание агентского RAG с Llamaindex.... · OpenAI API (API ChatGPT): • Концепты использования OpenAI API (AP... · Flowise: • Создание нейро-помощника без программ... · TextGen WebUI: • TextGen WebUI. Как автоматизировать у... · GigaChat : • GigaChat API. Быстрый старт Внимание: 1.Если вы испытываете проблемы с просмотром ранее опубликованного видео в связи с замедлением Youtube, пишите в кометы под нужным постом в Телеграм - и я залью туда это видео. 2.Приглашаю в Телеграм общаться по этой теме:
3.Чат находится здесь: