Поднимаем бесплатный локальный Copilot для программирования!

 

Поддержка локальных LLM, запущенных под Ollama, LM Studio... LLM выбираем сами, ориентируясь на Leaderboard! Совместимо с IDE: VS Code, JetBrains (IntelliJ IDEA, PyCharm …) Ссылки: Плагин Continue:
Документация:
Исходное видео (English 8,5 минут):    • ContinueDev + CodeQwen : STOP PAYING ...   LM Studio:
Leaderboard:
Модель: Qwen/CodeQwen1.5-7B-Chat
Что еще изучить и посмотреть: · LM Studio:    • LM Studio | Запускаем локально Open S...   · Ollama:    • Ollama: Command line сервер для запус...   · RAG (Retrieval-Augmented Generation):    • Использование ChatGPT API в приложени...   · AI Avatar:    • Генератор ИИ-аватаров. AI Avatar Gene...   · AI Agents:    • AutoGen. Multi-agent framework. Созда...   · LlamaIndex:    • Создание агентского RAG с Llamaindex....   · OpenAI API (API ChatGPT):    • Концепты использования OpenAI API (AP...   · Flowise:    • Создание нейро-помощника без программ...   · TextGen WebUI:    • TextGen WebUI. Как автоматизировать у...   · GigaChat :    • GigaChat API. Быстрый старт   Внимание: 1.Если вы испытываете проблемы с просмотром ранее опубликованного видео в связи с замедлением Youtube, пишите в кометы под нужным постом в Телеграм - и я залью туда это видео. 2.Приглашаю в Телеграм общаться по этой теме:
3.Чат находится здесь: