Локальный RAG (Retrieval-Augmented Generation) и Агенты

 

Запускаем полностью локального помощника по технологии RAG с агентской схемой. Используем: Ollama. llama3.2:3b-instruct-fp16. LangChain и LangGraph Embeddings: модель intfloat/multilingual-e5-large с HuggingFace. Tavily: Поисковая систему для Web поиска, оптимизированная для LLM и RAG. Исходники см. здесь:
Что еще изучить и посмотреть: · AI Agents:    • AutoGen. Multi-agent framework. Созда...   · LlamaIndex:    • Создание агентского RAG с Llamaindex....   · OpenAI API (API ChatGPT):    • Концепты использования OpenAI API (AP...   · RAG (Retrieval-Augmented Generation):    • Использование ChatGPT API в приложени...   · Ollama:    • Ollama: Command line сервер для запус...   · Flowise:    • Создание нейро-помощника без программ...   · LM Studio:    • LM Studio | Запускаем локально Open S...   · TextGen WebUI:    • TextGen WebUI. Как автоматизировать у...   Внимание: 1.Если вы испытываете проблемы с просмотром ранее опубликованного видео в связи с замедлением Youtube, пишите в кометы под нужным постом в Телеграм - и я залью туда это видео. 2.Приглашаю в Телеграм общаться по этой теме:
3.Чат находится здесь: