Запускаем полностью локального помощника по технологии RAG с агентской схемой. Используем: Ollama. llama3.2:3b-instruct-fp16. LangChain и LangGraph Embeddings: модель intfloat/multilingual-e5-large с HuggingFace. Tavily: Поисковая систему для Web поиска, оптимизированная для LLM и RAG. Исходники см. здесь:
Что еще изучить и посмотреть: · AI Agents: • AutoGen. Multi-agent framework. Созда... · LlamaIndex: • Создание агентского RAG с Llamaindex.... · OpenAI API (API ChatGPT): • Концепты использования OpenAI API (AP... · RAG (Retrieval-Augmented Generation): • Использование ChatGPT API в приложени... · Ollama: • Ollama: Command line сервер для запус... · Flowise: • Создание нейро-помощника без программ... · LM Studio: • LM Studio | Запускаем локально Open S... · TextGen WebUI: • TextGen WebUI. Как автоматизировать у... Внимание: 1.Если вы испытываете проблемы с просмотром ранее опубликованного видео в связи с замедлением Youtube, пишите в кометы под нужным постом в Телеграм - и я залью туда это видео. 2.Приглашаю в Телеграм общаться по этой теме:
3.Чат находится здесь: