Evolution LangChain Documentation
Evolution LangChain - это современная интеграция Evolution Inference API с экосистемой LangChain, обеспечивающая автоматическое управление токенами доступа и полную совместимость с OpenAI API.
Особенности
✅ Автоматическое управление токенами - Автоматическое получение и обновление access_token с буферизацией и thread-safe операциями
✅ Совместимость с OpenAI API - Полная совместимость с форматом OpenAI API для легкой миграции существующих проектов
✅ Нативная интеграция с LangChain - Работает со всеми компонентами LangChain: цепочками, агентами, векторными хранилищами
✅ Thread-safe - Безопасное использование в многопоточных приложениях с автоматической синхронизацией
✅ Автоматическое восстановление - Автоматическое обновление токенов при истечении срока с обработкой ошибок
✅ Простота использования - Минимальная настройка, максимальная функциональность из коробки
Быстрый старт
Установка
pip install evolution-langchain
Основное использование
from evolution_langchain import EvolutionInference
# Инициализация модели
llm = EvolutionInference(
model="your-model-name",
key_id="your-key-id",
secret="your-secret",
base_url="https://your-api-endpoint.com/v1"
)
# Простой запрос
response = llm.invoke("Привет! Как дела?")
print(response)
Интеграция с LangChain
from evolution_langchain import EvolutionInference
from langchain.chains import LLMChain
from langchain.prompts import PromptTemplate
# Создание шаблона
template = "Ответь на вопрос: {question}"
prompt = PromptTemplate(template=template, input_variables=["question"])
# Создание цепочки
llm = EvolutionInference(
model="your-model",
key_id="your-key-id",
secret="your-secret",
base_url="https://your-api-endpoint.com/v1"
)
chain = LLMChain(llm=llm, prompt=prompt)
# Выполнение
result = chain.run("Что такое машинное обучение?")
Содержание
Руководство пользователя:
API документация: