RAG MultiLLM es un sistema de Recuperación Aumentada de Generación (RAG) que integra múltiples modelos de lenguajen. Esta aplicación permite interactuar con tres de los LLMs más potentes del mercado: Claude 3.5 Sonnet de Anthropic, GPT-4 Turbo de OpenAI y Mistral Large de Mistral AI. El sistema está diseñado para proporcionar respuestas contextualizadas y precisas basadas en documentos PDF proporcionados por el usuario.
- 🔄 Múltiples Modelos: Integración con tres LLMs líderes:
- 🧠 Claude 3.5 Sonnet (Anthropic)
- 🌟 GPT-4 Turbo (OpenAI)
- ⚡ Mistral Large (Mistral AI)
- 📚 Sistema RAG Avanzado: Procesamiento y recuperación inteligente de información desde documentos PDF
- 🎨 Interfaz Moderna: UI/UX intuitiva con Material Design
- 📋 Respuestas Estructuradas: Formato HTML enriquecido con referencias y citas
- ⚡ Procesamiento Asíncrono: Manejo eficiente de solicitudes y respuestas
- 🐍 Python 3.10 o superior
- 📦 pip (gestor de paquetes de Python)
- 🔑 Claves API de:
- Anthropic (Claude)
- OpenAI (GPT-4)
- Mistral AI
- Clonar el repositorio:
git clone https://github.com/yourusername/rag-multillm.git
cd rag-multillm
- Crear y activar entorno virtual:
python3 -m venv venv
source venv/bin/activate # En Windows: venv\Scripts\activate
- Instalar dependencias:
pip install -r requirements.txt
Crear un archivo .env
en la raíz del proyecto:
ANTHROPIC_API_KEY=your_anthropic_api_key
OPENAI_API_KEY=your_openai_api_key
MISTRAL_API_KEY=your_mistral_api_key
FLASK_SECRET_KEY=your_flask_secret_key
flask==3.0.2
python-dotenv==1.0.1
langchain==0.1.9
langchain-community==0.0.24
langchain-anthropic==0.1.1
langchain-openai==0.0.8
langchain-mistralai==0.0.3
anthropic==0.18.1
openai==1.12.0
mistralai>=0.0.11,<0.0.12
faiss-cpu==1.7.4
sentence-transformers==2.5.1
pypdf==4.1.0
- Iniciar la aplicación:
python app.py
- Abrir el navegador y acceder a:
http://localhost:5000
- Seleccionar el modelo de IA deseado
- Realizar preguntas sobre los documentos cargados
rag-multillm/
├── static/
│ ├── css/
│ ├── js/
│ └── images/
├── templates/
├── uploads/
├── .env
├── app.py
├── config.py
├── rag.py
└── requirements.txt
- Excelente comprensión contextual
- Respuestas detalladas y estructuradas
- Soporte multilingüe avanzado
- Alta precisión en respuestas
- Razonamiento complejo
- Versatilidad en tareas diversas
- Alto rendimiento y velocidad
- Excelente en análisis técnico
- Eficiente en recursos
Las contribuciones son bienvenidas. Por favor, sigue estos pasos:
- Fork el repositorio
- Crea una rama para tu feature
- Commit tus cambios
- Push a la rama
- Crea un Pull Request
Este proyecto está bajo la licencia MIT. Ver el archivo LICENSE
para más detalles.
@686f6c61
v0.3 - Integración de múltiples modelos LLM