Diario del laboratorio: Explorando nuestros talleres de modelos pequeños Link to heading

¡Bienvenido! Esta breve entrada recorre los tres talleres prácticos del repositorio. Cada laboratorio se apoya en la misma caja de herramientas local—Milvus para almacenar vectores, Ollama para modelos pequeños y unas utilidades de Python—de modo que puedas experimentar sin salir de tu portátil. Hagamos un recorrido amistoso.

Taller 1: Embeddings de CSV en Milvus Link to heading

CSV embeddings in Milvus repo

Piensa en este laboratorio como los cimientos. Arrancas Milvus, Attu y Ollama con Docker Compose, preparas una sesión de Python que sigue viva mientras trabajas y, con todo listo, cargas un CSV con cursos, transformas cada descripción en embeddings con Ollama y guardas los datos dentro de una colección de Milvus.

Lo que practicarás Link to heading

  • Crear bases de datos, usuarios y esquemas en Milvus desde Python
  • Construir un índice vectorial IVF_FLAT para que las búsquedas sigan siendo rápidas
  • Lanzar consultas vectoriales y escalares para explorar la nueva colección

Por qué importa Link to heading

Al terminar este primer taller tendrás un modelo mental claro: metadatos estructurados, vectores densos y búsqueda en Milvus conviven. Los siguientes laboratorios reutilizan los mismos hábitos, así que el tiempo invertido aquí se aprovecha al máximo.

Taller 2: Cachear prompts en Milvus Link to heading

Cache prompts to Milvus repo

El segundo laboratorio enseña cómo convertir a Milvus en una caché ligera de prompts. Conectas los embeddings de Ollama y un LLM conversacional, defines una colección de caché y dejas que el flujo reutilice respuestas previas antes de llamar otra vez al modelo.

Lo que practicarás Link to heading

  • Medir la dimensión de los embeddings para que el esquema coincida con la salida del modelo
  • Crear una colección indexada que almacena prompts, respuestas y vectores
  • Construir funciones auxiliares que prueban Milvus primero y llaman a Ollama solo si no hay coincidencias

Por qué importa Link to heading

La caché mantiene los tiempos de respuesta bajos y evita ejecuciones innecesarias del modelo. Los patrones de este laboratorio se trasladan a cualquier escenario con preguntas repetidas, desde chatbots hasta guías interactivas.

Taller 3: RAG con PDF en Milvus Link to heading

PDF RAG in Milvus repo

El último laboratorio junta todos los conceptos para armar un bucle de generación aumentada por recuperación (RAG). Ingestas un PDF, lo partes en fragmentos manejables, generas embeddings con Ollama y guardas los resultados en Milvus. Con los datos indexados, ejecutas búsquedas semánticas, alimentas al modelo con los fragmentos más relevantes y compruebas lo mucho que se nota una respuesta fundamentada.

Lo que practicarás Link to heading

  • Cargar y fragmentar documentos largos con utilidades de LangChain
  • Mantener alineadas las dimensiones de los embeddings entre el esquema y la salida del modelo
  • Orquestar una consulta completa: recuperar fragmentos similares, componer un prompt y generar una respuesta

Por qué importa Link to heading

RAG es el punto dulce para los modelos pequeños. Al combinar embeddings locales con contexto acotado, conservas el control sobre los datos, la latencia y el coste mientras entregas respuestas útiles.

Cierre Link to heading

Los tres talleres siguen el mismo ritmo acogedor: iniciar servicios con Docker, mantener viva una sesión de Python, conectar Ollama con Milvus y validar tu trabajo con funciones claras. Tanto si catalogas cursos, cacheas respuestas o fundamentas a un asistente sobre PDF, ahora cuentas con un plan sencillo para crear flujos de IA prácticos y locales.