OpenAI Evals
Framework abierto para evaluar modelos y sistemas basados en LLM.
Base para validar calidad y evitar regresiones.
Fuente github.com
Ver proyectoAquí voy subiendo proyectos interesantes que he probado en mi local o tengo pendientes de investigar, en búsqueda de ideas y soluciones a problemas.
Proyectos
19
Categorías
9
Etiquetas
27
Framework abierto para evaluar modelos y sistemas basados en LLM.
Base para validar calidad y evitar regresiones.
Fuente github.com
Ver proyectoFramework para orquestación de múltiples agentes colaborativos.
Permite diseñar sistemas multiagente estructurados.
Fuente github.com
Ver proyectoFramework de Microsoft para construir sistemas multiagente.
Referencia en coordinación entre agentes.
Fuente github.com
Ver proyectoRuntime para ejecutar modelos LLM de forma local.
Permite construir sistemas sin depender del cloud.
Fuente github.com
Ver proyectoHerramienta para ejecutar y probar modelos LLM en local con interfaz gráfica.
Facilita la experimentación local.
Fuente lmstudio.ai
Ver proyectoObservabilidad de agentes mediante eBPF sin instrumentación.
Nueva forma de observar sistemas AI desde el sistema operativo.
Fuente github.com
Ver proyectoFramework para crear agentes de voz en tiempo real.
Base para asistentes de voz avanzados.
Fuente github.com
Ver proyectoModelo multimodal de voz en tiempo real sin pipeline tradicional.
Rompe el esquema clásico STT → LLM → TTS.
Fuente github.com
Ver proyectoEnfoque avanzado para diseñar cómo se construye el contexto en sistemas LLM.
Clave para pasar de prompts a sistemas robustos.
Fuente github.com
Ver proyecto