Dotfiles-Manager

Memoria de Proyecto

← AnteriorSiguiente →

5.3. Servicios Externos e Integración

El sistema se apoya en servicios en la nube (o locales) para externalizar la carga computacional cognitiva.

Modelos de Lenguaje Grandes (LLMs)

Integración con servicios de Inteligencia Artificial consumidos exclusivamente desde el servidor Java. El proyecto utilizará la API de Google Gemini como motor de inferencia principal para procesar heurísticamente la estructura de los archivos desconocidos. No obstante, el sistema se diseñará de forma modular, dejando la puerta abierta para integrar otros modelos de la industria o, de manera ideal para entornos de alta privacidad, modelos de ejecución local como Ollama.