Las redes descentralizadas de GPU se perfilan como capa complementaria para la inferencia de IA
El entrenamiento de modelos de vanguardia sigue concentrado en centros de datos de hiperescalado, mientras que las redes descentralizadas de GPU apuntan cada vez más a la inferencia y a tareas rutinarias como opción de menor coste. Según ejecutivos de Theta Network, Ovia Systems, Fluence y Salad Technologies, las GPU de consumo y de gaming pueden manejar modelos de código abierto, procesamiento de datos y tareas distribuidas que no requieren una sincronización estricta. Estas redes se plantean como una capa complementaria en la pila de cómputo de IA, no como un sustituto de los clústeres centralizados de entrenamiento.