Algunas aplicaciones usan el mismo ordenador del usuario para ejecutar la IA, y otras lo hacen en la nube. Las segundas no requieren de especial capacidad de computación y basta con una conexión a Internet para realizar la solicitud. Es, por ejemplo, el caso de ChatGPT.
Las primeras, en cambio, requieren de unas necesidades diferentes a las del resto de aplicaciones informáticas tradicionales. De momento, la IA que se ejecuta en local suele consistir en una versión más pequeña o especializada del modelo. Sin embargo, es igual de importante evaluar los componentes necesarios para su ejecución antes de comprar o configurar un ordenador nuevo.
De entrada, no es lo mismo comprar un equipo para ejecutar una IA ya entrenada que entrenar tu propio modelo. En el segundo caso, “conviene tener unas GPU y CPU potentes”, explica el informático Jordi Alonso. La CPU es la unidad central de procesamiento, encargada de realizar las operaciones lógicas y cálculos necesarios para ejecutar programas informáticos. En el caso del entrenamiento de la IA, es la encargada de coordinar el flujo de trabajo y las tareas de procesamiento.
La unidad de procesamiento gráfico (GPU) es un componente clave para entrenar los modelos de IA con muchos datos. “Si el modelo es grande, es muy importante tener GPUs con mucha memoria: es más relevante eso que la velocidad y el número de cores”, explica Alonso. Estos chips realizan los cálculos masivos necesarios para entrenar y ejecutar la IA.
En cambio, si la idea es usar el ordenador para tareas de inferencia, es decir, para usar un modelo ya entrenado, puede funcionar con unos procesadores más modestos y una GPU menos potente, aunque continúa siendo un componente imprescindible para su ejecución.
Para el almacenamiento, es mejor contar con un disco SSD (de estado sólido), que usa memoria flash y permite alcanzar unas velocidades de transferencia altas, para que la IA se ejecute más fluidamente. Estos modelos son mucho más efectivos que los discos duros tradicionales (HDD), más lentos a la hora de leer y escribir datos.
En cuanto a la memoria RAM, “cuanta más, mejor”, explica el informático. Esta memoria almacena los resultados intermedios durante el procesamiento y algunos parámetros del modelo se cargan allí para acceder a ellos más rápidamente durante el proceso.
De nuevo, los modelos de IA más grandes requieren de una memoria RAM mayor para poder ejecutarse en local, por lo que dependerá del uso que le vayamos a dar en el día a día.
Al final, el presupuesto es el condicionante más importante a la hora de configurar el ordenador. Para ejecutar la IA ya entrenada, Alonso se decantaría por “CPUs AMD EPYC de 128 cores y GPUs NVIDIA A6000 Ada Generation, que tienen 48GB de memoria”. Si el presupuesto es ajustado, se puede considerar una GeForce RTX 3080 con 12GB o una 3090 con 24GB.
Dirigida al sector empresarial, existe también la gama profesional DGX de NVIDIA, no apta para todos los bolsillos. Este hardware optimizado para la IA puede llegar a costar cientos de miles de dólares.
Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail.
Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.