
La interrupción en un data center es el mayor temor de las grandes tecnológicas que están invirtiendo miles de millones de dólares en inteligencia artificial para, entre otras cosas, fortalecer el cuidado de los datos.
Para que una IA generativa pueda operar eficientemente tiene que recurrir no solo a una alta capacidad de procesamiento sino también a una base de datos que sirva como entrenamiento del modelo. Y para todo esto se necesitan data centers.
En ese sentido, más allá del potencial que significa la inversión de OpenAI para el país, pone de relieve un largo debate entre las big tech sobre cómo conseguir un almacenamiento masivo de datos con altos estándares de seguridad y cómo lograr la garantía de un abastecimiento energético adecuado para tal consumo, entre otros desafíos .
Datos sensibles
Según datos de Uptime Institute , el 54% de las interrupciones en centros de datos cuestan más de US$100.000, y el 20% supera el millón de dólares. “En un mundo donde la IA depende de la continuidad, la seguridad va mucho más allá de proteger los datos de un ciberataque sino de asegurar la no interrupción del suministro”, comenta Daniel Fiorda, Director de Operaciones de SkyOnline, empresa de data center que se soporta en GPUs Nvidia para procesos de IA .
“Un corte, por breve que sea, no es un simple inconveniente; es una cascada de consecuencias económicas que se miden en miles de dólares por minuto, además del daño reputacional”, agrega Fiorda. Dentro del sector se conoce muy bien que la inactividad se paga muy cara. Más aún en la alta competencia tecnológica. Las empresas de Fortune Global 500 pierden aproximadamente 1.500 millones de dólares cada año por tiempos de inactividad no planificados, según un estudio de Siemens.
OpenAI invierte en Argentina
El data center que la firma de Sam Altman abrirá en la Patagonia tiene proyectado alcanzar 500 MW (megawatts) de potencia , lo que lo ubicaría entre los más grandes del mundo.
Para dimensionar la escala, esto implicaría un consumo anual de 4,38 TWh (teravatio-hora), mientras que el consumo total de electricidad en Argentina en el año 2024 se situó en aproximadamente en 138,8 TWh, según cifras de CAMMESA, la entidad que administra el mercado eléctrico mayorista en el país. Con éstos números, el consumo del data center equivaldría a cerca del 3% del consumo eléctrico total de Argentina.
El proyecto de OpenAI será desarrollado junto a la empresa argentina Sur Energy . Aunque todavía se desconoce quién será el “cloud developer” (profesional que diseña, desarrolla y mantiene aplicaciones y servicios en la nube) que acompañará la inversión, algunos grandes proveedores energéticos como Central Puerto y Genneia aparecen como alternativas.
Una fuerte demanda de energía
Fiorda estima que el proyecto podría generar presiones en el sistema, pero que el país tiene mucho potencial de generación, incluso en fuentes renovables. También aclara que el problema excede a Argentina y se trata de una disyuntiva global. Según un informe publicado por The Guardian, la IA demandará para fines de este año 23 gigavatios, el doble de lo que consumen países europeos enteros como Países Bajos, Suiza o Austria.
La fiebre por la IA está redefiniendo el futuro energético porque la infraestructura de datos exige mucha demanda . Las cargas de trabajo que requieren, por ejemplo, l as GPUs de Nvidia para el aprendizaje automático , consumen hasta 40 veces más energía que los servidores tradicionales.
El gobierno de Javier Milei lanzó en diciembre pasado un programa para alimentar con energía nuclear la futura demanda de energía por IA. El programa está a cargo de Demian Reidel, presidente de Nucleoeléctrica Argentina, empresa que opera los tres reactores del país: Atucha I, Atucha II y Embalse. El proyecto oficial baraja la incorporación de reactores nucleares modulares (SMR) para garantizar un suministro escalable y estable, además de vender el 44% de las acciones en licitaciones internacionales.
Fuente: La Mañana de Neuquén
199 lecturas | Ver más notas de la sección Noticias Destacadas