
Huawei está a punto de entregar a China el ingrediente que necesita para disputar a EEUU su liderazgo en IA
China tiene un problema muy serio en el ámbito del desarrollo de hardware para aplicaciones de inteligencia artificial (IA). Por el momento los fabricantes chinos de chips de memoria no están produciendo soluciones capaces de competir con las memorias más avanzadas que fabrican las compañías surcoreanas Samsung y SK Hynix, o la estadounidense Micron Technology. Las GPU para IA trabajan codo con codo con los chips de memoria HBM (High Bandwidth Memory). De hecho, su rendimiento está en gran medida condicionado por estas memorias.
SK Hynix, Samsung y Micron están fabricando a gran escala, aunque con diferente éxito, memorias HBM3E de 12 capas. Las dos firmas surcoreanas producirán chips HBM4 a gran escala durante el segundo semestre de 2025, y Micron lo hará en 2026. Sin embargo, CXMT (Changxin Memory Technologies), una de las empresas chinas especializadas en la producción de memorias, lanzará sus primeros chips HBM3E en 2027. En la coyuntura actual de competencia con EEUU, China no puede permitirse ir dos años por detrás de Occidente en la producción de memorias HBM.
Y parece que este desfase está a punto de desaparecer. La semana pasada el medio estatal chino Securities Times desveló que Huawei estaba a punto de presentar un avance tecnológico que perseguía reducir la dependencia de China de los chips de memoria HBM procedentes del extranjero. Y hoy mismo DigiTimes Asia ha recogido una noticia muy importante: esta compañía ya está probando los primeros chips HBM3 fabricados íntegramente en China. Como acabamos de ver, este hito es crucial para este país asiático porque presumiblemente le permite acceder a una tecnología que actualmente no está a su alcance.
Huawei no descansa
Huawei invierte más de 25.000 millones de dólares anuales en el desarrollo de su hardware para IA, por lo que presumiblemente no tardará en igualar las prestaciones de las GPU que producen NVIDIA o AMD. Hasta ahora tenía dos talones de Aquiles: su incapacidad de fabricar sus chips utilizando los equipos de fotolitografía de ultravioleta extremo (UVE) que produce la compañía neerlandesa ASML y su dificultad para acceder a los circuitos integrados de memoria HBM fabricados en el extranjero. Estos últimos van a dejar de ser un problema.
Huawei invierte más de 25.000 millones de dólares anuales en el desarrollo de su hardware para IA
Y es que, como os explicamos la semana pasada, durante la celebración en Shanghái (China) del Foro de Aplicaciones y Desarrollo de Razonamiento de IA Financiera 2025 Huawei dio a conocer un algoritmo denominado UCM (Unified Cache Manager) que, según esta compañía, es capaz de acelerar drásticamente la inferencia en los grandes modelos de IA. Un apunte relevante: la inferencia es a grandes rasgos el proceso computacional que llevan a cabo los modelos de lenguaje con el propósito de generar las respuestas que corresponden a las peticiones que reciben.
Para lograr su propósito el algoritmo UCM despliega una estrategia muy ingeniosa: decide en qué tipo de memoria es necesario almacenar cada dato tomando como indicador fundamental los requisitos de latencia. En la práctica este algoritmo se comporta como una caché gigantesca que garantiza que cada dato irá a parar a la memoria adecuada, incluida la HBM3, con el propósito de minimizar la latencia durante la inferencia. Si se trata de un dato utilizado con mucha frecuencia se almacenará en una memoria muy rápida, como la HBM3. Según Huawei, esta tecnología es capaz de reducir la latencia de la inferencia en un 90%. Curiosamente, esta compañía planea hacer el algoritmo UCM de código abierto en septiembre.
Más información | DigiTimes Asia
En Xataka | EEUU quiere acabar con los chips para IA chinos que se venden en el extranjero. Y China sabe cómo defenderse
–
La noticia
Huawei está a punto de entregar a China el ingrediente que necesita para disputar a EEUU su liderazgo en IA
fue publicada originalmente en
Xataka
por
Juan Carlos López
.