THE NONEXPERT a view, not a verdict.

El problema de AMD con la memoria HBM es la verdadera noticia. El gráfico es solo el síntoma.

AMD cerró en $201.3 el 22 de marzo de 2026, situándose un 24.7% por debajo de su máximo de tres meses de $267.1 alcanzado a finales de enero. Y seamos claros: el mercado no está valorando el motivo correcto. Esto no es una cuestión de falta de impulso o *momentum*. Es una cuestión de memoria.

La señal principal aquí es la extrema rigidez en la asignación de memoria de alto ancho de banda (HBM). La HBM es ese ingrediente escaso y técnicamente complejo que hace que los aceleradores de IA funcionen a escala. Sin ella, ni la serie H100/H200 de NVIDIA ni la línea MI300X/MI350 de AMD pueden entrenar o ejecutar modelos de frontera de manera eficiente. El problema —y es un punto que los análisis específicos sobre AMD suelen ignorar— es que las líneas de producción de HBM de SK Hynix y Samsung ya estaban comprometidas mucho antes de que llegara el pico de demanda de la serie MI de AMD. NVIDIA llegó primero, amarró los acuerdos de suministro y ahora ocupa el primer puesto estructural en la cola. No es una desventaja temporal; es un foso competitivo con un candado físico.

Reuters confirmó el 19 de marzo que Jensen Huang sacaba pecho públicamente sobre el dominio de NVIDIA en una conferencia de IA, y no era mero postureo. SpaceX y Tesla, de Elon Musk, confirmaron que seguirán encargando chips de NVIDIA “a escala”, una señal directa de que los canales de adquisición de IA más visibles y veloces están bloqueados para NVIDIA, no para AMD. Esto importa más de lo que parece. Cuando Musk decide dónde concentrar el gasto en silicio para IA, el resto de los *hyperscalers* y laboratorios de vanguardia toman nota. Además, según se informa, planea una fábrica de chips en Austin dedicada a la IA, lo que concentra aún más el capital y las compras de hardware alrededor de la plataforma de NVIDIA.

Mientras tanto, Reuters confirmó que Samsung planea una inversión de más de $73 mil millones en 2026 específicamente para “liderar el sector de chips de IA”; un lenguaje que suena a apoyo para AMD, pero que en realidad subraya la restricción. Samsung está ampliando su capacidad de HBM, sí. Pero ampliar la capacidad cuando ya vas tarde para cumplir con los compromisos existentes con NVIDIA no ayuda a AMD a salir de la lista de espera. Ayuda a Samsung a dar servicio a su cliente principal más rápido. No confundan una mayor producción con una mayor disponibilidad para los aspirantes.

Sinceramente, el gráfico de precios de tres meses cuenta la historia con total claridad. AMD subió de unos $215 a finales de diciembre hasta un pico de $267.1 el 27 de enero de 2026: un rally del 24% en menos de un mes, impulsado casi totalmente por el optimismo sobre el despliegue de su serie MI y las curvas de adopción de IA empresarial. Luego, se desplomó. La acción perdió casi $75 en solo dos sesiones de negociación alrededor del 6 y 7 de febrero, cayendo hasta los $192.5 antes de recuperarse en un movimiento lateral entre los $190 y $215. A fecha de 22 de marzo, está en **$201.3**, con un rango de sesión de $198.3–$206.3. Es una acción que no va a ninguna parte. El Nasdaq Composite ha caído aproximadamente un 7.1% en este mismo periodo de tres meses, de 23,307.6 a 21,647.6, y el S&P 500 bajó cerca de un 4.8%, de 6,834.5 a 6,506.5. La trayectoria de AMD es materialmente peor que la de ambos índices. Esa divergencia es el mercado comunicando algo específico de la empresa. El rango actual de la acción —estancada básicamente en una banda de $190–$215 desde febrero— refleja algo parecido a un veredicto: el mercado ya ha descontado los vientos en contra competitivos y ha decidido que $200 es un precio justo para una compañía que fabrica chips excelentes pero que tiene que esperar su turno para conseguir la memoria que los hace valiosos.

Aquí está lo que nadie dice con suficiente fuerza: la narrativa del consenso sobre la brecha competitiva de AMD se centra casi exclusivamente en la arquitectura y el ecosistema de software. El bloqueo de CUDA, la menor tracción de ROCm entre desarrolladores, las diferencias en los *benchmarks*. Todo eso es real. Pero nada de eso explica un mundo limitado por el suministro. Si el despliegue de la serie MI350 de AMD a finales de 2026 encuentra una demanda real de los clientes pero no puede cumplir con los pedidos porque está en el cuarto lugar de la fila para la asignación de obleas de HBM —detrás de NVIDIA, de la propia hoja de ruta de Micron y de los compromisos internos de Samsung—, entonces el argumento arquitectónico se vuelve irrelevante. No puedes vender lo que no puedes fabricar. La brecha competitiva en el silicio para IA en este momento no es puramente intelectual. Es física.

Esto es estructural, no cíclico. El problema de AMD no es que el ciclo de gasto en IA se esté frenando (no es así, y Reuters lo confirmó al informar que el frenesí de la IA sigue impulsando una crisis de suministro de chips de memoria). El problema es que, dentro de un ciclo alcista, la plataforma que amarró las relaciones de suministro antes que los demás se lleva los beneficios de forma desproporcionada. NVIDIA lo hizo. AMD no. En los ciclos alcistas, la brecha se agrava en lugar de cerrarse.

Ahora bien, hay una variable que podría darle la vuelta a todo. Si SK Hynix o Samsung anuncian una reasignación significativa de la capacidad de producción de HBM hacia los contratos de la serie MI de AMD, o si AMD asegura un acuerdo de suministro a largo plazo que le otorgue prioridad competitiva frente a NVIDIA, toda la estructura de este análisis cambia. Esa es la única palanca que importa. No un nuevo diseño de chip, ni una mejora en el software, ni un programa piloto con un *hyperscaler*. La asignación del suministro. Mi suposición más vulnerable es que la ventaja actual de NVIDIA en HBM persistirá hasta 2026 sin un cambio mayor en los contratos… aunque admito que, con estos niveles de inversión, Samsung podría dar la sorpresa. Pero si la variable del suministro no cambia, cada mejora arquitectónica que anuncie AMD será como un árbol que cae en un bosque donde NVIDIA es dueña de la serrería.

Lo único que los mercados siempre infravaloran es la escasez física al principio de una cadena de valor tecnológica inflada por el *hype*. En la era de los chips de IA, ese origen es la HBM. La arquitectura de AMD es mejor de lo que sugiere su cotización. Su lugar en la cola de suministro es exactamente tan malo como sugiere su cotización.

Dicen que la industria de los semiconductores funciona por ciclos, pero quienes dicen eso nunca han intentado conseguir turno después de que NVIDIA ya haya gritado “¡pido primero!”. En la cadena de suministro no hay devoluciones.

Tags: AMD, NVIDIA, chips de IA, suministro de memoria HBM, sector semiconductores