McNealy apostará la empresa por el procesador «Corona»

El proceso estándar de fabricación de chips, basado en el uso de litografía para grabar circuitos en silicio y otros materiales, ha estado en uso desde mediados de la década de 1970, con cambios expresados ​​principalmente en una mayor precisión de fabricación, porque la disminución de las longitudes de onda utilizadas ha permitido la desarrollo de cada vez más pequeños. Componentes.

Les experts, bien sûr, prédisent la fin de ce processus de retrait depuis plusieurs années, mais jusqu’à présent, aucune limite n’a été atteinte quant à la capacité de réaliser la loi de Moore en doublant périodiquement la densité des composants gravés sur la Pulga. De hecho, la mayoría de los procesadores avanzados de hoy en día se fabrican a 90 nanómetros, con un aumento de los procesos de producción de 65 nanómetros en marcha y los laboratorios ahora están demostrando procesos exitosos de 10 nanómetros.

Sin embargo, ya en 1987, trabajar en los laboratorios Thomas Watson de IBM en Nueva York demostró la viabilidad del enfoque inverso: utilizar la deposición de iones para construir el chip a partir de un sustrato en lugar de cortarlo en una superficie colocada sobre este sustrato.

Cambiar a esfera

En teoría, esta tecnología se puede utilizar para reemplazar el diseño habitual de estera plana con un diseño esférico tridimensional en el que se minimizan todas las distancias de flujo. Dicha esfera tendría hoyuelos con túneles de enfriamiento y usaría un único conector tipo red de gran ancho de banda enhebrado a través de la esfera en lugar de los conectores de borde tradicionales.

Ahora hay métodos de deposición que pueden construir un chip literalmente un átomo a la vez con un aumento de densidad teórico del orden de seis órdenes de magnitud sobre la litografía de rayos X, unas 1000 veces mayor que el aumento de densidad de componentes del procesador 8086 de 1979 a P4E2 de hoy. Sin embargo, a pesar de este potencial, dos factores, uno técnico y otro comercial, impidieron que la teoría se hiciera realidad.

El factor comercial es bastante simple: se necesitan al menos 10 años y una gran cantidad de dólares para construir una fábrica a escala de producción capaz de producir en volumen. Dado que este horizonte de planificación está más allá de la vida útil de la generación actual del producto, los costos son en gran parte desconocidos y existen alternativas probadas, por lo que nadie ha estado dispuesto a lanzar esta tecnología para realizar diseños de CPU existentes a pesar de las ventajas de reducción de distancia del formato esférico.

Problemas técnicos

La cuestión técnica es mucho más compleja e interdependiente. El componente más difícil fue que las ecuaciones de Riemann que describen las interacciones a lo largo de los bordes de los dispositivos de escala subnano que se «desarrollarán» en esta tecnología no permiten soluciones puntuales, lo que significa que los flujos de información parecen impredecibles principalmente porque, a esta escala , la inestabilidad cuántica afecta a todo.

Como resultado, los diseños anteriores se limitaban a dispositivos a nanoescala mucho más grandes a los que no se aplican las consideraciones cuánticas, pero que, por lo tanto, tampoco ofrecen una ganancia de rendimiento suficiente para justificar la complejidad de la fabricación adicional.

Sin embargo, hace cuatro años, un matemático ruso, Igor Dimitrovich Turicheskiy, que trabajaba en Instituto MV Keldysh de Matemáticas Aplicadas en Moscú, proporcionó una solución revolucionaria cuando demostró que la aparente imprevisibilidad de las direcciones de flujo en estos bordes podría resolverse a través de la teoría de la relatividad.


Aunque no empiezo a entender las matemáticas, su trabajo aparentemente explica la observación de que la información que fluye a través de un límite de dispositivo de escala cuántica generalmente no sale del límite en el mismo orden en que entró: el llamado flujo caótico. límite a la computación cuántica que detuvo el esfuerzo de Josephsen Junction de IBM – es en realidad un previsible consecuencia de distorsiones relativistas de su aparente cruce temporal.

Así, la información sobre el orden en que se producen los flujos de información dentro de dichos conjuntos cuánticos, junto con el conocimiento de las propiedades eléctricas del medio, permite la predicción completa de su patrón de llegada a otro componente.

Esto, por supuesto, golpea el corazón de las limitaciones actuales del diseño de la CPU en las que el tiempo y el voltaje necesarios para impulsar los electrones a lo largo de los conectores internos limita el tamaño físico del núcleo y, por lo tanto, da lugar a intentos, como la iniciativa informática de rendimiento de Sun, para sortear algunas de estas limitaciones mediante el uso de múltiples núcleos paralelos.

Solución de doble golpe

Desafortunadamente, la «computación de rendimiento» al estilo SMP tiene su propio inconveniente: los requisitos de memoria aumentan con el rendimiento. Por ejemplo, el tope de línea actual de Sun, el 25EK, viene con hasta 72 procesadores UltraSPARC-IV de doble núcleo y requiere hasta medio terabyte de RAM para funcionar de manera eficiente.

Para la serie «Júpiter» planeada en torno al futuro procesador US-VI, este máximo aumentará a 72 procesadores, cada uno con hasta 32 núcleos integrados, lo que le da a la máquina el rendimiento estimado equivalente a una máquina US3 de tres terahercios, pero requiere algo así como 16. Terabytes de RAM. Con la tecnología de memoria actual, una máquina de este tipo necesitaría más de una milla de sockets de memoria, una imposibilidad obvia incluso en un entorno de empaquetado ultradenso como los planes de IBM para sus máquinas de la serie bluegene.

Las matemáticas de Turicheskiy ofrecen una solución casi milagrosa de «doble golpe» a este problema. El montaje del sistema a escala atómica no solo permitiría a Sun colocar un terabyte completo de memoria directamente en cada núcleo, sino que el efecto de dilatación del tiempo experimentado por los datos que se mueven a través de esos límites muy cerca de la luz ofrece la multiplicación de gigahercios como un lado aparentemente «gratuito». efecto.

Al borde de la paradoja

Esto equilibra las matemáticas del intercambio cuántico al borde de la paradoja con un reloj que registra 1 GHz internamente y parece estar funcionando a alrededor de 12,5 GHz cuando se ve desde el exterior para proporcionar un orden de magnitud completo en la mejora de rendimiento aparentemente «gratuita».

Por supuesto, en realidad, la física no permite la energía libre, y tal máquina se detendría unos 12 segundos después de comenzar si los diseñadores no proporcionaran una fuente de energía adicional. En este caso, los electrones libres necesarios provendrán del uso de un superconductor líquido como fluido de transferencia de calor y como bus de red.


Este material, que circula a través del procesador esférico mediante la presión generada por un motor de ley de nanoescala alimentado por el calor residual, permanece eléctricamente continuo y proporciona un ancho de banda casi infinito cuando fluye a través del procesador y sus conectores externos hacia el disco y los recursos de la red.

El sol se mueve hacia Corona

En este momento, nadie sabe realmente cuánto costará ni cuánto tiempo llevará desarrollar las máquinas que construirán las máquinas que fabricarán este tipo de sistemas. Por supuesto, la contribución inicial de 50 millones de dólares de DARPA apenas representó el costo del software de diseño necesario para diseñar los componentes tridimensionales.

Sin embargo, el rumor entre los miembros de la junta de Sun es que el presidente y director ejecutivo, Scott McNealy, le pedirá a la junta que apueste a la compañía por esta tecnología aprobando lo que equivale a un cheque en blanco para los socios Fujitsu y Texas Instruments por un intento de construir un prototipo de laboratorio. para una futura serie de procesadores Sun Chronosphere.

Si, como parece poco probable dada la fecha de hoy, este rumor resulta ser cierto, el esfuerzo supondrá una gran apuesta para Sun y su siempre voluble presidente. Pero podría darle a la empresa el control de todo el universo informático en las eternidades venideras.


pablo murphy, un columnista de LinuxInsider, ha escrito y publicado La guía de Unix para la defenestración. Murphy tiene 20 años de experiencia en la industria de la consultoría informática y se especializa en la gestión de Unix y cuestiones relacionadas con Unix.


———————————————————————————————————————–
Esperamos que te haya gustado el contenido de nuestro Blog El Diario del Mundo, sí fue así, por favor compártelo nos ayudarías mucho para seguir publicando más contenido.

Entradas relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada.