Cómo hablar de 5G y Wi-Fi 6 ha desplazado los conteos de núcleos y velocidades de reloj más altos
Computex no ha estado corto en grandes anuncios en hardware de computadora. Intel, AMD , Nvidia y Qualcomm tenían nuevos chips para presumir, y hay muchas razones para estar entusiasmados con el nuevo potencial de rendimiento de estos chips.
Sin embargo, tan importante como la reducción del tamaño de los procesadores y el mayor número de núcleos, Intel y Qualcomm pasaron más tiempo hablando de conectividad que de velocidades y fuentes. Después de todo, cuando la mayoría del uso de computadoras portátiles está en la web, la falta de rendimiento del hardware y la mala conectividad no se sienten tan diferentes para la persona promedio.
Dos lados de la misma moneda
Tanto Intel como AMD revelaron reducciones en el tamaño del troquel y las respectivas nuevas generaciones de procesadores se abrieron paso en los dispositivos. Para los chips de escritorio de AMD , es tan temprano como en julio, mientras que Intel no se queda atrás con los principales proveedores de computadoras portátiles, incluidos sus chips Ice Lake, a tiempo para la temporada de vacaciones de 2019.
Pero si se alejó no muy lejos de las dos notas clave, probablemente notó mucho menos énfasis en la potencia bruta y mucho más zumbido en los largos avances de la computadora portátil y la conectividad inalámbrica 2 en 1 programada para finales de 2019 y más allá. Esta semana, el blog de Microsoft observó las capacidades de Wi-Fi 6 integradas en máquinas tan diferentes como el nuevo MSI GT76 Titan y el HP EliteBook x360 1030 G4 . Intel también emitió un comunicado de prensa esta semana para promocionar la integración de Wi-Fi 6 que su 10 th generación de procesadores de hielo del lago con barco.
Y, en un intento por elevar el escenario tanto a Intel como a AMD, Qualcomm puso a la conectividad en el centro de su esfuerzo conjunto con Lenovo . El proyecto, Project Limitless, se burla del primer portátil equipado con módem 5G Snapdragon 8cx del mundo. El proyecto tiene un buen nivel de ventas que cumplir, pero para que Lenovo y Qualcomm inicien una carrera en toda la industria hacia dispositivos ligeros, rápidos e hiperconectados 2 en 1, no es necesario.
Una buena cantidad de foco está brillando claramente en la conectividad de la red, lo que puede hacer que muchas personas se pregunten "¿qué pasó con el rendimiento?" Pero en el panorama tecnológico actual, exprimir más potencia bruta no es capaz de empujar los límites técnicos tanto como solía hacerlo (al menos por el momento). Los dos factores principales que intervienen en esto son el juego de pollos de alto rendimiento de ingeniería fotolográfica con el fin de la Ley de Moore y el retroceso en toda la industria que los fabricantes de chips están ejecutando apresuradamente para abordar las principales vulnerabilidades de hardware descubiertas hace más de un año. .
Por un tiempo, la industria había llorado a lobo por haber llegado al punto de ruptura en la Ley de Moore. Es la idea de que la cantidad de transistores que pueden caber en el mismo circuito integrado de tamaño se duplica cada dos años, pero parece que esta vez podría ser el final . Es posible que Intel lo retenga un poco más con el ingenioso truco de foto-litografía 3D que desarrolló para su diseño de Foveros, pero es probable que la tecnología no pueda permanecer en el lado complaciente de la tendencia de desarrollo durante mucho más tiempo. Al navegar por las aguas inexploradas de esta nueva era de la informática sin amarrar, los aumentos de velocidad tendrán que venir de un lugar que no sea el número de núcleos de la CPU.
En realidad, los fabricantes de chips pueden tener mucho en qué trabajar antes de eso, porque las consecuencias de las vulnerabilidades de hardware de ejecución especulativa de Spectre y Meltdown no muestran ningún signo de disminución. De hecho, una nueva variante, apodada ZombieLoad , fue descubierta este mes . Con la nueva prueba de las explotaciones de concepto aún en ciernes, las revisiones arquitectónicas necesarias para mitigar errores de ejecución especulativos y recuperar el rendimiento al que estamos acostumbrados pueden llevar varios años y ciclos de productos.
5G y Wi-Fi 6 suben al escenario
Lejos de simplemente dar a los fabricantes un camino para incendiarse, en lugar de un terreno para recauchutar, la conectividad tiene el potencial de ofrecer la próxima generación de velocidad. 5G está generando grandes olas en este momento, y por buenas razones, entre las que destaca el gran salto en la velocidad d
e transmi
sión . La implementación podría estar más cerca o más lejos dependiendo de dónde se encuentre, pero cada vez que lo alcance, traerá la velocidad base que puede esperar de dispositivos con un módem 5G de hasta 50Mbps, con velocidades máximas superiores a 1Gbps.
Para no quedarse atrás, Wi-Fi 6 también promete aumentar las tasas de carga y descarga, y está listo para llegar a los consumidores mucho antes que a 5G. No sólo la especificación Wi-Fi 6, con su configuración MU-MIMO racionalización de emisión de la antena y el intercambio de recepción , alcanzar velocidades mínimas de alrededor de 100 Mbps en redes de hacinamiento, con el rango de 250 Mbps a 1 Gbps fácilmente al alcance de los clientes de banda ancha promedio, pero hay Ya enrutadores en el mercado que emplean la norma . Hasta la ola de computadoras portátiles planeadas esta semana, el problema con aprovechar las velocidades de Wi-Fi 6 ha sido que no ha habido dispositivos que puedan comunicarse con los enrutadores de Wi-Fi 6 en esa especificación.
Desde juegos en línea hasta aplicaciones web, pasamos la mayor parte del tiempo en nuestras PC conectadas a Internet. La reducción de la latencia que estas tecnologías brindarán a los consumidores, una vez que estén totalmente implementadas y disponibles para las masas, tampoco es un aumento incremental.
Cualquiera que haya visto el uso de la CPU de su máquina le dirá que la mayoría de las veces espera instrucciones. En su mayor parte, ha estado retrasando las conexiones de red que han atascado nuestras experiencias informáticas, no las velocidades del procesador. Un esfuerzo concertado para acelerar esas conexiones se sentirá muchísimo como un aumento en el rendimiento.
Cuando se ven en este contexto, las actualizaciones de conectividad no son tanto un desvío de las mejoras de rendimiento como una ruta directa hacia ellas. Como la mayoría de las personas es más probable que disfruten de experiencias informáticas más rápidas debido a estándares de red más eficientes y hardware de red más ágil, tal vez los fabricantes de chips tengan razón en centrarse en la conectividad.