Más rápido, más delgado, más barato: ¿Es la ley de Koomey la nueva ley de Moore?
Las computadoras portátiles, móviles y tabletas se vuelven más baratas, elegantes y potentes cada año, mientras que la duración de la batería sigue aumentando. ¿Alguna vez te has preguntado por qué es así y si los dispositivos pueden seguir mejorando para siempre?
La respuesta a la primera pregunta se explica por tres leyes descubiertas por los investigadores, conocidas como ley de Moore, escala de Dennard y ley de Koomey. Siga leyendo para comprender el impacto de estas leyes en la informática y adónde podrían llevarnos en el futuro.
¿Qué es la ley de Moore?
Si eres un lector habitual de MakeUseOf, posiblemente conozcas la mítica Ley de Moore.
El CEO y cofundador de Intel, Gordon Moore, lo presentó por primera vez en 1965.
Predijo que la cantidad de transistores en un chip se duplicaría aproximadamente cada dos años y sería entre un 20 y un 30 por ciento más barata de fabricar anualmente. El primer procesador de Intel se lanzó en 1971 con 2250 transistores y un área de 12 mm 2 . Las CPU de hoy tienen cientos de millones de transistores por milímetro cuadrado.
Si bien comenzó como una predicción, la industria también adoptó la Ley de Moore como hoja de ruta. Durante cinco décadas, la previsibilidad de la ley permitió a las empresas formular estrategias a largo plazo, sabiendo que, incluso si sus diseños eran imposibles en la etapa de planificación, la Ley de Moore entregaría los bienes en el momento adecuado.
Esto tuvo un efecto dominó en muchas áreas, desde los gráficos en constante mejora de los juegos hasta el número creciente de megapíxeles en las cámaras digitales.
Sin embargo, la ley tiene una vida útil y la tasa de progreso se está desacelerando. Aunque los fabricantes de chips continúan encontrando nuevas formas de sortear los límites de los chips de silicio , el propio Moore cree que ya no funcionará a finales de esta década. Pero no será la primera ley de la tecnología en desaparecer.
¿Qué fue de Dennard Scaling?
En 1974, el investigador de IBM Robert Dennard observó que, a medida que los transistores se encogen, su uso de energía sigue siendo proporcional a su área.
La escala de Dennard, como se conoció, significó que el área del transistor se redujo en un 50 por ciento cada 18 meses, lo que llevó a un aumento de la velocidad del reloj del 40 por ciento, pero con el mismo nivel de consumo de energía.
En otras palabras, el número de cálculos por vatio aumentaría a un ritmo exponencial pero confiable, y los transistores se volverían más rápidos, más baratos y consumirían menos energía.
En la era del escalado de Dennard, la mejora del rendimiento solía ser un proceso predecible para los fabricantes de chips. Simplemente agregaron más transistores a las CPU y aumentaron las frecuencias de reloj.
Esto también fue fácil de entender para el consumidor: un procesador que funcionaba a 3,0 GHz era más rápido que uno que funcionaba a 2,0 GHz, y los procesadores se volvían más rápidos. De hecho, la Hoja de Ruta Internacional de Tecnología para Semiconductores (ITRS) una vez predijo que las frecuencias de reloj alcanzarían los 12 GHz en 2013 .
Sin embargo, hoy en día, los mejores procesadores del mercado tienen una frecuencia base de solo 4,1 GHz. ¿Que pasó?
El fin de la escala de Dennard
Las velocidades de reloj se estancaron en el barro alrededor de 2004 cuando las reducciones en el uso de energía dejaron de seguir el ritmo de la tasa de contracción de los transistores.
Los transistores se volvieron demasiado pequeños y la corriente eléctrica comenzó a filtrarse, lo que provocó sobrecalentamiento y altas temperaturas, lo que provocó errores y daños en el equipo. Esa es una de las razones por las que el chip de su computadora tiene un disipador de calor . Dennard Scaling había alcanzado los límites dictados por las leyes de la física.
Más núcleos, más problemas
Con clientes e industrias enteras acostumbradas a las continuas mejoras de velocidad, los fabricantes de chips necesitaban una solución. Entonces, comenzaron a agregar núcleos a los procesadores como una forma de seguir aumentando el rendimiento.
Sin embargo, los núcleos múltiples no son tan efectivos como simplemente aumentar la velocidad del reloj en unidades de un solo núcleo. La mayoría del software no puede aprovechar el multiprocesamiento. El almacenamiento en caché de memoria y el consumo de energía son cuellos de botella adicionales.
El cambio a chips multinúcleo también anunció la llegada del silicio oscuro.
La edad oscura del silicio
Pronto se hizo evidente que si se usan demasiados núcleos simultáneamente, la corriente eléctrica puede filtrarse, resucitando el problema de sobrecalentamiento que mató a Dennard al escalar en chips de un solo núcleo.
El resultado son procesadores multinúcleo que no pueden utilizar todos sus núcleos a la vez. Cuantos más núcleos agregue, más transistores de un chip tendrán que apagarse o ralentizarse, en un proceso conocido como "silicio oscuro".
Entonces, aunque la Ley de Moore sigue permitiendo que quepan más transistores en un chip, el silicio oscuro está devorando el espacio de la CPU. Por lo tanto, agregar más núcleos no tiene sentido, ya que no puede usarlos todos al mismo tiempo.
Sostener la ley de Moore usando múltiples núcleos parece ser un callejón sin salida.
Cómo podría continuar la ley de Moore
Un remedio es mejorar el multiprocesamiento del software. Java, C ++ y otros lenguajes diseñados para núcleos únicos darán paso a otros como Go, que funcionan mejor al mismo tiempo.
Otra opción es aumentar el uso de arreglos de puertas programables en campo (FPGA), un tipo de procesador personalizable que se puede reconfigurar para tareas específicas después de la compra. Por ejemplo, un cliente podría optimizar una FPGA para manejar video mientras o podría adaptarse especialmente para ejecutar aplicaciones de inteligencia artificial.
La construcción de transistores a partir de diferentes materiales, como el grafeno, es otra área que se está investigando para sacar más vida de la predicción de Moore. Y, en el futuro, la computación cuántica puede cambiar el juego por completo.
El futuro pertenece a la ley de Koomey
En 2011, el profesor Jonathan Koomey demostró que la eficiencia energética de salida máxima (la eficiencia de un procesador que funciona a la velocidad máxima) se hacía eco de la trayectoria de potencia de procesamiento descrita por la Ley de Moore.
La Ley de Koomey observó que, desde las bestias de los tubos de vacío de la década de 1940 hasta las computadoras portátiles de la década de 1990, los cálculos por julio de energía se habían duplicado de manera confiable cada 1,57 años. En otras palabras, la batería utilizada por una determinada tarea se redujo a la mitad cada 19 meses, lo que provocó que la energía necesaria para un cálculo específico se redujera en un factor de 100 cada década.
Si bien la ley de Moore y la escala de Dennard fueron muy importantes en un mundo de computadoras de escritorio y portátiles, la forma en que usamos los procesadores ha cambiado tanto que la eficiencia energética prometida por la ley de Koomey probablemente sea más relevante para usted.
Es probable que su vida informática se divida entre muchos dispositivos: computadoras portátiles, móviles, tabletas y dispositivos diversos. En esta era de informática proliferada , la duración de la batería y el rendimiento por vatio se están volviendo más importantes que exprimir más GHz de nuestros procesadores de muchos núcleos.
Del mismo modo, con una mayor parte de nuestro procesamiento subcontratado a centros de datos de computación en la nube masivos, las implicaciones del costo energético de la Ley de Koomey son de gran interés para los gigantes tecnológicos.
Sin embargo, desde 2000, la duplicación de la eficiencia energética en toda la industria descrita por la Ley de Koomey se ha desacelerado debido al final de la escala de Dennard y la desaceleración de la Ley de Moore. La ley de Koomey cumple ahora cada 2,6 años y, en el transcurso de una década, la eficiencia energética aumenta en un factor de solo 16, en lugar de 100.
Puede ser prematuro decir que la Ley de Koomey ya está siguiendo a Dennard y Moore hasta el ocaso. En 2020, AMD informó que la eficiencia energética de su procesador AMD Ryzen 7 4800H aumentó en un factor de 31,7 en comparación con sus CPU de 2014, lo que le dio a la Ley de Koomey un impulso sustancial y oportuno.
Redefiniendo la eficiencia para extender la ley de Koomey
La eficiencia energética de salida máxima es solo una forma de evaluar la eficiencia informática y una que ahora puede estar desactualizada.
Esta métrica tuvo más sentido en las últimas décadas, cuando las computadoras eran recursos escasos y costosos que los usuarios y las aplicaciones tendían a llevar al límite.
Ahora, la mayoría de los procesadores funcionan al máximo rendimiento durante solo una pequeña parte de sus vidas, cuando ejecutan un videojuego, por ejemplo. Otras tareas, como revisar mensajes o navegar por la web, requieren mucha menos energía. Como tal, la eficiencia energética promedio se está convirtiendo en el centro de atención.
Koomey ha calculado esta "eficiencia de uso típico" dividiendo el número de operaciones realizadas por año por la energía total utilizada y argumenta que debería reemplazar el estándar de "eficiencia de uso máximo" utilizado en su formulación original.
Aunque el análisis aún no se ha publicado, entre 2008 y 2020, se espera que la eficiencia de uso típico se duplique aproximadamente cada año y medio, devolviendo la ley de Koomey a la tasa óptima observada cuando la ley de Moore estaba en su mejor momento.
Una implicación de la Ley de Koomey es que los dispositivos seguirán reduciendo su tamaño y consumirán menos energía. Los procesadores que se encogen, pero siguen siendo de alta velocidad, pronto podrán tener tan poca energía que podrán extraer su energía directamente del entorno, como el calor de fondo, la luz, el movimiento y otras fuentes.
Estos dispositivos de procesamiento ubicuos tienen el potencial de marcar el comienzo de la verdadera era del Internet de las cosas (IoT) y hacer que su teléfono inteligente parezca tan anticuado como los gigantes con tubos de vacío de la década de 1940.
Sin embargo, a medida que los científicos e ingenieros descubren e implementan más y más técnicas nuevas para optimizar la "eficiencia de uso típico", es probable que esa parte del uso total de energía de una computadora disminuya tanto que en los niveles de uso típico, solo se reducirá la producción máxima. suficientemente significativo para medir.
El uso de la producción máxima se convertirá una vez más en el criterio para el análisis de eficiencia energética. En este escenario, la Ley de Koomey eventualmente se encontrará con las mismas leyes de la física que ralentizan la Ley de Moore.
Esas leyes de la física, que incluyen la segunda ley de la termodinámica, significan que la Ley de Koomey terminará alrededor de 2048.
La computación cuántica lo cambiará todo
La buena noticia es que para entonces, la computación cuántica debería estar bien desarrollada, con transistores basados en átomos únicos, algo común, y una nueva generación de investigadores tendrá que descubrir un conjunto de leyes completamente diferente para predecir el futuro de la computación.