La obsolescencia de la PC es obsoleta

Obsolescencia de PC

Durante décadas, una PC de escritorio comprada por $ 2000 se vendía por $ 500 en dos años. La combinación de la ley de Moore y la escala de Dennard impulsó el rendimiento del microprocesador rápidamente hacia el cielo y empresas como Microsoft y Adobe lanzaron nuevos productos para consumir ciclos de CPU casi tan rápido como Intel y AMD podían impulsarlos. Eso terminó en 2005, pero la llegada de las CPU de varios núcleos, la programación inteligente por parte de Intel y la pura inercia mantuvieron la idea actual.

A continuación se muestra un ejemplo de cuán muerto está realmente el antiguo modelo de obsolescencia. En 1996, los sistemas de gama alta se construyeron alrededor del Pentium 166 de Intel con un caché L2 externo de 512K, 16-32 MB de RAM EDO, tarjetas de video con 2 MB de VRAM y discos duros de 5400 RPM limitados a ATA-33. Cuatro años después, las CPU de 1 GHz con caché en la matriz de velocidad completa, 128 MB de SDRAM PC-100, 7200 RPM, discos duros ATA-66 y 16-32 MB de RAM de video se vendían por menos de $ 3000.

En cuatro años, la velocidad de reloj de la CPU se quintuplicó. Las ganancias de rendimiento reales fueron aún mayores, gracias a nuevas mejoras en la eficiencia de la CPU. En 1996, la RAM EDO de alto rendimiento ofrecía hasta 264 MB / s de ancho de banda, en 2000, PC100 había alcanzado los 800 MB / s. Las ranuras AGP no estaban disponibles en 1996, cuatro años más tarde eran un componente esencial de una PC entusiasta. Los controladores USB habían pasado de un bloqueo poco fiable y apenas funcional que bloqueaba el mouse cada vez que se iniciaba un programa, a razonablemente confiables. 32 MB de RAM eran excelentes en 1996, para el año 2000 querías al menos 64 MB para un rendimiento aceptable. Al observar los sistemas de la más alta calidad que puede comprar, evitamos el problema de si ciertas características simplemente se descontaron o no de un segmento determinado. Una PC de gama alta en 2000 tenía acceso a un rendimiento y funciones que simplemente no estaban disponibles en 1996, por ningún precio.



Etherlink III 3C509-Combo

Mi primer adaptador ethernet. Todos dicen 'Awww'.

A finales de los 90 y principios de los 2000, las actualizaciones fueron impulsadas en gran medida por los errores de los que huía de como la actuación que estabas buscando. El hardware plug-and-play temprano era una broma. ISA requería configuración manual (ocasionalmente mediante un puente) y se vio obstaculizado por la velocidad de reloj de 8MHz del bus. Una de las primeras placas base para entusiastas que tuve ofrecía overclocking ISA; mi tarjeta 3COM Etherlink III (en la foto de arriba) corría notablemente más rápido si empujaba el bus ISA a 12MHz.

VIA 686b

Este pequeño chip hizo más por nForce que todo el marketing de Nvidia

El error del puente sur 686b de VIA llevó a los usuarios de AMD (brevemente) a los brazos de los chipsets de Nvidia. Los conjuntos de chips de Intel eran en general mejores, pero la empresa tuvo una mala racha a principios de la década de 2000; el i815 no podía soportar más de 512 MB de RAM y el i820 fue un desastre absoluto.

Ahora, compare un sistema Core i7 temprano (Nehalem) con lo que se envía hoy (Ivy Bridge). Las velocidades del reloj han aumentado un poco y hay opciones más baratas / de gama baja disponibles, pero el Core i7-920 que se lanzó a 2.67GHz con cuatro núcleos y ocho subprocesos todavía es absolutamente capaz de alimentar los últimos juegos y aplicaciones. El ancho de banda de RAM es aproximadamente comparable si asume que el sistema 2008 usó tres canales de DDR3-1066 mientras que un sistema más nuevo implementa DDR3-1600 de doble canal. SATA 6G es falso a menos que posea un SSD, y USB 3 está disponible mediante tarjeta adicional. En particular, las tarjetas complementarias no apestan esta vez. En cuanto a la RAM total, los kits de RAM de 6GB (tres barras) que debutaron con Nehalem en 2008 siguen siendo más que suficientes para 2012. Gracias al aumento en las ventas de teléfonos / tabletas, empresas como Microsoft están ocupadas reestructurando su software para usar menos RAM o al menos mantener la línea estable entre generaciones.

La situación es algo diferente en las computadoras portátiles, donde recortar el consumo de energía y aumentar lentamente la vida útil de la batería tiene un impacto directo en los componentes que puede colocar dentro de un sistema. Incluso aquí, sin embargo, la tendencia ha cambiado. MacBook Pro de Apple con pantalla Retina ha sido con razón criticado por su batería no reemplazable, almacenamiento patentado y RAM soldada. Lo sorprendente de la situación es que se trata de reemplazar las piezas rotas, no de actualizar las viejas.

¿Hay personas que necesitan más de los 8 GB de RAM que ofrece la MacBook Pro con RD de nivel inferior? Si. Pero si usted es una de esas personas, es probable que ya lo sepa. No hay ningún sistema operativo o paquete de software en general que vaya a superar el límite de 8 GB, nada en proceso que inesperadamente convierta su disco duro (asumiendo que todavía tiene un disco duro) en un enjambre de grillos.

MacBook Pro con interior de pantalla Retina, etiquetado

La evolución de la computadora de escritorio ha terminado de manera efectiva y la computadora portátil no se queda atrás. Este último está impulsado por avances en gráficos 3D y capacidad GPGPU. Estas habilidades se trasladan al espacio del escritorio, donde mantienen las cosas en movimiento, al menos un poco. Las tabletas y los teléfonos ahora están impulsando la evolución de la informática, y eso no es necesariamente algo malo. Si crea contenido, programa o diseño, es probable que lo haga en una computadora de escritorio o portátil. Una vida útil prolongada, diseños estables y un rendimiento relativo sólido son esenciales para esos roles. El hecho de que el hardware sea muy barato ayuda a cerrar la brecha digital: los teléfonos celulares y las tabletas pueden estar a la vanguardia de lo que está de moda, pero las cajas beige con Ethernet por cable aún tienen un papel vital que desempeñar cuando se trata de impulsar el acceso a Internet a los segmentos más pobres de la sociedad.

¿Extraño los días en que los lanzamientos de controladores y conjuntos de chips de Nvidia podían aumentar el rendimiento entre un 20% y un 30% en una amplia gama de aplicaciones? Si. Pero, ¿los cambiaría por los conflictos de la tarjeta de sonido que destruyen los datos, el soporte de controladores deficiente y los días en que Windows haría BSOD si lo miraba con los ojos cruzados? Realmente no. Y me gusta el hecho de que la computadora que construí para mis padres en 2008 todavía es “ultrarrápida” con la adición de un SSD y un poco más de RAM, en lugar de necesitar un sistema completamente nuevo con una nueva instalación de SO. En estos días, es más probable que el reemplazo de una computadora portátil esté relacionado con un accidente que con una actualización, y las computadoras de escritorio deberían tener una vida útil de 6 a 8 años. No es tan emocionante, pero podría decirse que es más útil y ciertamente mucho más económico.

Leer: 30 años de computadoras personalesy 4004 a Sandy Bridge: un paseo por el carril de la memoria de la CPU

Copyright © Todos Los Derechos Reservados | 2007es.com