Es posible que este artículo contenga una investigación original . ( febrero de 2023 ) |
En informática , el overclocking es la práctica de aumentar la frecuencia de reloj de un ordenador para superar la certificada por el fabricante. Por lo general, también se aumenta el voltaje de funcionamiento para mantener la estabilidad operativa de un componente a velocidades aceleradas. Los dispositivos semiconductores que funcionan a frecuencias y voltajes más altos aumentan el consumo de energía y el calor. [1] Un dispositivo overclockeado puede ser poco confiable o fallar por completo si no se elimina la carga de calor adicional o los componentes de suministro de energía no pueden satisfacer las mayores demandas de energía. Muchas garantías de dispositivos establecen que el overclocking o la sobreespecificación [2] anulan cualquier garantía, pero algunos fabricantes permiten el overclocking siempre que se realice de manera (relativamente) segura. [ cita requerida ]
El propósito del overclocking es aumentar la velocidad de funcionamiento de un componente determinado. [3] Normalmente, en los sistemas modernos, el objetivo del overclocking es aumentar el rendimiento de un chip o subsistema principal, como el procesador principal o el controlador de gráficos, pero otros componentes, como la memoria del sistema ( RAM ) o los buses del sistema (generalmente en la placa base ), suelen estar involucrados. Las compensaciones son un aumento en el consumo de energía (calor), el ruido del ventilador (refrigeración) y una vida útil más corta para los componentes objetivo. La mayoría de los componentes están diseñados con un margen de seguridad para lidiar con condiciones de funcionamiento fuera del control de un fabricante; algunos ejemplos son la temperatura ambiente y las fluctuaciones en el voltaje de funcionamiento. Las técnicas de overclocking en general tienen como objetivo negociar este margen de seguridad configurando el dispositivo para que funcione en el extremo superior del margen, con el entendimiento de que la temperatura y el voltaje deben ser monitoreados y controlados más estrictamente por el usuario. Algunos ejemplos son que la temperatura de funcionamiento debería controlarse más estrictamente con un mayor enfriamiento, ya que la pieza será menos tolerante al aumento de temperaturas a velocidades más altas. También se puede aumentar el voltaje de funcionamiento base para compensar caídas de voltaje inesperadas y fortalecer las señales de señalización y temporización, ya que las excursiones de bajo voltaje tienen más probabilidades de causar fallas de funcionamiento a velocidades de funcionamiento más altas.
Aunque la mayoría de los dispositivos modernos son bastante tolerantes al overclocking, todos los dispositivos tienen límites finitos. En general, para cualquier voltaje dado, la mayoría de las partes tendrán una velocidad "estable" máxima en la que aún funcionarán correctamente. Más allá de esta velocidad, el dispositivo comienza a dar resultados incorrectos, lo que puede causar fallas y un comportamiento esporádico en cualquier sistema que dependa de él. Si bien en un contexto de PC el resultado habitual es un bloqueo del sistema, pueden pasar desapercibidos errores más sutiles, lo que con el tiempo puede dar sorpresas desagradables, como corrupción de datos (resultados calculados incorrectamente o peor aún, escritura incorrecta en el almacenamiento) o que el sistema falle solo durante ciertas tareas específicas (el uso general, como la navegación por Internet y el procesamiento de textos , parece estar bien, pero cualquier aplicación que desee gráficos avanzados bloquea el sistema. También puede haber una posibilidad de daño al hardware en sí).
En este punto, un aumento en el voltaje de funcionamiento de una pieza puede permitir un mayor margen para mayores aumentos en la velocidad del reloj, pero el aumento de voltaje también puede aumentar significativamente la producción de calor, así como acortar aún más la vida útil. En algún momento, habrá un límite impuesto por la capacidad de suministrar al dispositivo la energía suficiente, la capacidad del usuario para enfriar la pieza y la propia tolerancia máxima de voltaje del dispositivo antes de que alcance una falla destructiva . El uso excesivo del voltaje o una refrigeración inadecuada pueden degradar rápidamente el rendimiento de un dispositivo hasta el punto de fallar o, en casos extremos, destruirlo por completo .
La velocidad obtenida mediante el overclocking depende en gran medida de las aplicaciones y cargas de trabajo que se ejecutan en el sistema, y de qué componentes están siendo overclockeados por el usuario; se publican puntos de referencia para diferentes propósitos.
Por el contrario, el objetivo principal del underclocking es reducir el consumo de energía y la generación de calor resultante de un dispositivo, con las contrapartidas de velocidades de reloj más bajas y reducciones en el rendimiento. Reducir los requisitos de refrigeración necesarios para mantener el hardware a una temperatura operativa determinada tiene beneficios indirectos, como reducir la cantidad y la velocidad de los ventiladores para permitir un funcionamiento más silencioso y, en los dispositivos móviles, aumentar la duración de la batería por carga. Algunos fabricantes reducen la velocidad de reloj de los componentes de los equipos alimentados por batería para mejorar la duración de la batería o implementan sistemas que detectan cuándo un dispositivo está funcionando con energía de la batería y reducen la frecuencia de reloj.
Se intentaría hacer underclocking y undervolting en un sistema de escritorio para que funcione de forma silenciosa (como en un centro de entretenimiento doméstico) y, al mismo tiempo, ofrecer un rendimiento mayor que el que ofrecen actualmente los procesadores de bajo voltaje. Esto utilizaría una pieza de "voltaje estándar" e intentaría funcionar con voltajes más bajos (mientras se intentaban mantener las velocidades de escritorio) para cumplir con un objetivo de rendimiento/ruido aceptable para la construcción. Esto también era atractivo porque usar un procesador de "voltaje estándar" en una aplicación de "bajo voltaje" evitaba pagar el sobreprecio tradicional por una versión de bajo voltaje certificada oficialmente . Sin embargo, nuevamente, al igual que el overclocking, no hay garantía de éxito, y se debe considerar el tiempo del constructor para investigar combinaciones de sistema/procesador dadas y, especialmente, el tiempo y el tedio de realizar muchas iteraciones de pruebas de estabilidad. La utilidad del underclocking (nuevamente, como el overclocking) está determinada por las ofertas, precios y disponibilidad de procesadores en el momento específico de la construcción. El underclocking también se usa a veces para solucionar problemas .
El overclocking se ha vuelto más accesible, ya que los fabricantes de placas base lo ofrecen como una característica de marketing en sus líneas de productos principales. Sin embargo, la práctica es adoptada más por los entusiastas que por los usuarios profesionales, ya que el overclocking conlleva un riesgo de reducción de la fiabilidad y la precisión, y de daños a los datos y al equipo. Además, la mayoría de las garantías y los acuerdos de servicio de los fabricantes no cubren los componentes overclockeados ni los daños incidentales causados por su uso. Si bien el overclocking todavía puede ser una opción para aumentar la capacidad informática personal y, por lo tanto, la productividad del flujo de trabajo para los usuarios profesionales, no se puede exagerar la importancia de realizar pruebas de estabilidad exhaustivas de los componentes antes de emplearlos en un entorno de producción.
El overclocking ofrece varios atractivos para los entusiastas del overclocking. Permite probar componentes a velocidades que actualmente no ofrece el fabricante, o a velocidades que solo se ofrecen oficialmente en versiones especializadas y de mayor precio del producto. Una tendencia general en la industria informática es que las nuevas tecnologías tienden a debutar primero en el mercado de alta gama, para luego filtrarse al mercado de alto rendimiento y al mercado general. Si la pieza de alta gama solo se diferencia por una mayor velocidad de reloj, un entusiasta puede intentar hacer overclocking en una pieza general para simular la oferta de alta gama. Esto puede brindar información sobre cómo funcionarán las tecnologías más allá del horizonte antes de que estén oficialmente disponibles en el mercado general, lo que puede ser especialmente útil para otros usuarios que estén considerando si deben planificar con anticipación la compra o la actualización a la nueva característica cuando se lance oficialmente.
Algunos aficionados disfrutan construyendo, ajustando y "modificando" sus sistemas en competiciones de evaluación comparativa competitivas, compitiendo con otros usuarios con ideas afines para obtener puntuaciones altas en conjuntos de pruebas estandarizadas de evaluación comparativa de computadoras. Otros comprarán un modelo de bajo costo de un componente de una línea de productos determinada e intentarán hacer overclocking de esa pieza para que coincida con el rendimiento de fábrica de un modelo más caro. Otro enfoque es hacer overclocking de componentes más antiguos para intentar seguir el ritmo de los requisitos crecientes del sistema y extender la vida útil de la pieza más antigua o al menos retrasar la compra de nuevo hardware únicamente por razones de rendimiento. Otra razón para hacer overclocking de equipos más antiguos es que, incluso si el overclocking estresa al equipo hasta el punto de fallar antes, se pierde poco porque ya está depreciado y habría sido necesario reemplazarlo en cualquier caso. [4]
Técnicamente, cualquier componente que utilice un temporizador (o reloj) para sincronizar sus operaciones internas puede ser overclockeado. Sin embargo, la mayoría de los esfuerzos para los componentes de la computadora se centran en componentes específicos, como procesadores (también conocidos como CPU), tarjetas de video , chipsets de placa base y RAM . La mayoría de los procesadores modernos obtienen sus velocidades operativas efectivas multiplicando un reloj base (velocidad del bus del procesador) por un multiplicador interno dentro del procesador (el multiplicador de CPU ) para alcanzar su velocidad final.
Los procesadores de ordenador generalmente se overclockean manipulando el multiplicador de la CPU si esa opción está disponible, pero el procesador y otros componentes también se pueden overclockear incrementando la velocidad base del reloj del bus . Algunos sistemas permiten un ajuste adicional de otros relojes (como un reloj del sistema ) que influyen en la velocidad del reloj del bus que, a su vez, se multiplica por el procesador para permitir ajustes más precisos de la velocidad final del procesador.
La mayoría de los sistemas OEM no exponen al usuario los ajustes necesarios para cambiar la velocidad de reloj o el voltaje del procesador en el BIOS de la placa base del OEM, lo que impide el overclocking (por razones de garantía y soporte). El mismo procesador instalado en una placa base diferente que ofrezca ajustes permitirá al usuario cambiarlos.
Cualquier componente dado dejará de funcionar de manera confiable después de una cierta velocidad de reloj. Los componentes generalmente mostrarán algún tipo de comportamiento defectuoso u otra indicación de estabilidad comprometida que alerta al usuario de que una velocidad dada no es estable, pero siempre existe la posibilidad de que un componente falle permanentemente sin previo aviso, incluso si los voltajes se mantienen dentro de algunos valores seguros predeterminados. La velocidad máxima se determina mediante el overclocking hasta el punto de la primera inestabilidad, luego aceptando la última configuración más lenta estable. Solo se garantiza que los componentes funcionen correctamente hasta sus valores nominales; más allá de eso, diferentes muestras pueden tener un potencial de overclocking diferente. El punto final de un overclock determinado está determinado por parámetros como multiplicadores de CPU disponibles, divisores de bus, voltajes ; la capacidad del usuario para administrar cargas térmicas, técnicas de enfriamiento; y varios otros factores de los dispositivos individuales en sí, como el reloj de semiconductores y las tolerancias térmicas, la interacción con otros componentes y el resto del sistema.
Hay varias cosas que se deben tener en cuenta al hacer overclocking. En primer lugar, hay que asegurarse de que el componente reciba la energía adecuada a un voltaje suficiente para funcionar a la nueva frecuencia de reloj . Suministrar la energía con configuraciones inadecuadas o aplicar un voltaje excesivo puede dañar permanentemente un componente.
En un entorno de producción profesional, es probable que el overclocking solo se utilice cuando el aumento de velocidad justifique el coste del soporte técnico necesario, la posible reducción de la fiabilidad, el consiguiente efecto sobre los contratos de mantenimiento y las garantías, y el mayor consumo de energía. Si se necesita una mayor velocidad, suele ser más barato, teniendo en cuenta todos los costes, comprar un hardware más rápido.
Todos los circuitos electrónicos producen calor generado por el movimiento de la corriente eléctrica. A medida que aumentan las frecuencias de reloj en los circuitos digitales y el voltaje aplicado, también aumenta el calor generado por los componentes que funcionan a niveles de rendimiento más altos. La relación entre las frecuencias de reloj y la potencia de diseño térmico (TDP) es lineal. Sin embargo, existe un límite para la frecuencia máxima que se denomina "muro". Para superar este problema, los overclockers aumentan el voltaje del chip para aumentar el potencial de overclocking. El voltaje aumenta el consumo de energía y, en consecuencia, la generación de calor de manera significativa (proporcionalmente al cuadrado del voltaje en un circuito lineal, por ejemplo); esto requiere más refrigeración para evitar dañar el hardware por sobrecalentamiento. Además, algunos circuitos digitales se ralentizan a altas temperaturas debido a cambios en las características del dispositivo MOSFET . Por el contrario, el overclocker puede decidir disminuir el voltaje del chip mientras realiza overclocking (un proceso conocido como subvoltaje), para reducir las emisiones de calor mientras el rendimiento sigue siendo óptimo.
Los sistemas de refrigeración de serie están diseñados para la cantidad de energía producida durante el uso sin overclocking; los circuitos overclockeados pueden requerir más refrigeración, como por ejemplo mediante ventiladores potentes , disipadores de calor más grandes , tubos de calor y refrigeración por agua . La masa, la forma y el material influyen en la capacidad de un disipador de calor para disipar el calor. Los disipadores de calor eficientes suelen estar hechos completamente de cobre , que tiene una alta conductividad térmica , pero es caro. [5] El aluminio es más utilizado; tiene buenas características térmicas, aunque no tan buenas como el cobre, y es significativamente más barato. Los materiales más baratos, como el acero, no tienen buenas características térmicas. Se pueden utilizar tubos de calor para mejorar la conductividad. Muchos disipadores de calor combinan dos o más materiales para lograr un equilibrio entre rendimiento y coste. [5]
La refrigeración por agua lleva el calor residual a un radiador . Los dispositivos de refrigeración termoeléctricos que refrigeran mediante el efecto Peltier pueden resultar de ayuda en los procesadores de alta potencia de diseño térmico (TDP) fabricados por Intel y AMD a principios del siglo XXI. Los dispositivos de refrigeración termoeléctricos crean diferencias de temperatura entre dos placas haciendo pasar una corriente eléctrica a través de ellas. Este método de refrigeración es muy eficaz, pero genera una cantidad importante de calor en otras partes que debe eliminarse, a menudo mediante un disipador térmico basado en convección o un sistema de refrigeración por agua .
Otros métodos de refrigeración son la convección forzada y la refrigeración por transición de fase , que se utilizan en refrigeradores y se pueden adaptar para su uso en ordenadores. El nitrógeno líquido , el helio líquido y el hielo seco se utilizan como refrigerantes en casos extremos, [6] como intentos de establecer récords o experimentos puntuales en lugar de refrigerar un sistema cotidiano. En junio de 2006, IBM y el Instituto Tecnológico de Georgia anunciaron conjuntamente un nuevo récord en la velocidad de reloj de un chip basado en silicio (la velocidad a la que se puede conmutar un transistor, no la velocidad de reloj de la CPU [7] ) por encima de los 500 GHz, que se consiguió enfriando el chip a 4,5 K (−268,6 °C ; −451,6 °F ) utilizando helio líquido. [8] El récord mundial de frecuencia de CPU, establecido en noviembre de 2012, es de 9008,82 MHz a diciembre de 2022. [9] Estos métodos extremos generalmente no son prácticos a largo plazo, ya que requieren rellenar los depósitos de refrigerante vaporizante y se puede formar condensación en los componentes enfriados. [6] Además, los transistores de efecto de campo de compuerta de unión (JFET) basados en silicio se degradarán por debajo de temperaturas de aproximadamente 100 K (−173 °C; −280 °F) y eventualmente dejarán de funcionar o se "congelarán" a 40 K (−233 °C; −388 °F) ya que el silicio deja de ser semiconductor, [10] por lo que el uso de refrigerantes extremadamente fríos puede hacer que los dispositivos fallen. El soplete se utiliza para aumentar temporalmente la temperatura para evitar problemas de sobreenfriamiento cuando no es deseable. [11] [12]
El enfriamiento por inmersión, utilizado por la supercomputadora Cray-2 , implica sumergir una parte del sistema informático directamente en un líquido frío que es conductor térmico pero tiene baja conductividad eléctrica . La ventaja de esta técnica es que no se puede formar condensación en los componentes. [13] Un buen líquido de inmersión es Fluorinert fabricado por 3M , que es caro. Otra opción es el aceite mineral , pero las impurezas como las del agua pueden hacer que conduzca la electricidad. [13]
Los entusiastas del overclocking amateur han utilizado una mezcla de hielo seco y un disolvente con un punto de congelación bajo, como acetona o alcohol isopropílico . [14] Este baño de enfriamiento , a menudo utilizado en laboratorios, alcanza una temperatura de −78 °C (−108 °F). [15] Sin embargo, esta práctica se desaconseja debido a sus riesgos de seguridad; los disolventes son inflamables y volátiles, y el hielo seco puede causar congelación (a través del contacto con la piel expuesta) y asfixia (debido al gran volumen de dióxido de carbono generado cuando sublima).
Como un componente overclockeado funciona fuera de las condiciones de funcionamiento recomendadas por el fabricante, puede funcionar incorrectamente, lo que genera inestabilidad en el sistema. Otro riesgo es la corrupción silenciosa de datos por errores no detectados. Es posible que dichos fallos nunca se diagnostiquen correctamente y, en cambio, se atribuyan incorrectamente a errores de software en las aplicaciones, los controladores de dispositivos o el sistema operativo. El uso overclockeado puede dañar permanentemente los componentes lo suficiente como para que funcionen mal (incluso en condiciones de funcionamiento normales) sin que queden totalmente inutilizables.
Un estudio de campo a gran escala de 2011 sobre fallas de hardware que causan fallas del sistema en computadoras personales y portátiles mostró un aumento de cuatro a 20 veces (según el fabricante de la CPU) en fallas del sistema debido a fallas de la CPU en computadoras overclockeadas durante un período de ocho meses. [16]
En general, los overclockers afirman que las pruebas pueden garantizar que un sistema overclockeado sea estable y funcione correctamente. Aunque existen herramientas de software para probar la estabilidad del hardware, generalmente es imposible para cualquier individuo particular probar a fondo la funcionalidad de un procesador. [17] Lograr una buena cobertura de fallas requiere un inmenso esfuerzo de ingeniería; incluso con todos los recursos dedicados a la validación por parte de los fabricantes, no siempre se detectan los componentes defectuosos e incluso los fallos de diseño.
Una "prueba de estrés" particular puede verificar únicamente la funcionalidad de la secuencia de instrucciones específica utilizada en combinación con los datos y puede no detectar fallas en esas operaciones. Por ejemplo, una operación aritmética puede producir el resultado correcto pero indicadores incorrectos ; si no se verifican los indicadores, el error no se detectará.
Para complicar aún más las cosas, en tecnologías de proceso como el silicio sobre aislante (SOI), los dispositivos muestran histéresis : el rendimiento de un circuito se ve afectado por los eventos del pasado, por lo que sin pruebas cuidadosamente dirigidas es posible que una secuencia particular de cambios de estado funcione a velocidades de overclocking en una situación pero no en otra, incluso si el voltaje y la temperatura son los mismos. A menudo, un sistema overclockeado que pasa las pruebas de estrés experimenta inestabilidades en otros programas. [18]
En los círculos de overclocking, se utilizan "pruebas de estrés" o "pruebas de tortura" para comprobar el funcionamiento correcto de un componente. Estas cargas de trabajo se seleccionan porque suponen una carga muy alta para el componente de interés (por ejemplo, una aplicación con uso intensivo de gráficos para probar tarjetas de vídeo o diferentes aplicaciones con uso intensivo de matemáticas para probar CPU generales). Las pruebas de estrés más populares incluyen Prime95 , Superpi , OCCT, AIDA64 , Linpack (a través de las GUI LinX e IntelBurnTest ), SiSoftware Sandra, BOINC , Intel Thermal Analysis Tool y Memtest86 . La esperanza es que cualquier problema de corrección funcional con el componente overclockeado se manifieste durante estas pruebas y, si no se detectan errores durante la prueba, el componente se considera "estable". Dado que la cobertura de fallos es importante en las pruebas de estabilidad , las pruebas suelen ejecutarse durante largos períodos de tiempo, horas o incluso días. A veces, una computadora overclockeada se describe utilizando la cantidad de horas y el programa de estabilidad utilizado, como "12 horas estables de primera".
La capacidad de overclocking surge en parte debido a la economía de los procesos de fabricación de las CPU y otros componentes. En muchos casos, los componentes se fabrican mediante el mismo proceso y se prueban después de la fabricación para determinar sus valores nominales máximos reales. A continuación, los componentes se marcan con una clasificación elegida según las necesidades del mercado del fabricante de semiconductores. Si el rendimiento de fabricación es alto, es posible que se produzcan más componentes de mayor clasificación de los necesarios y el fabricante puede marcar y vender componentes de mayor rendimiento como de menor clasificación por razones de marketing. En algunos casos, la verdadera clasificación máxima del componente puede superar incluso al componente de mayor clasificación vendido. Muchos dispositivos vendidos con una clasificación inferior pueden comportarse en todos los sentidos como si tuvieran una clasificación superior, mientras que, en el peor de los casos, el funcionamiento con la clasificación superior puede ser más problemático.
Cabe destacar que las frecuencias de reloj más altas siempre deben significar una mayor generación de calor residual, ya que los semiconductores configurados en valores altos deben descargarse a tierra con mayor frecuencia. En algunos casos, esto significa que el principal inconveniente de la parte overclockeada es que se disipa mucho más calor que los máximos publicados por el fabricante. El arquitecto de Pentium, Bob Colwell, llama al overclocking un "experimento no controlado de funcionamiento del sistema en condiciones mejores que peores". [19]
Los benchmarks se utilizan para evaluar el rendimiento y pueden convertirse en una especie de "deporte" en el que los usuarios compiten por obtener las puntuaciones más altas. Como se ha comentado anteriormente, la estabilidad y la corrección funcional pueden verse comprometidas al hacer overclocking, y los resultados significativos de los benchmarks dependen de la ejecución correcta del benchmark. Por ello, las puntuaciones de los benchmarks pueden calificarse con notas de estabilidad y corrección (por ejemplo, un overclocker puede informar una puntuación, señalando que el benchmark solo se ejecuta hasta el final 1 de cada 5 veces, o que se ven signos de ejecución incorrecta, como corrupción de la pantalla, mientras se ejecuta el benchmark). Una prueba de estabilidad muy utilizada es Prime95, que tiene una comprobación de errores integrada que falla si el equipo es inestable.
Si se utilizan únicamente los resultados de las pruebas comparativas, puede resultar difícil juzgar la diferencia que supone el overclocking en el rendimiento general de un ordenador. Por ejemplo, algunas pruebas comparativas solo prueban un aspecto del sistema, como el ancho de banda de la memoria , sin tener en cuenta cómo unas frecuencias de reloj más altas en este aspecto mejorarán el rendimiento del sistema en su conjunto. Aparte de las aplicaciones exigentes, como la codificación de vídeo, las bases de datos de alta demanda y la informática científica , el ancho de banda de la memoria no suele ser un cuello de botella , por lo que un gran aumento del ancho de banda de la memoria puede pasar desapercibido para un usuario según las aplicaciones que se utilicen. Otras pruebas comparativas, como 3DMark , intentan replicar las condiciones del juego.
El overclocking se ofrece a veces como un servicio o una característica legítima para los consumidores, en la que un fabricante o minorista prueba la capacidad de overclocking de procesadores, memorias, tarjetas de vídeo y otros productos de hardware. Varios fabricantes de tarjetas de vídeo ofrecen ahora versiones de sus aceleradores gráficos overclockeadas de fábrica, con garantía incluida, normalmente a un precio intermedio entre el del producto estándar y el de un producto no overclockeado de mayor rendimiento.
Se especula que los fabricantes implementan mecanismos de prevención de overclocking, como el bloqueo del multiplicador de la CPU , para evitar que los usuarios compren artículos de menor precio y los overclockeen. Estas medidas a veces se comercializan como un beneficio de protección al consumidor , pero a menudo son criticadas por los compradores.
Se venden y publicitan muchas placas base con amplias funciones de overclocking implementadas en el hardware y controladas por la configuración del BIOS . [20]
El bloqueo del multiplicador de CPU es el proceso de establecer permanentemente el multiplicador de reloj de una CPU . Las CPU AMD están desbloqueadas en las primeras ediciones de un modelo y bloqueadas en ediciones posteriores, pero casi todas las CPU Intel están bloqueadas y los modelos recientes [ ¿cuándo? ] son muy resistentes al desbloqueo para evitar el overclocking por parte de los usuarios. AMD envía CPU desbloqueadas con sus chips de escritorio Opteron , FX , All Ryzen (excepto las variantes 3D) y la línea Black Series, mientras que Intel usa los apodos de "Extreme Edition" y "K-Series". Intel generalmente tiene una o dos CPU Extreme Edition en el mercado, así como CPU de la serie X y la serie K análogas a la Black Edition de AMD. AMD tiene la mayoría de su gama de escritorio en una Black Edition.
Los usuarios suelen desbloquear las CPU para permitir el overclocking, pero a veces para permitir el underclocking con el fin de mantener la compatibilidad de la velocidad del bus frontal (en CPU más antiguas) con ciertas placas base. El desbloqueo generalmente invalida la garantía del fabricante y los errores pueden paralizar o destruir una CPU. El bloqueo del multiplicador de reloj de un chip no necesariamente impide que los usuarios realicen overclocking, ya que la velocidad del bus frontal o el multiplicador PCI (en CPU más nuevas) aún se puede cambiar para proporcionar un aumento de rendimiento. Las CPU AMD Athlon y Athlon XP generalmente se desbloquean conectando puentes ( puntos similares a puentes ) en la parte superior de la CPU con pintura conductora o mina de lápiz . Otros modelos de CPU pueden requerir procedimientos diferentes.
Aumentar los relojes del bus frontal o del puente norte/PCI puede hacer overclocking de CPU bloqueadas, pero esto desincroniza muchas frecuencias del sistema, ya que las frecuencias de RAM y PCI también se modifican.
Una de las formas más sencillas de desbloquear las CPU AMD Athlon XP más antiguas se denominaba método pin mod , porque era posible desbloquear la CPU sin modificar permanentemente los puentes. Un usuario podía simplemente poner un cable (o algunos más para un nuevo multiplicador/Vcore) en el zócalo para desbloquear la CPU. Sin embargo, más recientemente, en particular con la arquitectura Skylake de Intel, Intel tuvo un error con los procesadores Skylake (Core de sexta generación) en el que se podía aumentar la frecuencia base por encima de los 102,7 MHz, pero no funcionaban ciertas funciones. Intel tenía la intención de bloquear el overclocking de la frecuencia base (BCLK) de los procesadores bloqueados al diseñar la arquitectura Skylake para evitar que los consumidores compraran componentes más baratos y realizaran overclocking a alturas nunca antes vistas (ya que el BCLK de la CPU ya no estaba vinculado a los buses PCI), sin embargo, para LGA1151, los procesadores "Skylake" de sexta generación podían ser overclockeados por encima de los 102,7 MHz (que era el límite previsto por Intel, y que luego se impuso a través de actualizaciones posteriores del BIOS). [ investigación original? ] Todos los demás procesadores desbloqueados de LGA1151 y v2 (incluidas las generaciones 7, 8 y 9) y BGA1440 permiten el overclocking BCLK (siempre que el OEM lo permita), mientras que todos los demás procesadores bloqueados de las generaciones 7, 8 y 9 no pudieron superar los 102,7 MHz. Sin embargo, la décima generación podía alcanzar los 103 MHz [21] en el BCLK.
This section possibly contains original research. (December 2011) |
This section possibly contains original research. (December 2011) |
El overclocking de componentes solo puede tener un beneficio notable si el componente se encuentra en la ruta crítica de un proceso, si es un cuello de botella. Si el acceso al disco o la velocidad de una conexión a Internet limitan la velocidad de un proceso, es poco probable que se note un aumento del 20 % en la velocidad del procesador; sin embargo, existen algunos escenarios en los que aumentar la velocidad del reloj de un procesador realmente permite leer y escribir en un SSD más rápido. El overclocking de una CPU no beneficiará notablemente a un juego cuando el rendimiento de una tarjeta gráfica es el "cuello de botella" del juego.
De manera similar a los ajustes dinámicos que son fundamentales en la gestión de redes para gestionar el flujo de datos y evitar cuellos de botella, el overclocking del hardware de las computadoras requiere una monitorización y adaptaciones constantes para mantener la estabilidad y el rendimiento del sistema. En sistemas de redes de alto rendimiento, investigadores como Åkerblom et al. (2023) han desarrollado métodos adaptativos como el muestreo de Thompson para optimizar las respuestas del sistema en condiciones variables, de manera análoga a las tecnologías utilizadas en el overclocking, como los ajustes de voltaje en tiempo real y los sistemas de refrigeración adaptativos. Estas tecnologías son cruciales para gestionar las demandas adicionales de calor y energía que imponen los componentes overclockeados, lo que garantiza que el hardware funcione dentro de límites seguros de temperatura y voltaje para evitar daños y prolongar la vida útil de los componentes[1].
Las tarjetas gráficas también pueden ser overclockeadas. Existen utilidades para lograr esto, como Precision de EVGA , RivaTuner , AMD Overdrive ( solo en tarjetas AMD ), MSI Afterburner, Zotac Firestorm y el modo PEG Link en las placas base Asus . El overclocking de una GPU a menudo producirá un aumento marcado en el rendimiento en los puntos de referencia sintéticos, generalmente reflejado en el rendimiento del juego. [25] A veces es posible ver que una tarjeta gráfica está siendo llevada más allá de sus límites antes de que se produzca algún daño permanente al observar artefactos en pantalla o fallas inesperadas del sistema. Es común encontrarse con uno de esos problemas al hacer overclocking de tarjetas gráficas; ambos síntomas al mismo tiempo generalmente significan que la tarjeta está siendo empujada severamente más allá de sus límites de calor, velocidad de reloj y/o voltaje, sin embargo, si se ven cuando no están overclockeadas, indican una tarjeta defectuosa. Después de un reinicio, las configuraciones de video se restablecen a los valores estándar almacenados en el firmware de la tarjeta gráfica y ahora se deduce la velocidad de reloj máxima de esa tarjeta específica.
Algunos overclockers aplican un potenciómetro a la tarjeta gráfica para ajustar manualmente el voltaje (lo que generalmente invalida la garantía). Esto permite realizar ajustes más precisos, ya que el software de overclocking para tarjetas gráficas tiene un límite. Los aumentos excesivos de voltaje pueden dañar o destruir los componentes de la tarjeta gráfica o la tarjeta gráfica en su totalidad (prácticamente hablando).
El flasheo y desbloqueo se puede utilizar para mejorar el rendimiento de una tarjeta de video , sin necesidad de realizar overclocking técnico (pero es mucho más riesgoso que realizar overclocking solo a través del software).
El flasheo se refiere a usar el firmware de una tarjeta diferente con el mismo núcleo (o algunas veces similar) y firmware compatible, convirtiéndola efectivamente en una tarjeta de modelo superior; puede ser difícil y puede ser irreversible. A veces se puede encontrar software independiente para modificar los archivos de firmware, por ejemplo NiBiTor (las series GeForce 6/7 son bien consideradas en este aspecto), sin usar firmware para una tarjeta de video de modelo superior. Por ejemplo, las tarjetas de video con aceleradores 3D (la mayoría, a partir de 2011[update]) tienen dos configuraciones de voltaje y velocidad de reloj , una para 2D y otra para 3D, pero fueron diseñadas para operar con tres etapas de voltaje, siendo la tercera en algún lugar entre las dos mencionadas anteriormente, sirviendo como un respaldo cuando la tarjeta se sobrecalienta o como una etapa intermedia cuando se pasa del modo de operación 2D a 3D. Por lo tanto, podría ser prudente configurar esta etapa intermedia antes de un overclocking "serio", específicamente debido a esta capacidad de respaldo; la tarjeta puede bajar a esta frecuencia de reloj , reduciendo en unos pocos (o algunas docenas, dependiendo de la configuración) porcentajes su eficiencia y enfriarse, sin salir del modo 3D (y luego volver a las configuraciones de reloj y voltaje de alto rendimiento deseadas).
Algunas tarjetas tienen capacidades que no están directamente relacionadas con el overclocking. Por ejemplo, la GeForce 6600GT (versión AGP) de Nvidia tiene un monitor de temperatura que la tarjeta utiliza internamente y que es invisible para el usuario si se utiliza el firmware estándar. Al modificar el firmware, se puede mostrar una pestaña de "Temperatura".
El desbloqueo se refiere a habilitar pipelines adicionales o sombreadores de píxeles . La 6800LE , la 6800GS y la 6800 (solo modelos AGP ) fueron algunas de las primeras tarjetas que se beneficiaron del desbloqueo. Si bien estos modelos tienen 8 o 12 pipelines habilitados, comparten el mismo núcleo de GPU 16x6 que una 6800GT o Ultra, pero los pipelines y sombreadores más allá de los especificados están deshabilitados; la GPU puede estar completamente funcional o puede haberse encontrado que tiene fallas que no afectan el funcionamiento en la especificación más baja. Las GPU que se encuentran completamente funcionales se pueden desbloquear con éxito, aunque no es posible estar seguro de que haya fallas no descubiertas; en el peor de los casos, la tarjeta puede quedar inutilizable de forma permanente .
{{cite journal}}
: Requiere citar revista |journal=
( ayuda )