Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es una tarjeta de expansión para una computadora u ordenador, encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor.
Tras unas semanas llenas de rumores toda la información se confirma: NVidia GTX Titan
es el nombre del nuevo componente de la familia GeForce de tarjetas
gráficas domésticas. La denominación no ha sido elegida al azar, claro:
NVidia ha tomado el nombre del supercomputador que ocupa el primer
puesto del Top500, el Titan del Oak Ridge National Laboratory de Estados Unidos, y lo plasma ahora en su nueva tarjeta gráfica para que sepamos de lo que es capaz de hacer.
NVidia GeForce GTX Titan llega como una tarjeta excepcionalmente potente gracias al núcleo GK110, heredado de la Tesla K20 (y usada en el supercomputador Titan) que trabajará a 837 MHz. con Turbo hasta los 876.
Esta GPU, una de las más esperadas de
todos los tiempos, dispone de 7.100 millones de transistores, está
fabricada en 28 nanómetros y vendrá acompañada de 6 GB de memoria GDDR5
con interfaz a 384 bits. También nos encontraremos una cifra abismal de
núcleos de proceso en paralelo, un total de 2688 núcleos CUDA. El TDP anunciado es de 250 vatios (frente a los 300 de la GTX 690) y requiere de dos conectores de corriente, uno de 6 y el otro de 8 pines.
El diseño de la tarjeta es más cercano al ofrecido por la GTX 690 que al de la GTX 680,
con un sistema de disipación del calor similar al de aquella y el uso
de la misma estética y colores en los respectivos modelos de referencia.
Una de las incógnitas que estaban por desvelar ha terminado saliendo a la luz. Y es el precio: NVidia GTX Titan costará 999 dólares, heredando la cifra propuesta por la GTX 690 que, entendemos, ahora verá reducido su precio.
En definitiva, NVidia Titan es una gráfica rompedora
y que promete un rendimiento terriblemente alto. Perfecta para los que
tengan 1.000 dólares guardados y estén pensando en quemarlos o darse
algún capricho. Para el resto de mortales, como es habitual en este tipo
de productos de gama muy alta, tendremos que conformarnos con otros
modelos más comedidos que no sólo son más baratos si no que también
ofrecen una mejor relación calidad/precio.
La memoria de acceso aleatorio (en inglés: random-access memory)
se utiliza como memoria de trabajo para el sistema operativo, los
programas y la mayoría del software. Es allí donde se cargan todas las
instrucciones que ejecutan el procesador y otras unidades de cómputo. Se
denominan «de acceso aleatorio» porque se puede leer o escribir
en una posición de memoria con un tiempo de espera igual para cualquier
posición, no siendo necesario seguir un orden para acceder a la
información de la manera más rápida posible.
Todos los computadores actuales utilizan memoria para almacenar información y luego procesarla. Este hecho es inherente a la condición de que una computadora sigue la Arquitectura de von Neumann,
formada por unidad de proceso, unidad de memoria y unidad de
entrada/salida, entre otras. Con el paso de los años se han añadido
otros componentes, se han miniaturizado y evolucionado hasta lograr lo
que tenemos en nuestras casas.
La Arquitectura de von Neumann ha sido, es y seguirá siendo la base
de cualquier computador durante muchos años, pero necesita evolucionar y
adaptarse a los tiempos modernos. Por aquí ya hemos hablado múltiples
veces de la locura del mundo del hardware – Microprocesadores Intel de 8 núcleos para otoño, el mundo del hardware se ha vuelto loco – que en ocasiones duplica el rendimiento en unos pocos años de vida. Todo, repito, todo tipo de tecnología necesita evolucionar.
Estas evoluciones suponen, generalmente, un avance significativo
pero no increíble, aunque de vez en cuando hay alguna excepción. Pasó
con los SSD hace unos años y lo próximo será la Intel Hybrid Memory Cube que desmenuzamos a continuación.
La necesidad de mejorar la memoria
Las CPU avanzan a pasos agigantados, las GPU
también lo hacen. El almacenamiento duplica su rendimiento cada dos
años y mejora sus capacidades, e incluso hasta las placas base utilizan
materiales cada vez más resistentes y eficientes. Y todo esto con un
consumo energético que cada vez es menor.
Pero hay un componente que, en palabras de Intel, está cerca de llegar al límite: la memoria DRAM. Es cierto que sigue evolucionando (DDR1, DDR2 y DDR3 en la actualidad, DDR4 en un futuro) pero podría tener los años contados si el Hybrid Memory Cube
tiene éxito. La razón es la estructura bidimensional de los módulos de
memoria que requiere de lentos sistemas de conexión entre los diversos
chips de memoria para interactuar entre ellos. “Lento”, entrecomillado,
pues permite unos cuantos millones de lecturas de ceros y unos por
segundo.
Así pues, ya tenemos uno de los componentes a mejorar: la memoria RAM y su estructura física. Necesitamos cambiar cómo está distribuida la estructura de la memoria, optimizándola y logrando un mejor rendimiento.
Nace Hybrid Memory Cube.
Hybrid Memory Cube, de Intel y Micron
Hybrid Memory Cube está siendo desarrollada por Intel y Micron desde hace algunas meses. A día de hoy tienen algunos prototipos funcionales con los que han conseguido tasas de transferencia de 1 Terabit por segundo
(unos 128 GB/s) y minimizar el impacto energético hasta en siete veces,
lo cual se dice pronto pero es una diferencia increíble. Intel dice que
ya han conseguido prototipos de Hybrid Memory Cube diez veces más rápidos que DDR3 ¿En qué consiste Hybrid Memory Cube? Lo intentaremos explicar de forma sencilla.
La memoria actual utiliza un buffer que es como un
cajón por donde pasa todo el contenido que la memoria ha de tratar. Una
vez que la información está en ese buffer cada chip de memoria se
encarga, por su propia cuenta, de seleccionar qué información coger y
almacenar. Esto es lo que tenemos que cambiar.
Supongamos ahora que en vez de tener los chips de memoria uno junto a otro los apilamos todos juntos,
de forma que estén muy cerca, uno encima de otro, y puedan comunicarse
muy rápidamente entre ellos. Tenemos una pequeña montaña de chips de
memoria en bruto, una especie de torre de chips.
La idea de Intel, además de modificar la estructura bidimensional de
la memoria (que los chips estén uno al lado del otro) y cambiarla a una
tridimensional (chips montados uno encima del otro) es añadir una capa encargada de operar con la información de entrada y enviarla a cada chip de memoria. Nos olvidamos de que los chips de memoria tengan que buscar qué información almacenar, ahora habrá una capa que estará encargada de mandarles la información. Nos quitamos que ellos la busquen, nosotros se la damos. Bueno, la capa de lógica se la da.
Un símil interesante es un niño que va a buscar gominolas al kiosko.
El niño simplemente quiere gominolas, le da igual cuáles, y en vez de
estar el recogiéndolas de las estanterías de la tienda es el kioskero
quien se las da. Por ahí van los tiros.
Mejoras de Hybrid Memory Cube
La mejora está clara: el niño no pierde el tiempo viendo qué chuches
son las que más le interesan, porque él lo que quiere al fin y al cabo
son gominolas. El niño quiere azúcar y el kioskero le da azúcar mucho
más rápido.
En Hybrid Memory Cube ocurre algo similar. Intel y Micron añaden un intermediario que es el encargado de la gestión de la RAM, a dónde va cada grupo de bits que se quiere almacenar en cada momento.
Así que ya tenemos la mejora planteada. Sobre el papel y con el
ejemplo de las chuches y el mocoso que perderá los dientes en unos años
puede parecer sencillo, aunque lógicamente en la realidad es mucho más complejo.
No obstante, la idea es esa y con ella Intel afirma haber conseguido
cifras excelentes, en torno a lo ya comentado anteriormente: transferencias de 1 Tbit por segundo
y, lo que es más interesante aún, mejorar la eficiencia energética en
torno a siete veces. Desde Micron afirman que pueden conseguir un ancho de banda quince veces mayor que el de la RAM actual, un rendimiento veinte veces mayor y algo a lo que generalmente no se le da la suficiente importancia, un 90% menos de espacio físico .
Hybrid Memory Cube, un logro para el futuro
De ser ciertos todos estos datos podríamos estar hablando de uno de
los grandes hitos en la evolución de los computadores en su corta
historia de unos cincuenta años. Un hito comparable a la evolución de
los procesadores multinúcleo o al almacenamiento flash en comparación
con lo procesadores mononúcleo o el almacenamiento magnético.
Hybrid Memory Cube es, a día de hoy, un proyecto en desarrollo
con una pinta interesantísima, pero prototipo al fin y al cabo. No hay
fechas previstas de lanzamiento, ni mucho menos, y todo lo que podemos
afirmar es que llegará algún día. Quizá dentro de cinco o diez años, tal
vez veinte.
Y una vez que empiecen a venderse las primeras unidades que utilicen el modelo Hybrid Memory Cube,
éstas serán excepcionalmente caras y orientadas al sector profesional,
pero siempre ocurre esto: los grandes logros tecnológicos primero han
llegado a las grandes empresas para luego ir descendiendo hasta llegar
al mercado doméstico. Y así será con HMC.
Intel® Atom™ es el nombre de una línea de microprocesadores x86 y x86-64 de Intel, anteriormente denominados Silverthorne/Diamondville. Están diseñados para un proceso de fabricación de 45 nm CMOS y destinados a utilizarse en dispositivos móviles de Internet (MID, por sus siglas en inglés), Ultra-portátiles, Teléfonos inteligentes, y otros portátiles de baja potencia y aplicaciones. Intel anunció su primera versión de procesadores atom el 2 de marzo de 2008.
En Barcelona donde el MWC 2013 está ocupando todas las novedades de estos días, como por otro lado era de esperar. Intel,
quien desde hace un par de años está poniendo gran empeño en ampliar su
catálogo de productos hacia el mercado móvil, ha anunciado hoy dos
novedades en lo referente a este tipo de dispositivos.
La primera se refiere a los nuevos modelos de procesadores Atom para móviles. Hasta hoy teníamos el más potente Z2580 (utilizado en el Lenovo K900) y los Z2420 (mercados emergentes) y Z2460 (la anterior generación). A todos estos ahora se unen dos nuevos modelos: Intel Atom Z2560 y Atom Z2520.
Son dos modelos situados junto al Z2580 (2.0 GHz.), fundamentados en
transistores de 32 nanómetros y pertenecientes a la misma familia Clover Trail+.
Por su numeración se ve claramente que son productos inmediatamente
inferiores a aquel aunque cercanos el rendimiento, con frecuencias de
1.6 y 1.2 GHz., dos núcleos e hyperthreading, gráficos Intel hasta 533
MHz. y soporte para pantallas de hasta 1900×1200 píxeles, pensando en
salidas de vídeo para tablets. Intel también ha confirmado que a finales
de año presentarán nuevos procesadores Atom para móviles con transistores Tri-Gate en 22 nanómetros.
Intel se apunta al LTE
La otra “gran” novedad que Intel nos había preparado para este MWC tiene forma de modem: el Intel XMM 7160
permitirá que los dispositivos que usen la plataforma Intel Atom (tanto
tablets como smartphones) dispongan de la capacidad de conectarse a redes 4G LTE, algo que es habitual en los productos de gama más alta y empieza a serlo en las gamas inferiores.
Intel no ha confirmado qué modelos incluirán esta novedad, pero entendemos que si no es estos días en el MWC será en los próximos meses cuando presenten estas novedades.
La placa base, también conocida como placa madre o tarjeta madre (del inglés motherboard o mainboard) es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora u ordenador. Es una parte fundamental a la hora de armar una PC de escritorio o portátil. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el circuito integrado auxiliar, que sirve como centro de conexión entre el microprocesador, la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos.
Las placas base mini-ITX de Zotac,
así como las de reducido tamaño de otros fabricantes, son siempre
interesantes para montarse un pequeño pero completo equipo. Ofrecen las
características suficientes para satisfacer al usuario medio, y viendo
cómo está la tecnología incluso también al avanzado.
Esta semana, Zotac ha actualizado sus ITX Para AMD Fusion con dos nuevos modelos: Zotac A75-ITX Wifi B-Series y Zotac A55-ITX Wifi B-Series,
que como podréis suponer se trata de dos modelos muy parecidos salvo
por el chipset: el interesante A75 frente al más comedido A55. Ambas
traen el socket FM2 por ahora exclusivo de los últimos procesadores AMD Fusion ‘Trinity’ y, al venir en reducido espacio (recuerdo que mini-ITX
es un formato de 17×17 centímetros), ofrecerán características un tanto
limitadas aunque en principio suficientes para la mayoría.
Las características compartidas entre ambos modelos son las siguientes:
Dos zócalos de memoria RAM DDR3 que admiten hasta los 16 GB (2×8GB).
Un PCI Express x16
Un mini-PCI Express, aunque ocupado por la tarjeta de expansión Wifi. Si no la necesitas la puedes quitar y poner otra cosa
Audio de 8 canales integrado
Salidas de vídeo HDMI y DVI
Wifi 802.11n (con el adaptador mini-PCIe) y Bluetooth 4.0
Las principal diferencia es la relacionada con el controlador, claro. La Zotac A75-ITX Wifi B-Series es algo más potente y permite cuatro puertos SATA 6 Gbps, ocho USB 3.0 (seis traseros) y dos USB 2.0, mientras que la Zotac A55-ITX Wifi B-Series se planta en tecnología algo más anticuada y sólo trae cuatro SATA II, dos USB 2.0 y 8 USB
2.0 (cuatro traseros). También difieren en la cantidad de puertos
Ethernet, dos para la A75 y uno para la A55, aunque entiendo que la
mayoría de usuarios tendrán suficiente con uno de ellos.
Una pequeña revisión para incluir el nuevo socket FM2 y compatibilidad con los AMD Trinity. Estos procesadores integran gráficos AMD y son una muy buena opción para montarse un equipo de bajo coste con un rendimiento aceptable. mini-ITX + AMD Fusion ‘Trinity’
es una muy buena combinación para tener un ordenador barato, pequeño y
en principio suficiente para la inmensa mayoría de tareas cotidianas.
Aqui os dejo un video que tarata de las placas base:
Overclock es un anglicismo de uso habitual en informática que literalmente significa sobre el reloj, es decir, aumentar la frecuencia de reloj de la CPU. La práctica conocida como overclocking (antiguamente conocido como undertiming) pretende alcanzar una mayor velocidad de reloj para un componente electrónico (por encima de las especificaciones del fabricante). La idea es conseguir un rendimiento más alto gratuitamente, o superar las cuotas actuales de rendimiento, aunque esto pueda suponer una pérdida de estabilidad o acortar la vida útil del componente.
Los componentes electrónicos que se fabrican normalmente tiene un margen de seguridad que sirve para asegurar que estos componentes trabajando en esas condiciones y bajo esos parametros no van a sufrit ningún tipo de fallo. No obstante, los componentes pueden trabajar mucho más rapido pero el fabricante ya no garantiza que todos estos productos que ha fabricado funcionen sin problemas a ese rendimiento más exigente.
¿Qué puede pasar si realizamos un overlocking?
Podríamos perder la garantía del fabricante.
Qué funcione pero se caliente más el procesador.
Que se estropee el componente.
Que la velocidad marcada no funcione correctamente.
¿Que opciones hay para realizar el overlocking?
Elevar la frecuencia de base del sistema o FSB lo que redundaría en una subida de la velocidad del micro, memoria y buses.
Subir aisladamente la velocidad del micro, memoria o buses.
Alguna combinación de las anteriores.
Mejorar el rendimiento de otros elementos del equipo.
Formulas: Velocidad del micro = Multiplicador x Velocidad base FSB Velocidad real del FSB = Velocidad base FSB x Índice de aprovechamiento
¿Cómo se debería de hacer el overcloking para que funcione?
El overclocking para que sea seguro debería de hacerse de forma gradual y verificando en cada pequeña subida que el sistema funcione correactamente realizándole una batería o test de tortura. Realizando este test de tortura durante cierto tiempo continuado se puede garantizar la estabilidad del sistema. Durante los test de tortura debemos monitorizar el microprocesador sobre todo mirando la temperatura que está alcanzando para no llegar nunca a temperaturas en las que la salud del micro vaya a verse afectada.
Si se va a aumentar de una forma considerable la velocidad del microprocesador se aconseja cambiar el disipador de serie por otro con mejores caracteriísticas.
Con el programa de overclocking que proporciona el fabricante de la placa base.
Con algún programa especifico para modificar parámetros de overclocking tipo microguru o similar.
A veces puede ser que encontremos problemas al hacer overclocking, bien porque los valores del multiplicador estén fijos en algún valor concreto o que solo permitan underclocking impidiendo subir el valor del multiplicador.
Subir el multiplicado del microprocesador El micrprocesador dunciona a dos velocidades: -Externa: es la velocidad con la que se comunica con la placa base y es la velocidad del FSB. -Interna es la velocidad del FSB multiplicada por el multiplicador. Mediante la variacióhn del multiplicador únicamente modificaremos la velocidad interna del microprocesador, con lo cual no tnedrá efecto sobre otros componentes del equipo.
Recuerda: Existen micros con multiplicador fijo que impiden la modificación del mismo.
Subir la velocidad del FSB En este caso lo que se modifica es la velocidad base del bus FSB. Esta modificación de la velociad base del bus sí tiene efecto sobre otros componentes del equipo com la memoria, la cual funciona en proporción a la velocidad del FSB o lso buses PCI, PCIe o AGP.
Elevar el voltaje
Elevar el voltaje es una de las posibles opciones que tenemos para aumentar la velocidad del sistema. Los expertos aseguran que es la opción más arriesgada puesto que no solo se puede producir un deterioro de los materiales por el aumento claro está del calor producido, sino también por el aumento de la corriente al propio componente. Elevar el voltaje incrementa mucho la posibilidad de electromigración de los componentes.
Existen placas que permiten regular el voltaje y de esta manera se puede aumentar el voltaje que la misma suministra a los componentes, otra forma de hacerlo es mediante la BIOS (en las placas más modernas). No obstante y pese a las advertencias si se opta por este tipo de overclocking, hay que aumentar como mucho 0,1 o 0,2 voltios.
Importante: Hay veces que cuando se aumenta la frecuencia del microprocesador es inevitable subir el voltaje (para estabilizar el sistema). Una subida de la frecuencia u overclock en ocasiones requiere una subida del voltaje pues los componentes demandan más corriente.
Obiamente subir el voltaje implica una mayor probabilidad de electromigración.
Overclocking de la tarjeta gráfica
Muchas veces el cuello de botella en un ordenador se encuentra en la tarjeta gráfica. Si se utiliza el equipo para diseño o simplemente para jugar, el disponer de una tarjeta gráfica con mejores prestaciones hará que todo el equipo vaya mucho más rápido. No obstante el cambio de una tarjeta de video a otra es bastante caro y no queda más remedio que optar por el overclocking.
Opciones para overclockear la tarjeta:
Aumentar la velocidad de la GPU.
Auemntar la velocidad de la memoria de video.
Aumentar ambas.
Estos parámetros se pueden modificar mediante lso drivers de la tarjeta gráfica u otra utilidad como PowerStrip.
Overclocking de la memoria
La memoria funciona a una velocidad proporcional al bus FSB. Para un overclocking de la RAM podemos aumentar la velocidad de FSB o bien modificar la proporción FSB: DRAM.
Acumulador (AC): es el registro que recibe el resultado.
Bit:El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).
Bus de comunicación: es el medio (canal) por el cual se comunican entre si la CPU, la UM, la UE/S, etc.
Bus de control (BC): transfiere datos entre los elementos del ordenador.
Bus de datos (BD):transfiere direcciones entre la UC y UM.
Bus de direcciones (BA): emite las señales de control que gobiernan el funcionamiento de las unidades.
Circuito de control: genera las señales de control necesarias para gobernar el ordenador.
Circuito integrado (Chip): es una pastilla pequeña de material semiconductor, de algunos milímetros cuadrados de área, sobre la que se fabrican circuitos electrónicos generalmente mediante fotolitografía y que está protegida dentro de un encapsulado de plástico o cerámica. El encapsulado posee conductores metálicos apropiados para hacer conexión entre la pastilla y un circuito impreso.
CISC: (Complex Instructions Set Computer) es la tecnología presente en los primeros diseños de la CPU. Se caracteriza por tener un amplio conjunto de instrucciones complejas y potentes.Computadora Analógica: es un tipo de computadora que utiliza dispositivos electrónicos o mecánicos para modelar el problema que resuelven utilizando un tipo de cantidad física para representar otra.
Computadora Digital: es una máquina electrónica que recibe y procesa datos para convertirlos en información útil.
Computadora Híbrida: son las combinaciones de un componen digital y un componente analógico.
Controlador: gestiona directamente el periférico. Es un sistema electrónico o mecánico que suele ir integrado en el propio periférico.
Decodificador: interpreta la instrucción y determina el conjunto de órdenes necesarias para llevarla a cabo.
Firmware:es un bloque de instrucciones de máquina para propósitos específicos, grabado en una memoria de tipo de solo lectura (ROM, EEPROM, flash, etc), que establece la lógica de más bajo nivel que controla los circuitoselectrónicos de un dispositivo de cualquier tipo.
Hardware: el término hardware se refiere a todas las partes tangibles de un sistema informático, es decir, sus componentes.
Humanware: la parte humana de un sistema informáticos. Se divide entre profesionales informáticos y usuarios.
Informatica: es una contracción de las palabras information y automatic (información automática). En lo que hoy día conocemos como informática confluyen muchas de las técnicas, procesos y máquinas (ordenadores) que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar su capacidad de memoria, de pensamiento y de comunicación.
Interfaz: se encarga de gestionar el intercambio de información entre el periférico y la CPU.
Mainframe: son servidores de gama alta. Son rápidos y caros sistemas que son capaces de controlar cientos de usuarios simultáneamente.
Memoria Auxiliar: esta memoria se usa como soporte de respaldo de información, pudiendo situarse en medios extraíbles o en la red.
Memoria Caché: memoria intermedia entre la UM y la CPU utilizada como apoyo para acelerar los accesos de la CPU a la UM.
Memoria integrada: Una memoria propia de la CPU que no es la memoria RAM.
Memoria Principal (RAM): Es el bloque que constituye realmente la UM. Se emplea para almacenar datos y programas de forma temporal.
Memoria de registros: Es una memoria de alta velocidad y baja capacidad utilizada para el almacenamiento intermedio de datos en la unidades funcionales, especialmente en la UC y la UAL.
Memoria Secundaria: También llamada memoria de disco, se utiliza para almacenar información de forma permanente, por lo que es de alta capacidad.
Miniordenador:También llamados servidores, son equipos con mayores prestaciones que un PC, que permiten simultáneamente el uso de decenas de usuarios.:
Operación de escritura:operación que se realiza al introducir información en la memoria.
Operación de lectura: operación que se realiza al acceder a la información almacenada en la memoria.
Operador:es el elemento principal de la UAL. Es un componente electrónico cuya misión es realizar un cálculo. Los operadores se pueden clasificar según su ámbito, el numero de operandos y su capacidad de operar.
Periféricos de entrada:con ellos el usuario introduce la información en el ordenador. (Ratón, teclado, micrófono,etc)
Periféricos de salida:son utilizados por el ordenador para mostrar la información al usuario. (Pantalla, impresora, altavoces,etc)
Placa base: La placa base es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora u ordenador. Es una parte fundamental a la hora de armar un PC de escritorio o portátil. Tiene instalados una serie de circuitos integrados.
Protocolo: En informática, para que dos equipos puedan comunicarse a través de una red deben utilizar una serie de normas que aseguren el envío de un mensaje del equipo remitente al equipo receptor. Al conjunto de normas que regula dicha comunicación se le denomina protocolo. En las redes informáticas existen distintos tipos de protocolos.
Registro de direcciones (RD): Se utiliza para almacenar de forma temporal la dirección de memoria de un dato o instrucción.
Registro de datos (RM): Almacena temporalmente cualquier dato o instrucción que se intercambie con la memoria.
Registros de la Unidad de Control: son utilizados pro el circuito de control para labores auxiliares diversas (resultados, intercambios, direcciones,etc).
Reloj: es un circuito que genera pulsos, los cuales marcan la temporización básica del sistema. Se utiliza como elemento sincronizador de todos los movimiento del sistema.
RISC:Reduced Instructions Set Computer es la tecnología que se caracteriza por tener un conjunto de instrucciones no muy complejas, la mayoría completadas en un ciclo de reloj.
Sistema Binario: El sistema binario, en ciencias e informática, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se utiliza en las computadoras, debido a que trabajan internamente con dos niveles de voltaje, por lo cual su sistema de numeración natural es el sistema binario (encendido 1, apagado 0).
Secuenciador: Distribuye de forma ordenada las señales de control correspondientes a cada orden recibida.
Servidor: En informática, un servidor es una computadora que forma parte de una red, provee servicios a otras computadoras denominadas clientes.
Sistema Operativo: es el conjunto de componentes hardware necesarios para la explotación de las aplicaciones informáticas o software.
Software: Se conoce como software al equipamiento lógico o soporte lógico de un sistema informático, comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos, que son llamados hardware.
Superordenador: Es el tipo de computadora más potente, más rápida y más cara que existe actualmente y de elevadísimas prestaciones.
Transistor: El transistor es un dispositivo electrónico semiconductor que cumple funciones de amplificador, oscilador, conmutador o rectificador. Actualmente se encuentran prácticamente en todos los aparatos electrónicos de uso diario.
Unidad Aritmético-Lógica (UAL):La UAL es un circuito digital que calcula operaciones aritméticas (como suma, resta, multiplicación, etc.) y operaciones lógicas (si, y, o, no), entre dos números.
Unidad Central de Proceso (CPU) o microprocesador: La CPU es el componente principal del ordenador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Proporciona la característica fundamental del ordenador digital y son uno de los componentes necesarios encontrados en los ordenadores de cualquier tiempo.
Unidad de Control (UC): Launidad de control es uno de los tres bloques funcionales principales en los que se divide una unidad central de procesamiento.
Unidad de Entrada y Salida (UE/S): su misión es realizar las operaciones de introducción y extracción de información en el ordenador.
Unidad de Memoria (UM):la unidad de memoria es aquella memoria de un ordenador, donde se encuentran el código de instrucciones y los datos del programa, que es ejecutado actualmente.
WWW: La World Wide Web es un sistema de distribución de información basado en hipertexto o hipermedios enlazados y accesibles a través de Internet. Con un navegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener texto, imágenes... y navega a través de ellas usando hiperenlaces.
En 1928 la empresa Fairchild y Texas Instruments produjeron los
primeros circuitos integrados basados en semiconductores. Las primeras
computadoras, incluyeron a la ENIAC,
el Electronic Numerical Integrator and Computer, que en 1943 comenzaron
a construir John W. Mauchly y John P. Eckert en la universidad de
Pensilvania (EE.UU.). Esta enorme máquina medía más de 30 metros de
largo y pesaba 32 toneladas, estaba compuesta por 17.468 válvulas. El
calor de las válvulas elevaba la temperatura de la sala donde se hallaba
instalada hasta los 50º C. y para que llevase a cabo las operaciones
para las que se había diseñado. Cuando la ENIAC se terminó en 1946, la
II Guerra Mundial ya había terminado. El fin de la contienda hizo que
los esfuerzos hasta entonces dedicados principalmente a objetivos
militares, se destinaran también a otro tipo de investigación científica
más relacionada con las necesidades de la empresa privada. Los
esfuerzos múltiples dieron resultados en 1945 Mauchly y Eckert
comenzaron a trabajar en una sucesora de la ENIAC, el EDVAC (Electronic
Discrete Variable Automatic Computer) y Aiken inició el diseño de la Mark II. En 1951, el que está considerado como la primera computadora que se llamo saly ampliamente comercializada, la UNIVAC I,
comenzó a funcionar con éxito. En 1952 la computadora UNIVAC se utilizó
para realizar el recuento de votos en las elecciones presidenciales de
EE.UU. El resultado victoria (Eisenhower sobre Adlai Stevenson) se
conoció 45 minutos después de que se cerraran los colegios electorales.
En 1952 entra en funcionamiento la primera de las llamadas IAS machines, diseñadas por John von Neumann
y que incorporaban notables mejoras respecto a sus predecesoras y en
1962, Steven Russell creó el primer juego para computadoras, Spacewar.
Primera Generación (1940-1954)
En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:
Usaban tubos al vacío para procesar información.
Usaban tarjetas perforadas para entrar los datos y los programas.
Usaban cilindros magnéticos para almacenar información e instrucciones internas.
Eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad de calor y eran sumamente lentas.
Se comenzó a utilizar el sistema binario para representar los datos.
En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10,000 dólares).La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.
Segunda Generación (1955-1963)
En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas computadoras se programaban con cinta perforadas y otras por medio de cableado en un tablero.
Características de está generación:
Usaban transistores para procesar información.
Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío.
200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío.
Usaban pequeños anillos magnéticos para almacenar información e instrucciones. cantidad de calor y eran sumamente lentas.
Se mejoraron los programas de computadoras que fueron desarrollados durante la primera generación.
Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales eran comercialmente accsesibles.
Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico aéreo y simulaciones de propósito general.
La marina de los Estados Unidos desarrolla el primer simulador de vuelo, "Whirlwind I".
Surgieron las minicomputadoras y los terminales a distancia.
Se comenzó a disminuir el tamaño de las computadoras.
Tercera Generación (1964-1970)
La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. El ordenador IBM-360 dominó las ventas de la tercera generación de ordenadores desde su presentación en 1965. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador.
Características de está generación:
Se desarrollaron circuitos integrados para procesar información.
Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores.
Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas eléctricas.
Surge la multiprogramación.
Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis matemáticos.
Emerge la industria del "software".
Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1.
Otra vez las computadoras se tornan más pequeñas, más ligeras y más eficientes.
Consumían menos electricidad, por lo tanto, generaban menos calo
Cuarta Generación (1971-1983)
Aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".
Características de está generación:
Se desarrolló el microprocesador.
Se colocan más circuitos dentro de un "chip".
"LSI - Large Scale Integration circuit".
"VLSI - Very Large Scale Integration circuit".
Cada "chip" puede hacer diferentes tareas.
Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. El tercer componente, la memoria primaria, es operado por otros "chips".
Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio.
Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.
Se desarrollan las supercomputadoras.
Quinta Generación (1984 -1989 )
Surge la PC tal cual como la conocemos en la actualidad. IBM presenta su primera computadora personal y revoluciona el sector informativo.En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras.
Computadoras personales
La historia de las computadoras personales se remonta a algunas décadas mas atrás y normalmente suele indicarse 1976 como el año de partida. John P.Eckert colaboró en algunas investigaciones en el campo de la computación. John von Neumann que además de cómo consultor en el diseño de la ENIAC, colaboró en la fabricación de la bomba atómica durante la II Guerra Mundial recibiendo un premio de manos del presidente Eisenhower.
La IBM PC fue la primera computadora personal de IBM. Se basaba en el procesador Intel 8086 de 16 bits a 4,7 MHz Y llegó a ser una computadora muy popular. Su precio era de 3285 dólares de la época. Hoy una computadora con infinitas prestaciones cuesta 10 veces menos.
SEXTA Generación (1999 hasta la fecha )
Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.
Video:
Un pequeño resumen de las diferentes generaciones de computadoras.