El
uso de un software tiene sus condiciones conocidas como Licencia de Uso. Hay
que aceptar dicha licencia para poder instalar y/o usar un programa. La
licencia es un tipo de contrato dónde viene establecidas las normas de uso por
el creador del programa y el usuario que lo va a usar.
El software de propietario es un software que pertenece a un individuo o empresa
no se puede ni modificar, ni vender. Mientras que el software libre es un
software que tiene un autor, el cual ha permitido que se pueda ver y/o
modificar, mejorar el código fuente de su programa.
El
software de propietario tiene algunos subtipos de su software. Por ejemplo:
-El software de demostración (demo
o trial): es una versión de prueba del programa limitada en las funciones del programa. Se pueden copiar y distribuir como se desea.
-Shareware se puede probar gratis el programa limitado en numero de usos o tiempo. Es ilegal usar el programa una vez terminado el periodo de prueba.
-El freeware es un software
gratuito que carece de garantá y se puede distribuir como se desee.
El
software de propietario requiere de una clave, CD-KEY, para poder ser instalado
y/o utilizado.
El
primer software libre de licencia libre es Linux un S.O. destinado al uso libre
y a la modificación para mejorar o aplicar a los usos que quiere cada persona.
Para
controlar este tipo de software hay una fundación, la FSF, creada por Richard Stallman, que se encarga de la
distribución. Hay distintos tipos de software libre pero lo que los engloba a
todos es que son de licencia libre, hay acceso al código fuente y/o se puede
modificar, si se modifica tanto como para mejorar el programa como para
adaptarlo a usos diferentes mejor y es recomendable compartirlo en la web para
ayudar a los demás. En la mayoría hay copyright, en algunos la licencia se
hereda en otras no, pero todos tienen su autor o creador y s mantiene su
nombre.
En el ámbito de trabajo de un administrador de sistemas el tipo de
software más utilizado e importante es el Sistema Operativo ya que sin
este no podríamos utilizar el ordenador prácticamente y mucho menos utilizar otro
software en ese equipo. El Sistema Operativo más utilizado sobretodo en el uso
domestico es Windows, pero también se utiliza muchísimo a Linux sobre todo para
trabajos más dedicados.
En segundo lugar de importancia yo situaría el software de seguridad.
Más concretamente los antivirus. La seguridad es fundamental en un
equipo, tiene que estar muy bien protegido ya que los virus puede venir de
cualquier parte: Internet, pendrives, CDs, DVDs, etc. Los virus podrían causar
daños que no afecten en nada nuestro trabajo como afectar una sola imagen, pero
también podría darse el caso de que destrocen nuestro sistema operativo
afectando carpetas con archivos fundamentales como es la carpeta System32. Como
ejemplo de antivirus muy conocidos y frecuentemente utilizados tenemos a Norton
Security, Avast, y en el entorno empresarial F-Secure.
Otro tipo de software que se utiliza por los administradores de
sistemas es el software de virtualización ya que nos permite utilizar
distintos tipos de sistemas operativo sin tenerlos instalados en el equipo.
Tenemos como referencia de este tipo de software a VMware y VirtualBox.
También los editores de código también son una herramienta muy
útil ya que nos permiten crear programas, diseñar páginas web, etc. Como
ejemplos de este tipo se software tenemos Netbeans, Notepad++, Xml copy editor,
etc.
En cuanto a redes, es común usar software de control de redes como Wireshark,
que es el software de captura y análisis de información de red más conocido.
Por otra parte un administrador de sistemas también tendría que
dominar los gestores de bases de datos. Son muy importantes, ya que en
software de este tipo se contiene muchísima información de todo tipo. Es muy
importante dominar esto ya que según como planteamos nuestra base de datos en un
principio condiciona mucho la entrada de los datos que podemos introducir en el
futuro y muchas veces hace falta trasladar toda la información de una base de
datos solo por estar mal planteada. Los programas de este tipo software más
utilizados son Oracle, MySql y Acces.
Los compresores y descompresorestambién son muy útiles a la hora de tener que mandar o almacenar archivos
de gran tamaño. Los programas más conocidos de este tipo de software son WinZip
y WinRAR, etc.
Un disco óptico es un formato óptico de almacenamiento de datos digital, que consiste en un disco circular en el cual la información se codifica, se guarda y almacena, haciendo unos surcos microscópicos con un láser sobre una de las caras planas que lo componen.
Una universidad australiana está estudiando nuevos soportes ópticos
de almacenamiento masivo. Y tan masivo: ya han conseguido almacenar 1.6 TB de información en un disco de 8 12 centímetros, el mismo tamaño de CDs, DVDs e incluso de los Blu-Ray convencionales.
Han conseguido almacenar tal cantidad de información gracias
a utilizar, además de las técnicas de los actuales sistemas de soporte,
otros parámetros ópticos como el ángulo de incidencia o la cantidad de
luz del láser. Lógicamente es un sistema mucho más complejo que esta
breve explicación, pero dicen que aún podrían mejorarlo mucho más para
conseguir capacidades de hasta 10 TB por disco.
Uno de los principales inconvenientes que puede tener este sistema
es que, al tener una densidad de datos mucho mayor que los discos
ópticos actuales, los sensores de lectura tienen que ser mucho más
sensibles, permitiendo leer espacios del disco mucho más pequeños que,
por ejemplo, en un DVD de datos. Con los grabadores existirían dificultades similares.
También estaríamos ante la problemática que siempre nos encontramos
cuando se presenta una evolución en almacenamiento óptico: al mantener
el tamaño del disco y ganar espacio, la densidad de datos por unidad de
superficie es mucho mayor, y un mínimo rayón podría echar a perder
millones de bits de información. Afortunadamente, las capas de
protección que los fabricantes aplican a los discos están funcionando
bastante bien, y por ejemplo a día de hoy es bastante complicado rayar
un Blu-Ray, mientras que los compact discs de hace años se rayaban casi con la mirada. Samsung ha mostrado interés por el desarrollo de estos discos ópticos de 1.6 TB de capacidad,
aunque aún hay muchos aspectos que mejorar y el lanzamiento al público
de esta tecnología no está ni mucho menos cercana. Quizá para dentro de
cinco o seis años podamos ver algún producto final, aunque por otro lado
y siendo pesimista es posible, incluso, que todo quede en agua de borrajas
y aún sea muy pronto para dar el salto desde los 50 GB de los Blu-Ray
de doble capa, hasta estos nuevos discos ópticos de 1.600 GB cada uno.
Esta es mi parte del trabajo sobre las tarjetas de expansión, trata sobre las tarjetas gráficas. Consta de bastantes contenidos y dos videos interesantes y muy faciles de entender.
Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es una tarjeta de expansión para una computadora u ordenador, encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor.
Tras unas semanas llenas de rumores toda la información se confirma: NVidia GTX Titan
es el nombre del nuevo componente de la familia GeForce de tarjetas
gráficas domésticas. La denominación no ha sido elegida al azar, claro:
NVidia ha tomado el nombre del supercomputador que ocupa el primer
puesto del Top500, el Titan del Oak Ridge National Laboratory de Estados Unidos, y lo plasma ahora en su nueva tarjeta gráfica para que sepamos de lo que es capaz de hacer.
NVidia GeForce GTX Titan llega como una tarjeta excepcionalmente potente gracias al núcleo GK110, heredado de la Tesla K20 (y usada en el supercomputador Titan) que trabajará a 837 MHz. con Turbo hasta los 876.
Esta GPU, una de las más esperadas de
todos los tiempos, dispone de 7.100 millones de transistores, está
fabricada en 28 nanómetros y vendrá acompañada de 6 GB de memoria GDDR5
con interfaz a 384 bits. También nos encontraremos una cifra abismal de
núcleos de proceso en paralelo, un total de 2688 núcleos CUDA. El TDP anunciado es de 250 vatios (frente a los 300 de la GTX 690) y requiere de dos conectores de corriente, uno de 6 y el otro de 8 pines.
El diseño de la tarjeta es más cercano al ofrecido por la GTX 690 que al de la GTX 680,
con un sistema de disipación del calor similar al de aquella y el uso
de la misma estética y colores en los respectivos modelos de referencia.
Una de las incógnitas que estaban por desvelar ha terminado saliendo a la luz. Y es el precio: NVidia GTX Titan costará 999 dólares, heredando la cifra propuesta por la GTX 690 que, entendemos, ahora verá reducido su precio.
En definitiva, NVidia Titan es una gráfica rompedora
y que promete un rendimiento terriblemente alto. Perfecta para los que
tengan 1.000 dólares guardados y estén pensando en quemarlos o darse
algún capricho. Para el resto de mortales, como es habitual en este tipo
de productos de gama muy alta, tendremos que conformarnos con otros
modelos más comedidos que no sólo son más baratos si no que también
ofrecen una mejor relación calidad/precio.
La memoria de acceso aleatorio (en inglés: random-access memory)
se utiliza como memoria de trabajo para el sistema operativo, los
programas y la mayoría del software. Es allí donde se cargan todas las
instrucciones que ejecutan el procesador y otras unidades de cómputo. Se
denominan «de acceso aleatorio» porque se puede leer o escribir
en una posición de memoria con un tiempo de espera igual para cualquier
posición, no siendo necesario seguir un orden para acceder a la
información de la manera más rápida posible.
Todos los computadores actuales utilizan memoria para almacenar información y luego procesarla. Este hecho es inherente a la condición de que una computadora sigue la Arquitectura de von Neumann,
formada por unidad de proceso, unidad de memoria y unidad de
entrada/salida, entre otras. Con el paso de los años se han añadido
otros componentes, se han miniaturizado y evolucionado hasta lograr lo
que tenemos en nuestras casas.
La Arquitectura de von Neumann ha sido, es y seguirá siendo la base
de cualquier computador durante muchos años, pero necesita evolucionar y
adaptarse a los tiempos modernos. Por aquí ya hemos hablado múltiples
veces de la locura del mundo del hardware – Microprocesadores Intel de 8 núcleos para otoño, el mundo del hardware se ha vuelto loco – que en ocasiones duplica el rendimiento en unos pocos años de vida. Todo, repito, todo tipo de tecnología necesita evolucionar.
Estas evoluciones suponen, generalmente, un avance significativo
pero no increíble, aunque de vez en cuando hay alguna excepción. Pasó
con los SSD hace unos años y lo próximo será la Intel Hybrid Memory Cube que desmenuzamos a continuación.
La necesidad de mejorar la memoria
Las CPU avanzan a pasos agigantados, las GPU
también lo hacen. El almacenamiento duplica su rendimiento cada dos
años y mejora sus capacidades, e incluso hasta las placas base utilizan
materiales cada vez más resistentes y eficientes. Y todo esto con un
consumo energético que cada vez es menor.
Pero hay un componente que, en palabras de Intel, está cerca de llegar al límite: la memoria DRAM. Es cierto que sigue evolucionando (DDR1, DDR2 y DDR3 en la actualidad, DDR4 en un futuro) pero podría tener los años contados si el Hybrid Memory Cube
tiene éxito. La razón es la estructura bidimensional de los módulos de
memoria que requiere de lentos sistemas de conexión entre los diversos
chips de memoria para interactuar entre ellos. “Lento”, entrecomillado,
pues permite unos cuantos millones de lecturas de ceros y unos por
segundo.
Así pues, ya tenemos uno de los componentes a mejorar: la memoria RAM y su estructura física. Necesitamos cambiar cómo está distribuida la estructura de la memoria, optimizándola y logrando un mejor rendimiento.
Nace Hybrid Memory Cube.
Hybrid Memory Cube, de Intel y Micron
Hybrid Memory Cube está siendo desarrollada por Intel y Micron desde hace algunas meses. A día de hoy tienen algunos prototipos funcionales con los que han conseguido tasas de transferencia de 1 Terabit por segundo
(unos 128 GB/s) y minimizar el impacto energético hasta en siete veces,
lo cual se dice pronto pero es una diferencia increíble. Intel dice que
ya han conseguido prototipos de Hybrid Memory Cube diez veces más rápidos que DDR3 ¿En qué consiste Hybrid Memory Cube? Lo intentaremos explicar de forma sencilla.
La memoria actual utiliza un buffer que es como un
cajón por donde pasa todo el contenido que la memoria ha de tratar. Una
vez que la información está en ese buffer cada chip de memoria se
encarga, por su propia cuenta, de seleccionar qué información coger y
almacenar. Esto es lo que tenemos que cambiar.
Supongamos ahora que en vez de tener los chips de memoria uno junto a otro los apilamos todos juntos,
de forma que estén muy cerca, uno encima de otro, y puedan comunicarse
muy rápidamente entre ellos. Tenemos una pequeña montaña de chips de
memoria en bruto, una especie de torre de chips.
La idea de Intel, además de modificar la estructura bidimensional de
la memoria (que los chips estén uno al lado del otro) y cambiarla a una
tridimensional (chips montados uno encima del otro) es añadir una capa encargada de operar con la información de entrada y enviarla a cada chip de memoria. Nos olvidamos de que los chips de memoria tengan que buscar qué información almacenar, ahora habrá una capa que estará encargada de mandarles la información. Nos quitamos que ellos la busquen, nosotros se la damos. Bueno, la capa de lógica se la da.
Un símil interesante es un niño que va a buscar gominolas al kiosko.
El niño simplemente quiere gominolas, le da igual cuáles, y en vez de
estar el recogiéndolas de las estanterías de la tienda es el kioskero
quien se las da. Por ahí van los tiros.
Mejoras de Hybrid Memory Cube
La mejora está clara: el niño no pierde el tiempo viendo qué chuches
son las que más le interesan, porque él lo que quiere al fin y al cabo
son gominolas. El niño quiere azúcar y el kioskero le da azúcar mucho
más rápido.
En Hybrid Memory Cube ocurre algo similar. Intel y Micron añaden un intermediario que es el encargado de la gestión de la RAM, a dónde va cada grupo de bits que se quiere almacenar en cada momento.
Así que ya tenemos la mejora planteada. Sobre el papel y con el
ejemplo de las chuches y el mocoso que perderá los dientes en unos años
puede parecer sencillo, aunque lógicamente en la realidad es mucho más complejo.
No obstante, la idea es esa y con ella Intel afirma haber conseguido
cifras excelentes, en torno a lo ya comentado anteriormente: transferencias de 1 Tbit por segundo
y, lo que es más interesante aún, mejorar la eficiencia energética en
torno a siete veces. Desde Micron afirman que pueden conseguir un ancho de banda quince veces mayor que el de la RAM actual, un rendimiento veinte veces mayor y algo a lo que generalmente no se le da la suficiente importancia, un 90% menos de espacio físico .
Hybrid Memory Cube, un logro para el futuro
De ser ciertos todos estos datos podríamos estar hablando de uno de
los grandes hitos en la evolución de los computadores en su corta
historia de unos cincuenta años. Un hito comparable a la evolución de
los procesadores multinúcleo o al almacenamiento flash en comparación
con lo procesadores mononúcleo o el almacenamiento magnético.
Hybrid Memory Cube es, a día de hoy, un proyecto en desarrollo
con una pinta interesantísima, pero prototipo al fin y al cabo. No hay
fechas previstas de lanzamiento, ni mucho menos, y todo lo que podemos
afirmar es que llegará algún día. Quizá dentro de cinco o diez años, tal
vez veinte.
Y una vez que empiecen a venderse las primeras unidades que utilicen el modelo Hybrid Memory Cube,
éstas serán excepcionalmente caras y orientadas al sector profesional,
pero siempre ocurre esto: los grandes logros tecnológicos primero han
llegado a las grandes empresas para luego ir descendiendo hasta llegar
al mercado doméstico. Y así será con HMC.