viernes, 17 de mayo de 2013

lunes, 13 de mayo de 2013

Tipos de Monitores

-CRT:
El monitor CRT, también llamado pantalla de rayos catódicos ó pantalla catódica, es la primer tecnología desarrollada para los primeros televisores blanco y negro, durante el año de 1923; mientras que la televisión a color la desarrolla y patenta el mexicano Ing. Jorge González Camarena en 1940. Los monitores CRT utilizados en las computadoras, inicialmente solo permitían la visualización de imágenes monocrómáticas, esto es, combinando el color negro con blanco, verde ó ámbar; posteriormente se introducen los monitores a color. Las siglas CRT significan ("Catodic Ray Tube") ó tubo de rayos catódicos. El monitor CRT es un dispositivo que permite la visualización de imágenes procedentes de la computadora, por medio del puerto de video hasta los circuitos del monitor. Una vez procesada la información procedente de la computadora, los gráficos son creados por medio de un cañón que lanza electrones contra una pared de fósforo dónde chocan generando una pequeña luz de color.

-LCD:

La tecnología LCD no es empleada sólo en los monitores para computadoras. En el mercado, es posible encontrar dispositivos portátiles (como consolas de video, teléfonos celulares, calculadoras, cámaras digitales y handhelds) cuya pantalla es LCD. Además de eso, vale acordarse que las notebooks utilizan esta tecnología hace años.
Esto sucede porque la tecnología LCD permite mostrar imágenes monocromáticas o color y animaciones en prácticamente cualquier dispositivo, sin la necesidad de un tubo de imagen, como sucede con los monitores CRT.


- PLASMA:
Una pantalla de plasma (PDP: plasma display panel) es un dispositivo de pantalla plana habitualmente usada en televisores de gran formato (de 37 a 70 pulgadas). También hoy en día es utilizado en televisores de pequeños formatos, como 22, 26 y 32 pulgadas. Una desventaja de este tipo de pantallas en grandes formatos, como 42, 45, 50, y hasta 70 pulgadas, es la alta cantidad de calor que emanan, lo que no es muy agradable para un usuario que guste de largas horas de televisión o videojuegos. Consta de muchas celdas diminutas situadas entre dos paneles de cristal que contienen una mezcla de gases nobles (neón y xenón). El gas en las celdas se convierte eléctricamente en plasma, el cual provoca que una substancia fosforescente (que no es fósforo) que puede emitir luz.

- DLP:
Se basa en un semiconductor óptico llamado Digital Micromirror Device, o integrado DMD es básicamente un microinterruptor extremadamente exacto que permite modular digitalmente la luz mediante millones de espejos microscópicos dispuestos en un colector rectangular. Cada espejo esta separado de su vecina menos de 1 micrón. Estos espejos son literalmente capaces de activarse miles de veces por segundo y se utilizan para dirigir la luz hacia un espacio específico de un pixel. La duración de la sincronización de encendido/apagado determina el nivel del gris que muestra el pixel. Los integrados actuales de DMD pueden producir hasta 1024 grados de gris.

- LED:
Es un dispositivo semiconductor, el cual emite luz de manera incoherente y  luminiscente,  es decir, es  como una pequeña campanita de cristal pintado relleno de un elemento que al recibir la electricidad se ilumina. Tienen una luz muy focalizada, es decir, en una dirección.  Un led por si solo no alumbra demasiado, sin embargo, muchos de ellos juntos dan una luz muy pura y eficaz.  Los monitores led están formados por un conjunto de led que al recibir el impulso electrico se iluminan. Tienen muchas ventajas, ya que no se funden como ocurre con los pixeles, permiten fabricar pantallas extremadamente planas y con una gran calidad.

viernes, 10 de mayo de 2013

Componentes Internos del Gabinete


Fuente:


En electrónica, una fuente de alimentación es un dispositivo que convierte la tensión alterna de la red de suministro, en una o varias tensiones, prácticamente continuas, que alimentan los distintos circuitos del aparato electrónico al que se conecta (ordenador, televisor, impresora, router, etc.).






Placa Madre: 


La placa base, también conocida como placa madre o tarjeta madre (del inglés motherboard o mainboard) es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora u ordenador. Es una parte fundamental a la hora de armar una PC de escritorio o portátil. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el circuito integrado auxiliar, que sirve como centro de conexión entre el microprocesador, la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos.
Va instalada dentro de una caja o gabinete que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja.
La placa base, además, incluye un firmware llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.

Procesador: 

El microprocesador (o simplemente procesador) es el circuito integrado central y más complejo de un sistema informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de un computador. Es un circuito integrado conformado por millones de componentes electrónicos. Constituye la unidad central de procesamiento (CPU) de un PC catalogado como microcomputador.

Es el encargado de ejecutar los programas, desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicas simples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.
Esta unidad central de procesamiento está constituida, esencialmente, por registros, una unidad de control, una unidad aritmético lógica (ALU) y una unidad de cálculo en coma flotante(conocida antiguamente como «co-procesador matemático»).
El microprocesador está conectado generalmente mediante un zócalo específico de la placa base de la computadora; normalmente para su correcto y estable funcionamiento, se le incorpora un sistema de refrigeración que consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que eliminan el exceso del calor absorbido por el disipador. Entre el disipador y la cápsula del microprocesador usualmente se coloca pasta térmica para mejorar la conductividad del calor. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de células peltier para refrigeración extrema, aunque estas técnicas se utilizan casi exclusivamente para aplicaciones especiales, tales como en las prácticas de overclocking.

Memoria RAM: 

La memoria de acceso aleatorio (en inglés: random-access memory) se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible. Durante el encendido del computador, la rutina POST verifica que los módulos de memoria RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres emiten una serie de pitidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma.

HDD:

En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.
El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 1960.1 Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.1
Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5 " los modelos para PC y servidores, 2,5 " los modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando una interfaz estandarizado. Los más comunes hasta los años 2000 han sido IDE (también llamado ATA o PATA), SCSI (generalmente usado en servidores y estaciones de trabajo). Desde el 2000 en adelante ha ido masificándose el uso de los Serial ATA. Existe además FC (empleado exclusivamente en servidores).
Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que dependerá del formato empleado. Además, los fabricantes de discos duros, unidades de estado sólido y tarjetas flash miden la capacidad de los mismos usando prefijos SI, que emplean múltiplos de potencias de 1000 según la normativa IEC y IEEE, en lugar de los prefijos binarios, que emplean múltiplos de potencias de 1024, y son los usados por sistemas operativos de Microsoft. Esto provoca que en algunos sistemas operativos sea representado como múltiplos 1024 o como 1000, y por tanto existan confusiones, por ejemplo un disco duro de 500 GB, en algunos sistemas operativos sea representado como 465 GiB (es decir gibibytes; 1 GiB = 1024 MiB) y en otros como 500 GB.

Acelerador Gráfico:


Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es una tarjeta de expansión para una computadora u ordenador, encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor. Las tarjetas gráficas más comunes son las disponibles para las computadoras compatibles con la IBM PC, debido a la enorme popularidad de éstas, pero otras arquitecturas también hacen uso de este tipo de dispositivos.
Es habitual que se utilice el mismo término tanto a las habituales tarjetas dedicadas y separadas como a las GPU integradas en la placa base. Algunas tarjetas gráficas han ofrecido funcionalidades añadidas como captura de vídeo, sintonización de TV, decodificación MPEG-21 y MPEG-4 o incluso conectores Firewire, de ratón, lápiz óptico o joystick.
Las tarjetas gráficas no son dominio exclusivo de los PC; contaron o cuentan con ellas dispositivos como los Commodore Amiga (conectadas mediante las ranuras Zorro II y Zorro III), Apple II, Apple Macintosh, Spectravideo SVI-328, equipos MSX y, por supuesto, en las videoconsolas modernas, como la Wii, la Playstation 3 y la Xbox360.

lunes, 6 de mayo de 2013

Metodos Abreviados


CTRL+C (Copiar)

CTRL+X (Cortar)

CTRL+V (Pegar)

CTRL+Z (Deshacer)

SUPR (Eliminar) 

MAYÚS+SUPR (Eliminar de forma definitiva el elemento seleccionado sin colocarlo en la Papelera de reciclaje) 

CTRL mientras se arrastra un elemento (Copiar el elemento seleccionado) 

CTRL+MAYÚS mientras se arrastra un elemento (Crear un acceso directo al elemento seleccionado)

Tecla F2 (Cambiar el nombre del elemento seleccionado)

CTRL+FLECHA A LA DERECHA (Mover el punto de inserción al principio de la palabra siguiente) 

CTRL+FLECHA A LA IZQUIERDA (Mover el punto de inserción al principio de la palabra anterior) 

CRTL+FLECHA ABAJO (Mover el punto de inserción al principio del párrafo siguiente) 

CTRL+FLECHA ARRIBA (Mover el punto de inserción al principio del párrafo anterior) 

CTRL+MAYÚS con cualquiera de las teclas de dirección (Resaltar un bloque de texto) 

MAYÚS con cualquier tecla de dirección (Seleccionar varios elementos de una ventana o del escritorio, o seleccionar texto de un documento) 

CTRL+A (Seleccionar todo) 

Tecla F3·(Buscar un archivo o una carpeta) 

ALT+ENTRAR (Ver las propiedades del elemento seleccionado) 

ALT+F4 (Cerrar el elemento activo o salir del programa activo) 

ALT+ENTRAR (Ver las propiedades del objeto seleccionado) 

ALT+BARRA ESPACIADORA (Abrir el menú contextual de la ventana activa) 

CTRL+F4 (Cerrar el documento activo en programas que permiten tener abiertos varios documentos simultáneamente) 

ALT+TAB (Cambiar de un elemento abierto a otro) 

ALT+ESC (Recorrer los elementos en el orden en que se han abierto) 

Tecla F6 (Recorrer los elementos de pantalla de una ventana o del escritorio) 

Tecla F4 (Ver la lista de la barra de direcciones en Mi PC o en el Explorador de Windows) 

MAYÚS+F10 (Mostrar el menú contextual del elemento seleccionado) 

ALT+BARRA ESPACIADORA (Mostrar el menú del sistema de la ventana activa) 

CTRL+ESC (Mostrar el menú Inicio) 

ALT+Letra subrayada de un nombre de menú (Mostrar el menú correspondiente)

Letra subrayada de un nombre de comando en un menú abierto (Ejecutar el comando correspondiente)

Tecla F10 (Activar la barra de menús del programa activo)

FLECHA A LA DERECHA (Abrir el menú siguiente de la derecha o abrir un submenú)

FLECHA A LA IZQUIERDA (Abrir el menú siguiente de la izquierda o cerrar un submenú)

Tecla F5 (Actualizar la ventana activa)

RETROCESO (Ver la carpeta situada en un nivel superior en Mi PC o en el Explorador de Windows) 

ESC (Cancelar la tarea actual)


MAYÚS al insertar un CD-ROM en la unidad de CD-ROM (Impedir la reproducción automática del CD-ROM

CTRL+MAYÚS+ESC (Abrir administrador de tareas)

Unidades de Medida

Byte : 

Byte es una palabra inglesa (pronunciada  o ['bi.te]), que si bien la Real Academia Española ha aceptado como equivalente a octeto (es decir a ocho bits), para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente B mientras que en los francófonos es o (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bit). 
Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos). 

Kilobyte : 

Un kilobyte (pronunciado /kilobáit/ o en una jerga más popular /ká/) es una unidad de almacenamiento de información cuyo símbolo es el kB y equivale a 103 bytes. 
Por otro lado, al igual que el resto de prefijos del SI, para la informática muchas veces se confunden con 210 el cual debe ser denominado kibibyte según normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional. 
El prefijo kilo proviene del griego χίλιοι, que significa mil. 

Megabyte : 

El Megabyte (MB) es una unidad de medida de cantidad de datos informáticos. Es un múltiplo del byte u octeto, que equivale a 106 bytes. 
Por otro lado, al igual que el resto de prefijos del SI, para la informática muchas veces se confunden con 220 el cual debe ser denominado Mebibyte según normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional. 
El prefijo mega proviene del griego μέγας, que significa grande. 
Se representa por MB y no por Mb, cuya correspondencia equivaldría a megabit. Coloquialmente a los magabytes se les denomina megas. 
Es la unidad más típica actualmente, junto al múltiplos inmediatamente superior, el gigabyte, usándose para especificar la capacidad de la memoria RAM, de las memorias de tarjetas gráficas, de los CD-ROM, o el tamaño de los programas, de los archivos grandes, etc. La capacidad de almacenamiento se mide habitualmente en gigabytes, es decir, en miles de megabytes. 

Gigabyte : 

Un gigabyte es una unidad de almacenamiento de información cuyo símbolo es el GB, equivale a 109 bytes. 
Por otro lado, al igual que el resto de prefijos del SI, para la informática muchas veces se confunden con 230 el cual debe ser denominado gibibyte según normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional. 
Como resultado de esta confusión, el término "gigabyte" resulta ambiguo, a no ser que se utilice un sólo dígito de precisión. Conforme aumenta la capacidad de almacenamiento y transmisión de los sistemas informáticos, se multiplica la diferencia entre los usos binario y decimal. El uso de la base binaria no obstante tiene ventajas durante el diseño de hardware y software. La RAM se mide casi siempre en potencias de dos, por otro lado la gran mayoría de los dispositivos de almacenamiento se miden en base diez. 
Giga proviene del griego γίγας, /Jigas/ que significa gigante. En lenguaje coloquial, "Gigabyte" se abrevia a menudo como giga 

Terabyte : 

Un terabyte es una unidad de almacenamiento de información cuyo símbolo es el TB, y equivale a 1012 bytes. 
Por otro lado, en la informática a menudo se confunde con 240, pero es un error ya que al valor 240 se denomina tebibyte según la normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional. Confusiones similares existen con el resto de prefijos de múltiplos del S.I. (Sistema Internacional de Medidas). 
Adoptado en 1960, el prefijo tera viene del griego τέρας, que significa "monstruo o bestia" 
1 TB = 103 GB = 106 MB = 109 kB = 1012 bytes 

Petabyte : 

Un petabyte es una unidad de almacenamiento de información cuyo símbolo es el PB, y equivale a 1015 bytes = 1.000.000.000.000.000 de bytes. El prefijo peta viene del griego πέντε, que significa cinco, pues equivale a 10005 ó 1015. Está basado en el modelo de tera, que viene del griego ‘monstruo’, pero que es similar (excepto una letra) a tetra-, que viene de la palabra griega para cuatro y así peta, que viene de penta-, pierde la tercera letra, n. 
1 PB = 1015 byte = 1012 kB = 109 MB = 106 GB = 103 TB 
1 PB = 1.000.000.000.000.000 byte = 1.000.000.000.000 kB = 1.000.000.000 MB = 1.000.000 GB = 1.000 TB 
1 PB = mil billones byte = un billón kB = mil millones MB = un millón GB = mil TB 
A menudo se confunden los petabytes con los pebibytes (PiB), siendo estos en base 2, de manera que un PiB es equivalente a 250 bytes, ó 1 125 899 906 842 624 bytes 
1000 petabytes equivalen a un exabyte. 

Exabyte : 

Un exabyte es una unidad de almacenamiento de información cuyo símbolo es el EB, equivale a 1018 bytes. 
Por otro lado, al igual que el resto de prefijos del SI, para la informática muchas veces se confunden con 260 el cual debe ser denominado exbibyte según normativa IEC 60027-2 publicada por la Comisión Electrotécnica Internacional. 
El prefijo viene adoptado en 1991, viene del griego ἕξ, que significa seis (como hexa-), pues equivale a 10006. 
1 EB = 103 PB = 106 TB = 109 GB = 1012 MB = 1015 kB = 1018 bytes 
1000 exabytes equivalen a un zettabyte. 

Zettabyte : 

Un zettabyte es una unidad de almacenamiento de información cuyo símbolo es el ZB, equivale a 1021 bytes. 
Por otro lado, al igual que el resto de prefijos del SI, para la informática muchas veces se confunden con 270 el cual debe ser denominado zebibyte según normativa IEC 60027-2 publicada por la Comisión Electrotécnica Internacional. 
El prefijo viene adoptado en 1991, viene del latín "septem", que significa siete (como hepta-), pues equivale a 10007. 
1 ZB= 103 EB = 106 PB = 109 TB = 1012 GB = 1015 MB = 1018 kB = 1021 bytes 
1000 zettabytes equivalen a un yottabyte. 
Esta capacidad de informacion aun no ha sido lograda en el mundo dado que un estimado hecho en febrero de 2011 estima que en total, todo el espacio del mundo equivale a no mas de 300 exabytes. 

Yottabyte : 

Un yottabyte es una unidad de almacenamiento de información cuyo símbolo es el YB, y equivale a 1024 bytes. 
Existe cierta confusión con respecto a esta medida (1024 bytes) y 280 bytes que es lo mismo que 1237940039285380274899124224 bytes. Para evitar esa confusión se emplea el término yobibyte. 
Adoptado en 1991, el prefijo yotta viene del griego ὀκτώ (okto), que significa "ocho". 

jueves, 2 de mayo de 2013

Generaciones de las Computadoras

Las computadoras han ido evolucionando desde su creación, pasando por diversas generaciones, desde 1940 hasta la actualidad, la historia de las computadoras ha pasado por muchas generaciones y la sexta, la más reciente, que se viene integrada con microprocesadores Pentium.


Primera Generación (1938-1958)

En esta época las computadoras funcionaban con válvulas, usaban tarjetas perforadas para entrar los datos y los programas, utilizaban cilindros magnéticos para almacenar información e instrucciones internas y se utilizaban exclusivamente en el ámbito científico o militar. La programación implicaba la modificación directa de los cartuchos y eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad de calor y eran sumamente lentas.

Segunda Generación (1958-1963)

Características de ésta generación: Usaban transistores para procesar información. Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío. 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío. Usaban pequeños anillos magnéticos para almacenar información e instrucciones. Producían gran cantidad de calor y eran sumamente lentas. Se mejoraron los programas de computadoras que fueron desarrollados durante la primera generación.
Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales eran comercialmente accesibles. Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico aéreo y simulaciones de propósito general. La marina de los Estados Unidos desarrolla el primer simulador de vuelo, Computadora Whirlwind Surgieron las minicomputadoras y los terminales a distancia. Se comenzó a disminuir el tamaño de las computadoras.
Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas computadoras se programaban con cintas perforadas y otras por medio de cableado en un tablero.

Tercera Generación (1964-1970)

Comienza a utilizarse los circuitos integrados, lo cual permitió abaratar costos al tiempo que se aumentaba la capacidad de procesamiento y se reducía el tamaño de las máquinas. La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador.

Cuarta Generación (1971-1983)


Fase caracterizada por la integración de los componentes electrónicos, lo que propició la aparición del microprocesador, es decir, un único circuito integrado en el que se reúnen los elementos básicos de la máquina. Se desarrolló el microprocesador. Se colocan más circuitos dentro de un "chip". "LSI - Large Scale Integration circuit". "VLSI - Very Large Scale Integration circuit". Cada "chip" puede hacer diferentes tareas. Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. El tercer componente, la memoria primaria, es operado por otros "chips". Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio. Se desarrollan las microcomputadoras, o sea, computadoras personales o PC. Se desarrollan las supercomputadoras.
Características de está generación: Se desarrollaron circuitos integrados para procesar información. Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores. Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas eléctricas. Surge la multiprogramación. Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis matemáticos. Emerge la industria del "software". Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1. Otra vez las computadoras se tornan más pequeñas, más ligeras y más eficientes. Consumían menos electricidad, por lo tanto, generaban menos calor.

Quinta Generación (1984 -1999)

Surge la PC tal cual como la conocemos en la actualidad. IBM presenta su primera computadora personal y revoluciona el sector informativo. En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras.

Sexta Generación (1999 hasta la fecha)

Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolladas o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etc.

Software



Se conoce como software al equipamiento lógico o soporte lógico de un sistema informático, que comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos que son llamados hardware.
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de textos; el llamado software de sistema, tal como el sistema operativo, que básicamente permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario.
El anglicismo "software" es el más ampliamente difundido al referirse a este concepto, especialmente en la jerga técnica; el término sinónimo"logical", derivado del término francés "logiciel", sobre todo es utilizado en países y zonas de influencia francesa.

Hardware


El término hardware (pronunciación AFI: [ˈhɑːdˌwɛə] ó [ˈhɑɹdˌwɛɚ]) se refiere a todas las partes tangibles de un sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos.1 Son cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora». El término, aunque sea lo más común, no solamente se aplica a las computadoras; del mismo modo, también un robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia poseen hardware (y software).
La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Una primera delimitación podría hacerse entre hardware básico, el estrictamente necesario para el funcionamiento normal del equipo, y complementario, el que realiza funciones específicas.
Un sistema informático se compone de una unidad central de procesamiento (UCP/CPU), encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, los que posibilitan dar salida (normalmente en forma visual o auditiva) a los datos procesados.