domingo, 16 de diciembre de 2012



historia de la informatica


Al  principio la informatica servia para facilitar trabajor respectivos y monotonos del area administrativa.
Esto trajo como consecuencia un incremento de la productividad . En  la informatica va naciendo fundamentos de la ciencia de la computacion, la programacion y metodos del tiempo para el desarrollo del software, la adquitectura de ordenadores  , las redes de ordenadores , la inteligencia artificial y otras ciertas cuestiones relacionas con la informatica.

  • http://es.wikipedia.org/wiki/Inform%C3%A1tica

clasificacion de memorias .

clasificacion de memorias


Registros : son los mas rapidos de toda de toda la memoria trabajando a la misma velocidad que el procesador . Su tamaño  es de pocos bytes y hay orden de decenas de ellos.


memoria cache : Es una memoria intermedia entre el procesador y la trama, un poco menos rapida pero aun asi es rapida, sirve como un espejo de zonas de memoria ram .

memoria ram: es la memoria propiamente dicha y funciona como escritorio de trabajo.
Si abrimos un programa estara  ocupando sitio en ram .

almasenamiento masivo : se caracteriza por que los datos guardados no se borran cuando se pierde la alimentacion electrica .

memoria intermedia :  Esta memoria almacena las instrucciones a ejecutar por la Unidad Central de Proceso (CPU). Es de tipo RAM. Se puede leer y escribir en ella. Es volátil. Trabaja a una velocidad del orden de nanosegundos.

enlaces:  http://www.galeon.com/aafila6/unidad1.html .

domingo, 2 de diciembre de 2012

historia de los bytes & bit



La historia de los Bits y los Bytes Bit es en realidad un acrónimo que significadígito binario“. Es la unidad más pequeña posible de información en la informática digital. Los ordenadores no usan números decimales para almacenar datos. En los equipos, todos los datos se almacenan en números binarios. Todos se basan en la lógica digital binaria. Cada bit puede tomar solo dos valores característicos 0 ó 1.

El origen del término “dígito binario” se atribuye a John Tukey, un científico que trabajaba en los Laboratorios Bell, y los usó por primera vez en 1947. Un byte es una cadena de 8 bits juntos. Un byte es, por tanto, una unidad de información más grande que el bit. El byte fue utilizado por primera vez por el Dr. Werner Buccholz, un científico que trabajaba en IBM, en 1956.

El ordenador convierte todos los datos en bits y bytes a través del sistema alfanumérico y decimal. La capacidad del disco duro de cualquier ordenador se da en giga bytes (abreviado como GB) generalmente. Como podrás deducir Internet es un océano de bits y de bytes. Los chips pueden ser de diferentes tipos, por ejemplo de 32 bits y de 64 bits.

Esto denota la cantidad de datos que pueden ser procesados por los chips. El ancho de banda de Internet se mide en kilobytes (miles de bytes) por segundo, es decir ‘kbps’ o megabytes por segundo (Mbps). Los bits y los bytes se suelen utilizar de manera diferente: los bits se utilizan para detallar velocidades de transmisión, por otra parte, los bytes se utilizan para describir capacidad de almacenamiento.

tema 1: Los bits



 Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1.

El bit es la unidad  es la unidad y represenata un estado pequeño empleada en informática, en cualquier dispositivo digital, o en la teoría de la información.

 Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc.

Todas las unidades de los  bits son: bit por segundo (bps, bit · 1000), kilo bit por segundo(kbps),mega bit por segundo (mbps),giga bit por segundo (gbps),teta bit por segundo (tbps) y peta bit por segundo.
apagadaApagadao                                                                                                 Encendidaencendida