0 évaluation0% ont trouvé ce document utile (0 vote)
714 vues2 pages
Las computadoras utilizan el sistema binario de 0s y 1s para representar toda la información. Cada caracter está codificado como una combinación única de 8 bits (un byte). Los programas escritos por humanos primero se compilan a código de máquina binario, que es el único lenguaje que las computadoras pueden entender directamente para ejecutar instrucciones.
Description originale:
Como funcionan los bits y bytes en las computadoras
Las computadoras utilizan el sistema binario de 0s y 1s para representar toda la información. Cada caracter está codificado como una combinación única de 8 bits (un byte). Los programas escritos por humanos primero se compilan a código de máquina binario, que es el único lenguaje que las computadoras pueden entender directamente para ejecutar instrucciones.
Las computadoras utilizan el sistema binario de 0s y 1s para representar toda la información. Cada caracter está codificado como una combinación única de 8 bits (un byte). Los programas escritos por humanos primero se compilan a código de máquina binario, que es el único lenguaje que las computadoras pueden entender directamente para ejecutar instrucciones.
Para su funcionamiento, las computadoras utilizan el sistema numrico binario basndose en un cdigo o programa que le sirve para recibir, interpretar y ejecutar las instrucciones. Todos los programas, instrucciones, textos, imgenes, sonido que introducimos en la computadora sta las recibe en cdigo binario como una cadena de ceros y unos. Cada cero y cada uno representa un bit de informacin. La palabra bit es un acrnimo de Binary DigIT, que significa digito binario. Para formar cada caracter alfanumrico, es decir una letra, nmero o signo, se usa una combinacin de 8 bits para formar un octeto, al que se denomina Byte. A cada caracter alfanumrico se le asigna un byte de informacin y existen 256 valores binarios distintos en un cdigo llamado ASCII (American Standard Code for Information Interchange Cdigo Estndar Americano para Intercambio de Informacin-). En el cdigo ASCII los valores binarios entre 0 y 31 corresponden a instrucciones, entre 32 y 127 corresponden al alfabeto alfanumrico y entre 128 y 255 a caracteres de otros idiomas menos convencionales. Quienes disearon y construyeron las primeras computadoras acordaron asignarle al dgito 1 la existencia de un pulso elctrico, y al digito 0 la no existencia de pulso elctrico. Por lo que, para las computadoras existen nicamente 2 estados fsicos que le permiten comprender las rdenes o instrucciones antes de ejecutarlas: la existencia y la no existencia de ellos. Si, a travs del teclado, se escribe la letra A, se generan automticamente 8 bits agrupados en un octeto (byte) que la representan: 01000001. Los 1s generan pulsos elctricos y los 0s no generan ninguno. En los circuitos digitales, como las computadoras, el bit 0 puede estar en ocasiones cercano a 0 voltios y el bit 1 entre 3 y 5 voltios, de forma que el voltaje de 0 nunca llegar a alcanzar un valor alto, ni el del digito 1 un valor muy bajo. Gracias a este mecanismo el circuito puede diferenciar perfectamente el valor correspondiente a estos dos dgitos sin equivocarse. Cuando la memoria RAM de la computadora recibe una combinacin de pulsos y no pulsos elctricos correspondientes a los 1s y 0s que forman el byte 01000001,
reconoce que le estn enviando el cdigo correspondiente a la letra A. De esta
forma lo descifra y retiene como tal, permitiendo, a su vez, que esa letra se pueda representar en la pantalla. Esto resulta similar a lo que ocurra en el mundo analgico, cuando un telegrafista reciba a travs de su aparato receptor el sonido de un punto y una raya (. -) en el cdigo Morse. En cuanto ste oa ese sonido en el dispositivo receptor, saba que le estaban transmitiendo la letra A. Igual era con las escobillas del sistema electrnico de las antiguas maquinas tabuladoras de IBM, lean en la tarjeta las 2 perforaciones correspondientes a la letra A. Debido a esto, cuando se teclean letras, nmeros y signos, se forman cadenas de bytes que representan instrucciones y caracteres alfanumricos que la computadora interpreta como tales. Lgicamente, para escribir programas, aplicaciones o software que la computadora emplea para trabajar, el programador utiliza un lenguaje de programacin denominado de alto nivel, que le permite crearlos escribiendo lneas de texto codificadas. Esas lneas de texto u rdenes las puede escribir, leer y entender, no as la computadora mientras se mantengan escritas de esa forma. Para que la computadora pueda entender las rdenes contenidas en un programa cualquiera escrito por un programador en lenguaje de alto nivel, es necesario que otro programa llamado compilador las traduzca y convierta a cdigo de mquina o de bajo nivel. Este cdigo, compuesto solamente por unos y ceros, es el nico que entiende la computadora y es el que le permite interpretar las rdenes contenidas en los programas para que las pueda ejecutar.