¿Te has preguntado qué es lo común entregente antigua, hombre moderno y computadora? A pesar de las diferencias, todavía hay algo en común. Tallas en roca del hombre primitivo, registros de nuestros contemporáneos y código binario en computadoras: todas estas son formas de presentar información o, más precisamente, solo algunas de su tipo. Ahora, cuando las computadoras han entrado firmemente en la vida cotidiana de la sociedad, todos, para mantenerse al ritmo de los tiempos, deben entender al menos los términos y conceptos básicos.

Desde su inicio, los sistemas informáticosreemplazaron varias generaciones: al principio eran máquinas contadoras mecánicas, luego modelos de lámparas y, finalmente, versiones electrónicas semiconductoras de ellas. Curiosamente, desde los primeros días, cuando era necesario comenzar los cálculos de la computadora, los principios básicos de la codificación de datos se mantuvieron sin cambios. En otras palabras, la representación de la información en una computadora es exactamente la misma que en los dispositivos mecánicos. Por supuesto, estamos hablando de principios, no de formas de implementación. Todo el mundo sabe que la presentación de información en una computadora es de naturaleza binaria. Esto se cuenta en las primeras lecciones de informática en la escuela. ¿Qué se esconde detrás del término "cálculo binario"?

Vamos a contar hasta diez: 0, 1, 2, 3, 4 ... 10. En esta fila hay diez dígitos, y el "10" en sí está ausente, ya que consta de dos "1" y "0" más simples. La presentación de información a la computadora es diferente. Utiliza solo los dos primeros dígitos, no solo su imagen, sino descargas eléctricas: un transistor, este "ladrillo" de circuitos electrónicos modernos, puede tener dos posiciones: cerrado y abierto. Si se aplica una tensión de bloqueo a su base (hay una descarga, una unidad lógica), entonces el elemento actual no conduce, y viceversa. Por supuesto, en la práctica, la representación de información en una computadora se realiza mediante mecanismos más complejos: "1" puede significar tanto la presencia como la ausencia de una señal. Y el último no solo controla el estado de un solo transistor, sino que forma el trabajo de los circuitos lógicos "AND - OR".

Lógico "0" y "1" se llaman bits (binariosdígito, dígito. Un grupo de ocho (¡no diez!) Bits es un byte. Combinando su secuencia, puedes codificar cualquier personaje. Por lo tanto, un byte es la unidad de información más pequeña. A su vez, cambiando el orden de bytes puede ser codificado (representada en forma digital) con cualquier información. Esta codificación se realiza por dispositivos separados, así como también por programas de computadora. Por ejemplo, cuando decimos "en Skype" a través de un micrófono, una señal eléctrica analógica (onda) se convierte en una tarjeta de sonido de ceros lógicos y los corriente que pasa a la fuente de programa, en el que la transformación inversa - una onda se envía a la fuente de sonido. Del mismo modo, pulsando cualquier tecla del teclado, el usuario indica al programa el código binario deseada, pero para la conveniencia del carácter deseado aparezca en la pantalla.

Formas de presentar información en una computadora, como yaindicado, te permiten codificar todo. Por ejemplo, para digitalizar una imagen, se aplica la siguiente solución: como cualquier imagen puede representarse como un conjunto de puntos, cada uno de los cuales se caracteriza por coordenadas en el plano, brillo, color, es suficiente para convertir todos estos datos en una secuencia comprensible de unos y ceros. A continuación, para ver una copia electrónica de este tipo en la pantalla del monitor, el programa envía información a cada dispositivo de salida para cada punto, y se construye una imagen de acuerdo con él.

Ventaja del sistema binario de cálculo antesotros es su simplicidad y conveniencia de "atar" a la gestión de claves electrónicas. En parte, esta fue la razón principal de su uso en los sistemas informáticos modernos.

</ p>