Por primera vez, se propuso el término "información"filósofos antiguos y sonaba como informatio - aclaración, presentación, conciencia. Sin embargo, en los círculos académicos, las disputas aún permanecen sobre la definición más precisa y completa de esta palabra. Por ejemplo, el científico Claude Shannon, quien sentó las bases de la teoría de la información, cree que la información es la incertidumbre retirada del conocimiento del sujeto sobre algo. La definición más simple de "información" suena así: este es el grado de conocimiento del objeto.

Para determinar la cantidad de información,debe estar familiarizado con la clasificación de las medidas de los datos de información. En total hay tres medidas de información: sintáctica, semántica y pragmática. Consideremos cada medida por separado:

1. La medida sintáctica funciona con datos que no reflejan la relación semántica con el objeto. Esta medida trata del tipo de medio, la forma de presentación y codificación, la velocidad de transmisión y el procesamiento de la información.

En este caso, la medida es la cantidad de información -la cantidad de memoria requerida para almacenar datos sobre el objeto. El volumen de información es igual al número de dígitos del sistema binario con el que el mensaje en cuestión está codificado y medido en bits.

Para determinar la sintaxisla cantidad de información, nos volvemos al concepto de entropía - mide la incertidumbre del estado del sistema - es decir, nuestro conocimiento sobre el estado de sus elementos y el estado del sistema en su conjunto. A continuación, la cantidad de información - un cambio en el sistema mide la incertidumbre, entonces hay un cambio (aumento o disminución) de la entropía.

2. Una medida semántica sirve para determinar el contenido semántico de los datos y asocia los parámetros de información relevantes con la capacidad del usuario para procesar el mensaje. Este concepto fue llamado tesauro del usuario. Un diccionario de sinónimos se entiende como una recopilación de información sobre un objeto que tiene un sistema o usuario. La cantidad máxima de información en términos de semántica es posible en el caso en que toda la cantidad de datos sea comprensible para el usuario o sistema, puede procesarse utilizando el tesauro disponible y, por lo tanto, es un concepto relativo.

3. Una medida pragmática de la información mide el valor de la información para lograr un objetivo específico. Este concepto también es relativo y está directamente relacionada con la capacidad del sistema o que el usuario aplique una cantidad específica de datos en un área particular de preocupación. Por lo tanto, es aconsejable medir información desde un punto de vista pragmático en las mismas unidades de medida que la función objetivo.

Las características cualitativas de la información incluyen los siguientes indicadores:

- Representatividad - la correcta selección y presentación de la información para la visualización más óptima de las características del objeto.

- Contenido: la relación entre la cantidad de información en la dimensión semántica y la cantidad de datos procesados.

- Completitud - presencia en el mensaje del mínimo necesario para el logro del propósito de un conjunto de información.

- Disponibilidad - ejecución de procedimientos para obtener y convertir datos por un usuario o sistema.

- Relevancia: el grado de conservación del valor de la información desde el momento de la recepción hasta el momento del uso.

- Puntualidad: la llegada de la información a más tardar del tiempo requerido.

- Exactitud: el grado en que la información corresponde al estado real del objeto.

- Confiabilidad: la capacidad de los datos de información para reflejar objetos reales con precisión especificada.

- La estabilidad es una propiedad de la información que le permite responder a la transformación de los datos originales en el tiempo, manteniendo la precisión especificada.

Recuerde, la información es muy importante ahora, ¡por lo que debe saber todo lo posible!

</ p>