Skip to main content

¿Qué es el formato entero?

Un formato entero es un tipo de datos en la programación de computadoras. Los datos se escriben según el tipo de información que se está almacenando, con qué precisión se almacenan los datos numéricos y cómo se debe manipular esa información en el procesamiento. Los enteros representan unidades enteras. Los enteros ocupan menos espacio en la memoria, pero esta función de ahorro de espacio limita la magnitud del entero que se puede almacenar.

Los enteros son números enteros utilizados en aplicaciones de aritmética, álgebra, contabilidad y enumeración. Un número entero implica que no hay unidades parciales más pequeñas. El número 2 como entero tiene un significado diferente que el número 2.0. El segundo formato indica que hay dos unidades enteras y cero décimas de unidad, pero que son posibles las décimas de unidad. El primer número, como entero, implica que no se consideran unidades más pequeñas.

Hay dos razones para un formato entero en lenguajes de programación. Primero, un formato entero es apropiado cuando se consideran objetos que no son divisibles en unidades más pequeñas. Un gerente que escribe un programa de computadora para calcular la división de un bono de $ 100 entre tres empleados, no asignaría un formato entero a la variable de bono, pero usaría uno para almacenar el número de empleados. Los programadores reconocieron que los enteros son números enteros y no requieren tantos dígitos para ser representados con precisión.

En los primeros días de la informática, el espacio de memoria era limitado y valioso, y se desarrolló un formato entero para ahorrar memoria. Como la memoria de la computadora es un sistema binario, los números se representaron en la base 2, lo que significa que los dígitos aceptables son 0 y 1. El número 10 en la base 2 representa el número 2 en la base 10, ya que el 1 en la columna de dos es el dígito multiplicado por 2 elevado a la segunda potencia. 100 en la base 2 es igual a 8 en la base 10, ya que el 1 en la primera columna es 1 multiplicado por 2 en cubos.

Utilizando una base on / off para representar números binarios, se desarrollaron computadoras con base eléctrica. Un bit es una representación única de activación / desactivación, verdadero / falso o 0/1 de datos. Si bien se exploraron diferentes configuraciones de hardware utilizando variaciones de la cantidad de bits directamente direccionables por la computadora, el byte de 8 bits y la palabra de 2 bytes se convirtieron en estándar para la informática de uso general. Entonces, la especificación del ancho del formato de entero determina no el número de decimales, sino el valor más grande y más pequeño que un entero puede asumir.

Los formatos enteros de la mayoría de los idiomas permiten utilizar un bit para un signo para designar un entero positivo o negativo. En un compilador de lenguaje de 32 bits, los lenguajes C / C + usan el formato entero, int, para almacenar valores enteros con signo entre –231 a 231-1. Un valor entero se resta para acomodar el cero, o aproximadamente +/- 2.1 billones. En un compilador de 64 bits, utilizando el tipo de datos int64, se permiten valores enteros con signo entre -263 a 263-1, o +/- 9.2 quintillones.