¿Qué son los tipos de datos y para qué se utilizan?

Carlos Eduardo Sanchez Torres
3 min readMar 21, 2021

Si entendemos una computadora como una máquina programable usualmente electrónica que puede resultar, recibir y procesar datos [2] [3], entonces los tipos de datos son las bases entendidas en el lenguaje de programación -no hay nada afuera del texto- para que la susodicha compute.

Ejemplos: int, char, string, float, …

Aclaraciones

  1. La primera parte de la pregunta es una pregunta de definición -esencia nominal-, la segunda de interés. Para definir use el marco conceptual de [1]: ostensiva y descriptiva.
  2. Que un lenguaje infiera los tipos o sea que no se especifique el tipo, no significa que no existan. Los datos existen para ser computados a través de su tipo [4].
  3. No hay nada afuera del texto (Jacques Derrida). Implica que la computadora tonta existe porque existe el lenguaje de programación y este a su vez, por sus datos a procesar. Podemos afirmarlo dado que la computadora necesita instrucciones claras más datos a través de un programador [5].
  4. El concepto “base” se toma desde el concepto matemático en un espacio vectorial. Donde con dichas bases se dibuja todo el espacio, operando a través de los axiomas.
  5. El dato es algo mínimo medible [6], los lenguajes solo entienden ciertos tipos: sus bases.

¿Una definición aceptable?

Podemos decir que una definición es aceptable si cumple los criterios de conservadurismo, de uso, identidades generalizadas, primaridad, reductividad y delimitados por el contexto, experiencia, extensión, intención y el sentido [1].

  • Conservadurismo. La definición no cambia en el tiempo, los sustantivos clave se mantienen: base y lenguaje de programación.
  • Uso. Como se habla en el dominio de ciencias computacionales, sólo son admisibles los datos que entienda el lenguaje de programación. Por tanto, se disponen los tipos de datos para referirse al uso con respecto al lenguaje y no a la computadora, que solo entiende ceros y unos [aclaración 3].
  • Identidades generalizadas. En C++: int, float, char,… o Lisp: array, fixnum, integer,… pueden reemplazarse por «tipo de dato» y al revés.
  • Primaridad. Aceptamos como un hecho que solo un programador puede insertar nuevos datos o usar los datos permitidos por el lenguaje. Por definición de computadora, sin datos no se puede computar. Siendo el tipo de dato sustantivamente diferente con respecto a la base -y necesariamente de cualquier otro ente- para ser un concepto considerado primario.
  • Reductividad. Siendo que la definición es descriptiva -no de diccionario-, la frase «no hay nada afuera del texto», cumple un rol de sentido y por tanto no reducible.

Respuestas consideradas correctas

Gracias a mis compañeros de la asignatura de estructura de datos.

  1. Los datos representan diferentes elementos del mundo real. Es un atributo que indica al ordenador y al programador sobre la clase de datos que se va a trabajar. Declarando correctamente cada tipo de dato los podemos utilizar para guardar número enteros grandes o pequeños, fraccionarios, letras, caracteres o una frase entera.
  2. Es un atributo que indica al ordenador sobre la clase de datos que se va a manejar y se utilizan precisamente para identificar el tipo de dato que se está manejando, puede ser un número entero, un número decimal o incluso texto.
  3. Son el atributo que determina el valor que tomará y cómo la computadora lo representa internamente. Se utiliza para representar diferentes elementos del mundo real. Por ejemplo; char, short, int y long representan enteros de diferentes tamaños, float, double y long double representan números reales.

Referencias

[1] Anil Gupta. 2015. Definitions (Stanford Encyclopedia of Philosophy). Stanford.edu. Retrieved March 20, 2021 from https://plato.stanford.edu/entries/definitions/#Aca

[2] 2021. Merriam-Webster Dictionary. Merriam-webster.com. Retrieved March 20, 2021 from https://www.merriam-webster.com/dictionary/computer

[3] Denning, P. J. (2005). Is computer science science? Communications of the ACM, 48(4), 27. doi:10.1145/1053291.1053309

[4] Forouzan, B., 2017. Foundations of Computer Science: 4th Edition. Andover: Hampshire: Cengage Learning EMEA.

[5] Peter Norvig. 1992. Paradigms of artificial intelligence programming : case studies in common LISP. Morgan Kaufman Publishers, San Mateo, Calif.‌

[6] 2020. Merriam-Webster Dictionary. Merriam-webster.com. Retrieved March 21, 2021 from https://www.merriam-webster.com/dictionary/datum

--

--

Carlos Eduardo Sanchez Torres

A computer scientist for want of a better word. GDSC Lead. Ignoramus et ignorabimus. GNU, or not GNU, that is the question.