Hagámonos la siguiente pregunta: ¿como reconoce cualquier lenguaje de programacion (JAVA, C#,otros) cuando necesitamos sumar dos números ó cuando un numero tiene décimas ó cuando necesitamos trabajar con texto ?
Bueno para esto hay dos soluciones los lenguajes de programacion que son Altamente Tipificados y los que no son Tipificados, en el caso de los lenguajes Altamente Tipifacados existe algo que llaman datos primitivos y es lo que nos ayuda a identificar si estamos trabajando con texto,numero y demas entonces....
TIPOS DE DATOS PRIMITIVOS / PRIMITIVE DATA TYPES
Los tipos de datos primitivos varían dependiendo del lenguaje, pero aquí aremos algo general, entonces empecemos:
TIPO VALORES POSIBLES
- boolean -> True/False (Verdadero o falso)
- byte -> -128 a 127 (números enteros entre este rango)
- short -> -32768 a 32768 (números enteros entre este rango)
- int -> -2147438648 a 2147438647 (números enteros entre este rango)
- long -> -9*10^18 a 9*10^18 (números enteros entre este rango)
- double -> -1,79*10^308 a 1,79*10^308 (números decimales en este rango)
- float -> -3,4*10^38 a 3,4*10^38 (números decimales en este rango)
- char -> Caracteres ( tabla de caracteres UNICODE o ASCII)
dependiendo del lenguaje, por ejemplo en JAVA no existe con un tipo de dato primitivo es un objeto de tipo String la cual es una sucesión de caracteres, pero en C# si existe el tipo de dato string
Ejemplos:
- boolean -> true
- byte -> 26
- short -> 10000
- int -> 1234567
- long -> 98765432100
- double -> 23.23487567587765
- float -> 12.12345676
- char -> 'A', 'p'
- String ->"Blog bases de programacion"
¿Preguntas?