jueves, 30 de agosto de 2012

D. Medicion de la informacion.

  • Concepto:
El proceso de asignar un valor numérico a una variable se llama medición. Las escalas de medición sirven para ofrecernos información sobre las clasificaciones que podemos hacer con respecto a las variables (discretas o continuas).
Cuando se mide una variable el resultado puede aparecer en uno de cuatro diversos tipos de escalas de medición; nominal, ordinal, intervalo y razón.
Conocer la escala a la que pertenece una medición es importante para determinar el método adecuado para describir y analizar esos datos.
Existen 4 principales escalas de medición de la Información
  * Nominales.
  * Ordinales.
  * De intervalo.
  * De razón.
Es importante aclarar que existen mas escalas de información como la comparativa y no comparativa pero estas con complemento de las escalas mencionadas anteriormente pero aun asi se mencionaran mas adelante.
ESCALA NOMINAL
En la escala nominal se utilizan nombres para establecer categorías   y para distinguir los agrupamientos se emplean símbolos, letras e incluso números, aunque estos números solo cumplen una función de carácter simbólico, pues los cálculos matemáticos con estos números no tendrían sentido.
Las escalas nominales además tienen las propiedades de simetría y transitividad.
Por simetría se entiende que una simetría que encontramos entre A y B, también la encontramos entre B y A. La transitividad se entiende que si A=B y B=C, entonces A=C.
Los números se pueden asociar con las categorías, pero esto no significa que se pueda hacer operaciones aritméticas con estos directamente, ya que la función de los números en este caso es exactamente la misma de los nombres.
Ejemplos: calificar a un grupo de personas como “sano” o “enfermo” o bien como “1” y “2”.


  • Unidades de medicion.
-Bit: Un bit es una señal electrónica que puede estar encendida (1) o apagada (0). Es la unidad más pequeña de información que utiliza un ordenador. Son necesarios 8 bits para crear un byte.

-Byte: Un byte es una unidad de informacion formada por una seguidilla de bits adyacentes.

Los ordenadores pueden representar a un número finito de caracteres, los cuales se corresponden con los símbolos más usados para escribir por los seres humanos. Se clasifican en:
  • Letras minúsculas del alfabeto inglés: { a, b, c, ..., x, y, z }
  • Letras mayúsculas del alfabeto inglés: { A, B, C, ..., X, Y, Z }
  • Números (dígitos del Sistema Decimal): { 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 }
  • Caracteres especiales: { +, -, *, /, @, #, ñ, Ñ, á, é, ... }
  • Caracteres gráficos: { ♣, ♦, ♥, ♠, ... }
  • Caracteres de control: { Salto de línea, Tabulador horizontal, ... 
-Multiplo: Un múltiplo de un número es otro número que lo contiene un número entero de veces. En otras palabras, un múltiplo de n es un número tal que, dividido por n, da por resultado un número entero (el resto de la división euclídea es cero). Los primeros múltiplos del uno al diez suelen agruparse en las llamadas tablas de multiplicar.
  • Ejemplo: 18 es múltiplo de 9.
a=18
b=9
a=2·b

-Equivalencias: 


1 comentario:

  1. Me gustaría que me presentarán una sopa de letras con 14 terminos de medición de informacion

    ResponderEliminar