Cambios

De CreacionWiki
Saltar a: navegación, buscar

Información

18 bytes añadidos, 16:33 1 sep 2013
sin resumen de edición
La palabra "información" se utiliza de muchas maneras. Hemos mencionado el sentido de la persona laica arriba, pero también se utiliza una secuencia de símbolos (como letras de un idioma (ver foto a la derecha), puntos y rayas del código Morse, o la disposición de los golpes de Braille) que transmiten significado. Otra forma en que se utiliza el término es en teoría de la comunicación, y la compresión de mensajes. Se trata principalmente de los dos últimos de los sentidos que se analizan en este artículo.
Royal Truman, en su análisis publicada en el ''[[Journal of Creation]]'' analiza dos familias de enfoques: El una La primera derivada del trabajo de Shannon y la otra segunda derivada de la obra de [[Werner Gitt|Gitt]].<ref name=truman1>{{cita publicación|título=Information Theory-Part 1:Overview of Key Ideas|autor=Truman, Royal|año=2012|publicación=[[Journal of Creation]]|volumen=26|número=3|página=101-106|issn=1036-2916}}</ref> Truman also mention the algorithm definition of informationtambién menciona la definición algorítmica de la información, developed by desarrollada por Solomonoff, Kolmogorov and with contributions from y con contribuciones de [[Gregory Chaitin]] but that has not been discussed in his articlepero que no ha sido discutida en su artículo.<ref name=truman1 /> According to [[Stephen Meyer]], scientists usually distinguish two basic types of information: meaningful or functional information and so-called Shannon information<ref name=doubt>{{cite book|author=Meyer, Stephen C|authorlink=Stephen Meyer|title=Darwin's Doubt: The Explosive Origin of Animal Life and the Case for Intelligent Design|publisher=HarperOne|/HarperCollins Publishers|location=Seattle, WA|year=2013|page=164-168|isbn=978-0-06-207147-7}}</ref> (named after Claude Shannon, who developed statistical information theory). Shannon information is really not the same thing as meaningful information. Meaningful information, encoded into a language, can be measured statistically, per Shannon, but the measure is of the redundancy of the symbols, the so-called Shannon entropy,<ref group=nota>Shannon entropy is the average unpredictability in a random variable, which is equivalent to its information content.</ref> not a measure of the "information content", or meaning. Shannon, for example, can be uses to measure the "information content" of a set of random symbols that have no meaning.
==Definitions or Characterizations ==
Creationist, administrador
37 993
ediciones