Cambios
De CreacionWiki
→Definiciones o caracterizaciones
Royal Truman, en su análisis publicada en el ''[[Journal of Creation]]'' analiza dos familias de enfoques: La primera derivada del trabajo de Shannon y la segunda derivada de la obra de [[Werner Gitt|Gitt]].<ref name=truman1>{{cita publicación|título=Information Theory-Part 1:Overview of Key Ideas|autor=Truman, Royal|año=2012|publicación=[[Journal of Creation]]|volumen=26|número=3|página=101-106|issn=1036-2916}}</ref> Truman también menciona la definición algorítmica de la información, desarrollada por Solomonoff, Kolmogorov y con contribuciones de [[Gregory Chaitin]] pero que no ha sido discutida en su artículo.<ref name=truman1 /> De acuerdo con [[Stephen Meyer]], Los científicos suelen distinguir dos tipos básicos de información: la información significativa o funcional y la llamada información de Shannon<ref name=doubt>{{cita libro|autor=Meyer, Stephen C|enlaceautor=Stephen Meyer|título=Darwin's Doubt: The Explosive Origin of Animal Life and the Case for Intelligent Design|editorial=HarperOne/HarperCollins Publishers|ubicación=Seattle, WA|año=2013|página=164-168|isbn=978-0-06-207147-7}}</ref> (llamado así por Claude Shannon, quien desarrolló la teoría de la información estadística). La información de Shannon no es realmente lo mismo que la información significativa. Información significativa, codificada en un lenguaje, se puede medir estadísticamente, por Shannon, pero la medida es la redundancia de los símbolos, la denominada entropía de Shannon,<ref group=nota>Entropía de Shannon es la imprevisibilidad media en una variable aleatoria, que es equivalente a su contenido de información.</ref> no es una medida del "contenido de información", o el significado. Shannon, por ejemplo, se puede utiliza para medir el "contenido de información" de un conjunto de símbolos al azar que no tienen ningún significado.
Robert M. Losee;