Cambios
De CreacionWiki
sin resumen de edición
'''Información''' es un término derivado probablemente de la raíz {{Nombre Latino|information-}} que a su vez se deriva del verbo [[latino]] {{Nombre Latino2|informare}} que significa "dar forma a la mente", "la disciplina", "instruir", "enseñar". La información se entiende generalmente como conocimientos o hechos que uno ha adquirido, pero en algunas áreas de la ciencia, información puede tener definiciones ligeramente diferentes, a pesar de que no tenemos una definición precisa de '''información''', de lo que es o lo que no es información.<ref>{{cita web|url=http://www.ime.usp.br/~is/ddt/mac333/aulas/tema-11-24mai99.html|título=MAC 333 - A Revolução Digital e a Sociedade do Conhecimento - Tema 11 - O que é Informação? Como ela age?|autor=Simon, Imre|trans_title=MAC 333 - La revolución digital y la Sociedad del Conocimiento - Tema 11 - ¿Qué es la información? ¿Cómo funciona?|fechaacceso=31 de julio 2013}}</ref><ref group=nota>[[:en:Wikipedia:Imre Simon|Dr. Imre Simon]], quien hizo esta referencia, fue un conocido matemático y científico de la computación brasileño nacido en Hungría.</ref> Lo que tenemos es más bien una noción vaga e intuitiva.
Royal Truman, in his analysis published in the en su análisis publicada en el ''[[Journal of Creation]]'' discusses two families of approachesanaliza dos familias de enfoques: The one derived from El uno derivado de trabajo de Shannon's work and the other derived from y el otro derivado de la obra de [[Werner Gitt|Gitt]]'s work.<ref name=truman1>{{cite journal|title=Information Theory-Part 1:Overview of Key Ideas|author=Truman, Royal|year=2012|journal=[[Journal of Creation]]|volume=26|issue=3|pages=101-106|issn=1036-2916}}</ref> Truman also mention the algorithm definition of information, developed by Solomonoff, Kolmogorov and with contributions from [[Gregory Chaitin]] but that has not been discussed in his article.<ref name=truman1 /> According to [[Stephen Meyer]], scientists usually distinguish two basic types of information: meaningful or functional information and so-called Shannon information<ref name=doubt>{{cite book|author=Meyer, Stephen C|authorlink=Stephen Meyer|title=Darwin's Doubt: The Explosive Origin of Animal Life and the Case for Intelligent Design|publisher=HarperOne|/HarperCollins Publishers|location=Seattle, WA|year=2013|page=164-168|isbn=978-0-06-207147-7}}</ref> (named after Claude Shannon, who developed statistical information theory). Shannon information is really not the same thing as meaningful information. Meaningful information, encoded into a language, can be measured statistically, per Shannon, but the measure is of the redundancy of the symbols, the so-called Shannon entropy,<ref group=nota>Shannon entropy is the average unpredictability in a random variable, which is equivalent to its information content.</ref> not a measure of the "information content", or meaning. Shannon, for example, can be uses to measure the "information content" of a set of random symbols that have no meaning.
==Definitions or Characterizations ==