По истории информатики на тему “ Эволюция понятия «информация» — страница 3

  • Просмотров 371
  • Скачиваний 5
  • Размер файла 35
    Кб

декодировании в широком смысле. Впоследствии Шеннон сформулировал и доказал две теоремы о проводимости каналов связи, учитывающих как физические характеристики проводников, так и «нематериальные» взаимодействия между целенаправленно передаваемой информацией и той, которая вмешивается в трансляцию на пути сигнала от источника к потребителю (т.н. шум системы). Шеннону принадлежит определение информации как степени снятия

неопределенности знания (энтропии). Любой интеллектуальный агент, выступающий получателем сообщения, обладает неполным представлением об объекте данного сообщения. То, в какой мере эта неполнота уменьшится после поступления данного сообщения, и является показателем его информативности. В теории Шеннона под информацией понимались не любые сообщения, которыми люди обмениваются, передаваемые по техническим каналам связи, а

лишь те, которые уменьшают неопределенность у получателя информации. Неопределенность существует тогда, когда происходит выбор одной из двух или большего числа возможностей, - это имеет место не только в процессах коммуникации, но и в управлении, познании, в социальной сфере и за ее пределами. [Пушкин, 1989] С точки зрения инженера-конструктора, проектирующего средства и каналы связи, отсутствие четкого определения информации

представляло серьезное препятствие для достижения оптимальной результативности работы. Шеннон предложил несколько характеристик, которые можно было рассматривать как неотъемлемые свойства информационной системы и одновременно определять их количественные показатели, что позволяло на их основании вычислять эффективность каналов связи, сообщений, принимающих устройств и т.д. в зависимости от тех или иных физических

условий. Основные характеки информационной системы, по Шеннону, таковы: 1) скорость создания информации Н, определяется энтропией источника в единицу времени; 2) скорость передачи информации R, опредеяется количеством информации в единицу времени; 3) избыточность – свойство сигналов (каждый элемент сигнала несет меньше информации, чем может нести потенциально); 4) пропускная способность канала связи С есть максимальная скорость

передачи информации для данного канала. Совместно с У. Уивером (W. Weover) Шеннон провел математическую аналогию между законом Больцмана-Планка об уменьшении энтропии в термодинамике с информационной энтропией в замкнутой системе связи. Большая общность определения Шеннона в том, что оно не связано с механической моделью вещества как это имеет место в статистической теории Больцмана. Совпадение этих формул вызвало сенсацию