По истории информатики на тему “ Эволюция понятия «информация» — страница 2

  • Просмотров 647
  • Скачиваний 5
  • Размер файла 35
    Кб

материи», лежащей в основе человеческой цивилизации, а по мнению некоторых ученых, самой Вселенной. В данной работе представлен обзор основных направлений понимания информации, сформировавшихся в период наиболее активной разработки данного вопроса, а именно в 30-60е гг. ХХ в. 1.Вероятностно-статистический подход В первой трети ХХ столетия исследования в области средств связи имели основной целью оптимизацию способов передачи

сигналов. Для того, чтобы понять механизмы транслирования информации, требовалось проникновение в специфику ее собственной природы. В 1928 г. была опубликована работа «Передача информации» американского ученого Р. Хартли (R. Hartley), где нашли отражение идеи о взаимозависимости между физическими символами – носителями сообщения – и выражаемым ими смыслом. Хартли первым ввел в методологию теории систем связи понятие

«количество информации» и предложил способ его измерения. При этом он четко определил, что следует понимать под измеряемой информацией: «… группу физических символов – слов, точек, тире и т. п., имеющих по общему соглашению известный смысл для корреспондирующих сторон» [Hartley, 1928]. Таким образом, в центре внимания оказалась знаковая (синтаксическая) характеристика информационной единицы: невозможность существования без

какого-либо воплощения с того времени закреплена за информацией как одно из основных ее свойств1. Рассматривая передаваемую информацию как определенный набор символов (алфавит), а передачу и прием этой информации как последовательно осуществляемые выборки из этого алфавита, Хартли ввел понятие количества информации в виде логарифма числа, общего количества возможной последовательности символов (алфавита), а единицей

измерения этой информации определил основание этого логарифма. Тогда, например, в телеграфии, где алфавит содержит два символа (точка, тире), при основании логарифма 2 количество информации, приходящееся на один символ равно: H =log2 2 = 1 бит (1 двоичная единица). Впоследствии основоположник современной теории информации К.Э.Шеннон (C.E.Shannon) отметил, что данный способ измерения не только удобен применительно к радиотехнике и

математике, но и интуитивно прозрачен. Изучая системы передачи кодированных сообщений, Шеннон дополнил формулу Хартли новыми показателями вероятности (такими как относительная частота использования некоторого символа, вероятность следования за одним символом другого и т.п.). [Shannon, 1948] Для теорий оптимизации систем связи это стало значительным шагом вперед, и применение новой формулы положило начало науке о кодировании и