Теория информации

Теория информации — раздел прикладной математики, радиотехники (теория обработки сигналов) и информатики, относящийся к измерению количества информации, её свойств и устанавливающий предельные соотношения для систем передачи данных. Как и любая математическая теория, теория оперирует математическими моделями, а не реальными физическими объектами (источниками и каналами связи). Использует, главным образом, математический аппарат теории вероятностей и математической статистики.

Основные разделы теории информации — кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Теория информации тесно связана с информационной энтропией, коммуникационными системами, криптографией и другими смежными дисциплинами.

Область находится на пересечении математики, статистики, информатики, физики, нейробиологии, информационной инженерии и электротехники. Теория также нашла применение в других областях, включая архивоведение, статистический вывод, обработку естественного языка, криптографию, нейробиологию[1], человеческое зрение[2], эволюцию[3] и функцию[4] молекулярных кодов (биоинформатика), выбор статистической модели[5], теплофизику[6], квантовые вычисления, лингвистику, выявление плагиата[7], распознавание образов и выявление аномалий[8]. Важные подразделы теории информации включают в себя сжатие данных, канальное кодирование, алгоритмическую теорию сложности, алгоритмическую теорию информации, информационно-теоретическую безопасность, реляционный анализ Грея и измерение информации.

Введение

Появление теории информации связано с опубликованием Клодом Шенноном работы «Математическая теория связи» в 1948 году. С точки зрения Шеннона, теория информации — раздел математической теории связи. Теория информации устанавливает основные границы возможностей систем передачи информации, задает исходные принципы их разработки и практического воплощения. Круг задач теории информации представляется с помощью структурной схемы, типичной системы передачи или хранения информации.

В схеме источником является любой объект вселенной, порождающий сообщения, которые должны быть перемещены в пространстве и времени. Независимо от изначальной физической природы, все подлежащие передаче сообщения обычно преобразуются в форму электрических сигналов, такие сигналы и рассматриваются как выход источника. Кодер источника представляет информацию в наиболее компактной форме. Кодер канала обрабатывает информацию для защиты сообщений от помех при передаче по каналу связи или возможных искажений при хранении информации. Модулятор преобразовывает сообщения, формируемые кодером канала, в сигналы, согласованные с физической природой канала связи или средой накопителя информации. Среда распространения информации (канал связи) вносит в процесс передачи информации случайный шум, который искажает сообщение и тем самым затрудняет его прочтение. Блоки, расположенные на приёмной стороне, выполняют обратные операции и предоставляют получателю информацию в удобном для восприятия виде.

История

Рождение теории информации зачастую связывают с размещением в июле-октябре 1948 года Клодом Шенноном работы в журнале американской телефонной компании «Bell System» под названием «Математическая теория связи». Но стоит упомянуть, что вклад в формулировку и построение теории информации также был внесён и многими другими выдающимися учёными. Сам Шеннон в начале своей статьи написал «Некоторые основные положения этой теории имеются в важных работах Найквиста и Хартли. В настоящее время теория расширена тем, что включено некоторое число новых факторов, в частности, влияние шума в канале». В основном Шеннон развивал направление работ Хартли, используя понятие «информации», но сам термин не разъясняет, лишь оговаривает, что сообщения могут иметь какое-то «значение», то есть относиться к системе, имеющей свою физическую или умозрительную сущность (кибернетическая система). Теория Шеннона изначально рассматривалась как точно сформулированная математическая задача и дала возможность определить пропускную способность коммуникационного канала с шумом.

Кодирование данных

Кодирование являет собой процесс перехода сообщения на входе канала связи до кода сообщения на выходе, при этом информационная ценность сообщения должна оставаться неизменной. В теории информации можно выделить следующие разделы:

1. Кодирование дискретных источников (модель кодирования данных «без потерь»).

2. Кодирование данных, обеспечивающее их безошибочную передачу по каналу с шумом[9].

Код является однозначно декодируемым, если любая последовательность символов из алфавита кода (а, в основном, это 0 и 1) разбивается на отдельные слова. Если ни одно кодовое слово не является началом другого, код называется префиксным и он является однозначно декодируемым. Следовательно, префиксность — достаточное, но не необходимое условие однозначной декодируемости. Требование префиксности ограничивает множество длин кодовых слов и не даёт возможности выбирать кодовые слова слишком короткими. Необходимым и достаточным условием существования префиксного кода объёма с длинами кодовых слов является выполнение неравенства Крафта:

Также требуется рассмотреть код Шеннона — Фано — алгоритм префиксного неоднородного кодирования. Этот метод кодирования использует избыточность сообщения, заключённую в неоднородном распределении частот символов его алфавита, то есть заменяет коды более частых символов короткими двоичными последовательностями, а коды более редких символов — более длинными двоичными последовательностями[10]. Рассмотрим источник, выбирающий буквы из множества с вероятностями . Считаем, что буквы упорядочены по убыванию вероятностей (). Кодовым словом кода Шеннона для сообщения с номером является двоичная последовательность, представляющая собой первые разрядов после запятой в двоичной записи числа :

3. Кодирование данных для систем со многими пользователями описывает оптимальное взаимодействие абонентов, использующих общий ресурс, например, канал связи.

Примечания

Литература

  • Кудряшов, Б. Д. Теория информации : учебное пособие для студентов высших учебных заведений, обучающихся по направлению подготовки 230200 "Информационные системы" / Б. Д. Кудряшов. — Москва [и др.] : Питер, 2009. — 314 с.
  • Леонтьев, В. К. Комбинаторика и информация [Текст] : учебное пособие для студентов вузов по направлению подготовки "Прикладные математика и физика" / В. К. Леонтьев ; М-во образования и науки Российской Федерации, Московский физико-технический ин-т (гос. ун-т). – Москва : МФТИ, 2015 – Ч. 2: Информационные модели. Ч. 2. – 2016. – 111 с.
  • Леонтьев В. К., Гордеев Э. Н. Комбинаторные аспекты теории информации. М.: МФТИ, 2019.
  • Смирнова, М.О., Смирнов, А. П. Программный продукт для демонстрации применения оптимального кодирования на примере алгоритмов Шеннона-Фано и Хаффмана // Прикаспийский журнал: управление и высокие технологии. – 2010. – № 2. – С. 33-40.
  • Тростников В.Н. Человек и информация. — М.: Наука, 1970. — 188 с.
  • Фурсов, В. А. Лекции по теории информации : учебное пособие для студентов высших учебных заведений, обучающихся по специальности и направлению "Прикладная математика и информатика" и по направлению "Информационные технологии" / В. А. Фурсов ; Федеральное агентство по образованию, Гос. образовательное учреждение высш. проф. образования "Самарский гос. аэрокосмический ун-т им. С. П. Королева" ; под ред. Н. А. Кузнецова. — Самара : Изд-во СГАУ, 2006. — 147 с.
  • Шеннон К. Работы по теории информации и кибернетике. — М.: Изд. иностр. лит., 1963. — 830 с.
  • Claude E. Shannon, Warren Weaver. The Mathematical Theory of Communication. — Univ of Illinois Press, 1963. ISBN 0-252-72548-4
  • Thomas M. Cover[en], Joy A. Thomas. Elements of information theory. — New York: Wiley, 1991. ISBN 0-471-06259-6
  • R. Landauer, Information is Physical Proc. Workshop on Physics and Computation PhysComp’92 IEEE Comp. Sci.Press, Los Alamitos, 1993. — pp. 1–4.
  • Maxwell’s Demon: Entropy, Information, Computing, H. S. Leff and A. F. Rex, Editors, Princeton University Press, Princeton, NJ (1990). ISBN 0-691-08727-X

Дополнительная литература

  • Глик Джеймс. Информация. История. Теория. Поток [Текст] / Джеймс Глик ; пер. с англ. [М. Кононенко] под ред. Дарьи Тимченко. — Москва : АСТ : Corpus, 2013. — 572, [2] с.
  • Еременко, В. Т. Теория информации : учебник для студентов высших учебных заведений, обучающихся по специальностям 090103 "Организация и технология защиты информации" и 090104 "Комплексная защита объектов информатизации" : [в 2 кн.] / [Еременко Владимир Тарасович и др.] ; М-во образования и науки Российской Федерации, Федеральное гос. образовательное учреждение высш. проф. образования "Гос. ун-т учебно-научно-произв. комплекс", Федеральное гос. бюджетное образовательное учреждение высш. проф. образования "Орловский гос. ун-т". — Орел : ГУ-УНПК, 2011. – 21 с. — (Серия "Информационная безопасность социотехнических систем").
  • Колычев, П. М. Релятивная теория информации / П. М. Колычев. — Санкт-Петербург : Университет ИТМО, 2008. — 98 с.
  • Кропачев, Л. А. Основы теории информации : учебное пособие для студентов вузов специальностей 090105 "Комплексное обеспечение информационной безопасности автоматизированных систем", 230101 "Вычислительные машины, комплексы, системы и сети" и направления 230100 "Информатика и вычислительная техника" / Л. А. Кропачев ; Л. А. Кропачев ; М-во образования и науки Российской Федерации, Гос. образовательное учреждение высш. проф. образования "Ижевский гос. технический ун-т". — Ижевск : Изд-во ИжГТУ, 2011.
  • Лукьянов, Г. И. Социально-философский анализ развития теорий информации / Г. И. Лукьянов, В. И. Петренко // Экономические и гуманитарные исследования регионов. — 2020. — № 2. — С. 104-109.
  • Луценко, Е. В. Математическая сущность системной теории информации (СТИ) (Системное обобщение формулы Больцмана-Найквиста-Хартли, синтез семантической теории информации Харкевича и теории информации Шеннона) / Е. В. Луценко // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета. — 2008. — № 42. — С. 45-72.
  • Резеньков, Д. Н. Теория информации / Д. Н. Резеньков. — Ставрополь : Издательский дом "Тэсэра", 2017. — 112 с.
  • Сабанина, Н. Р. Семиотическая энтропия в условиях массового применения ИИ / Н. Р. Сабанина // Вопросы философии. — 2025. — № 9. — С. 53-61.
  • Урсул А. Д. Природа информации. — М.: Политиздат, 1968. — 288 с.
  • Хромов, Л. И. Теория информации и теория познания / Л. И. Хромов ; Л. И. Хромов. — Санкт-Петербург : Русское филос. о-во, 2006. — 200 с.
  • Rakitskiy, A. A. Information theory as a means of determining the main factors affecting the processors architecture / A. A. Rakitskiy, B. Ya. Ryabko // Computational Technologies. — 2020. — Vol. 25, No. 6. — P. 104-115.

Ссылки