Информация как основа жизни

Страница: 1234567 ... 170

Глава седьмая. Предвидимо ли будущее?

Обозначение используемых понятий

Contents

Prolegomenon

Chapter 1. History

Chapter 2. Information and Its Properties

Chapter 3. Information Systems

Chapter 4. Porism Principle

Chapter 5. Dynamics of Information

Chapter 6. Biosphere and Technogenes

Chapter 7. Can One Predict the Future

Designation of the Notions Used

ПРОЛЕГОМЕНЫ

Термин «информация»

Термин «информация» широко используется в научной литературе. Трудно найти область знаний, избежавшую соблазна его применять. Это – следствие все продолжающегося расширения смыслового поля этого термина.

В тридцатые годы и ранее слово «информация» использовали, в основном, как «сведения» или «осведомление», т.е. как прямой перевод латинского informatio. К концу сороковых годов под «информацией» начали понимать функцию статистических характеристик букв какого-либо языка. Так, согласно К. Шеннону [1], количество информации, содержащейся в каком-либо сооб­щении, состоящем из М букв, равно

(1)

где п – число букв в данном языке, ар– частота встречаемо­сти i–той буквы (i=1,2...n) в этом языке. Знак минус поставлен перед правой частью формулы для того, чтобы количество ин­формации Н всегда было положительным.

Под влиянием работ Л. Бриллюэна [2], начиная с шестидеся­тых годов, возник и приобрел широкую известность «негэнтропийный принцип информации». В отличие от энтропии, рас­сматриваемой в качестве меры неупорядоченности той или иной системы, негэнтропией обычно называют меру упорядоченности окружающих нас систем, связывая с ней различного рода анти­энтропийные процессы, протекающие в физическом мире. В основе негэнтропийного принципа лежит формальное сходство обобщенной формулы К. Шеннона

(2)

и знаменитой формулы Больцмана для физической энтропии S = lnW, где W - число состояний, которые может принимать система. Если микросостояния системы различны, то формула будет выглядеть так

(3)

Л. Бриллюэн предложил выражать информацию I и энтропию S в одних и тех же единицах - информационных (битах) или эн­тропийных (эрг/град).

Б. Б. Кадомцев указывает [3], что величины I и S формально равны потому, что I соответствует информации одного единст­венного состояния из множества возможных, a S определена по множеству всех состояний. Здесь понятие информации дается в терминах физической статистики. Алгоритмическую информацию можно рассматривать как меру алгоритмической хаотичности [4]. Эти два определения практически совпадают [5].

— 2 —
Страница: 1234567 ... 170