О структуре информации
ИНФОРМАТИКА - отрасль науки, изучающая структуру и общие свойства научной информации, а также вопросы, связанные с ее сбором, хранением, поиском, переработкой, преобразованием, распространением и использованием в различных сферах человеческой деятельности. (Советский энциклопедический словарь, 1981 г.).
Известно (см. Урсул А.Д. "Отражение и информация", Изд-во
"Мысль", 1973), что развитие теории информации стимулировалось потребностями связи. Однако, распространение АСУ повысило внимание специалистов к основному понятию, связанному с информацией, - с понятием структуры знаний. Действительно, это есть основное понятие в то время, как количество информации – прототип понятия пропускная способность канала - уже есть интегральная характеристика. Сразу же стоит подчеркнуть, что любая структура - это модель реальности. И что среди моделей - самая адекватная объекту познания есть модель диалектического противоречия. Однако вопрос структуры диалектического противоречия (борьбы) разработан пока мало.
1. Энтропия в квантовой статистике
В квантовой статистике определено понятия "статистического веса". Натуральный логарифм от него и есть величина энтропии:
sigma = Ln (delta Г)
Выражение статистического веса (delta Г) через объем фазового пространства, то есть, произведение S импульсов (P) и S координат (Q), деленное на квант действия, позволяет записать формулу энтропии в виде:
(delta P)*(delta Q)
sigma= Ln-----------------------------
(2*pi*h)**S
где: S - число степеней свободы системы;
h - квантовое число;
pi- число 3.14 ...
Размерность действия - эрг*сек.
Представление энтропии в форме, которая соответствует формализму квантовой статистики, позволяет установить ряд новых свойств информации.
Если изменить единицу действия в а раз (метод Ландау), то
(delta P)*(delta Q) = (a**S)*(delta p)*(delta q)
Ln((delta P)*(delta Q)) = S*Lna + Ln((delta p)*(delta q))
Если a>1, то энтропия в новых переменных (p,q) становится меньше на величину S*Lna, что означает появление информации как раз на эту же величину. Это значит, что введение нового более крупного масштаба порождает информацию. (Отсюда польза классификаций, однако, изменению масштаба есть предел - область определения переменных). Для того, чтобы найти все возможные измения структуры описания, порождающие информацию, продифференцируем по времени формулу энтропии:
d(sigma)/dt = d((Ln(delta Г))/dt =[d(delta Г)/dt]/(delta Г)
d((delta P)*(delta Q))/dt S*d(2*pi*h)/dt
d(sigma)/dt = ----------------------------- - ---------------
(delta P)*(delta Q) 2*pi*h
Второе вычитаемое правой строны равно нулю, так как h есть константа.
Энтропия в квантовой статистике является безразмерной величиной. В то же время по К.Шеннону информация была определена как отрицательное приращение энтропии, определенной с присущей ей размерностью. Квантовая статистика позволила нам установить, что эта размерность совпадает с размерностью действия. Поэтому более корректно написать, что объем фазового пространства равен:
(delta P)*(delta Q)*эрг*сек.
Размерность эрг есть [кГ*сек*м].
Размерность кГ есть [кг*м/сек**2].
Отсюда размерность действия эрг*сек есть [кг*(м**2)/сек].
Поэтому приращение энтропии должно представляться в виде суммы двух частей: первая часть относится к структуре описания системы, а вторая - к структуре размерности:
d(delta P)/dt d(delta Q)/dt
d(sigma)/dt = --------------- + ---------------- +
delta P delta Q
delta m**2 delta кг delta сек
S(------------------ + ------------ - ----------------)
m**2 кг сек
Размерность P есть [кг*м/сек].
Размерность Q есть [м].
Однако фазовое пространство может быть описано и другим "языком", а не только импульсами и координатами. Необходимо только, чтобы объем его имел размерность действия. В частности фазовое пространство может быть описано в терминах работы и времени. (Такое представление характерно для проблем каналов связи.) Тогда информация возникает от произведенной работы над системой и времени, необходимого для этого. Увеличение информации связано с изменением потенциала системы (объекта) проделать работу.
Еще вариант описания: сила*расстояние*время.
Что касается второй части изменения энтропии, связанной с размерностью, то информация возникает при уменьшении размерности описания системы (объекта), с уменьшением массы системы (объекта) - физическая суть этого пока не установлена. Информация убывает со временем - это известное явление "старения" информации. Информация имеет три компоненты: материальную, пространственную и временную. В приведенном описаниии заложено неявное предположение, что координаты описания выбраны ортогональными. Реально это не так. Поэтому размерность S вынести в общем случае за скобку нельзя. В результате в описании фазового пространства возникнут произведения вида:
(м1**2)*(м2**2)* ...
Эти произведения можно записать в другом порядке:
(м1*м2)*(м2*м1)*...
Такую запись можно интерпретировать как связь м1 с м2 и наоборот м2 с м1. Если значения м1 и м2 появляются во времени случайно, то м1*м2 можно интерпретировать как корреляцию м1 и м2. Наличие корреляционной связи (зависимости между переменными) математически ведет к уменьшению энтропии, так как м1*м2 меньше, чем [м1]*[м2]. Значит установление связи между переменными есть получение информации.
Обратим внимание: S -число степеней свободы. Размерность пространства - 3. Но S может быть больше 3. Одним из направлений увеличения числа степеней свободы является учет рефлексий (отражений) второго, третьего и т.д. порядков. Вопрос: в чем особенность рефлексий более высокого порядка?
Возможный ответ качественного порядка можно найти в статье журнала НТИ, сер.2, N12, 1985 г. (информационные системы) "Об "интеллектуальности" автоматизированных фактографических ИПС". Авторы: Б,В,Кристальский, В.Г.Войскунский, А.А.Раскина, И.С.Сидоров, В.И.Шарыгин. На стр. 8 написано: "когда требуется хранение некоторых знаний, полученных в результате логической обработки и обобщения отдельных фактов, "язык отношений" оказывается недостаточно "технологичным"."
Читая книгу (Роман Павлович Поплавский, ТЕРМОДИНАМИКА НФОРМАЦИОННЫХ ПРОЦЕССОЫ, М.,НАУКА, Главная редакция физико-математической литературы,1981 г.), можно сделать следующие выводы:
1) имеет место различие в размерности энтропии и количества информации; так на стр.66 есть ссылка на книгу Шамбадам П., Развитие и приложение понятия энтропии,Пер. с франц. В.Т.Хозяинова,М.,НАУКА, 1967 г.: "Безразмерной энтропией часто пользуются в статистической физике".
2) на стр.61 читаем: "... понимание статистической энтропии в процессе управления служит мерой УПОРЯДОЧЕНИЯ системы и называется негэнтропийным эффектом".
Так как это утверждение дается в ракурсе поиска связи энтропии, информации и негэнтропии то УПОРЯДОЧЕНИЕ является у автора синонимом информации. Возникает вопрос всякое ли упорядочение дает информацию?
Напомним, что процесс управления включает первичный информационный процесс - процесс физического измерения и собственно управления (например, механизмом вдвигающим заслонку в случае обнаружения молекулы со скоростью ниже средней - известная модель Демона Максвелла).
Изобразим СВЯЗЬ скорости X молекул и положения заслонки на рисунке:
Заслонка---------
¦ ¦
___¦___¦_________
¦ 0 Vср V
Рис.
Эта СВЯЗЬ является прямым следствием связи скоростей двух молекул - одна молекула случайная, а вторая - эталонная и движется со скоростью Vср.
Измерение есть КОРРЕЛЯЦИЯ со шкалой измерений (в данном случае - со шкалой скоростей).
2000
Свидетельство о публикации №110112610081