Выступления по этой статье:
Выступление от 20.02.2010, доктор Хейфец Иосиф, ИзраильОтвет автора от 15.04.2010, профессор Романенко Владимир , Россия, профессор Никитина Галина, Россия
Выступление от 13.04.2010, доктор Атаманов Геннадий, Россия
Ответ автора от 08.04.2010, профессор Романенко Владимир , Россия, профессор Никитина Галина, Россия
Выступление от 24.03.2010, доктор Атаманов Геннадий, Россия
Мне уже приходилось писать об интеллигенции, как о тех, кто «методами науки, искусства или религии добывает, перерабатывает, оценивает и распространяет информацию об окружающем мире и нашем в нем месте». Понятие «информация», как отражение свойств реального мира, в последние годы широко вошло в практику в значении «знания» и «сведения». Однако, со временем выяснилось, что в термин информация можно вкладывать различные смысловые значения. Быстрое и широкое распространение термина размыло границы самого понятия Вместе с тем, понятия, связанные с эти термином столь важны, что авторы представляемой работы поставили себе целью рассмотреть с единых позиций разные подходы к использованию термина информация, обращая внимание на все стадии информационного процесса. Рассматривается также связь понятия информации с понятиями однородности и хаоса. Можно уверенно предполагать, что результаты работы смогут послужить хорошей базой для дальнейших, более детальных, исследований этого вопроса.
- Философия информации [Аноним. сетевой материал] – http://mylearn.ru/kurs/4/177
- Лозовский В.Н., Лозовский С.Н. Концепции современного естествознания – СПб.: «Лань» 2006. 224 с.
- Седов Е.А. Эволюция и информация – М.: «Наука», 1976. 232 с.
- Хазен А.М. Введение меры информации в аксиоматическую базу механики – М.: ПАИМС, 1996. 48 с.
- Янковский С.Я. Концепции общей теории информации [сетевой ресурс] — http://n-t.ru/tp/ng/oti.htm
- Кравченко В.Б. Информация – объект или субъекты исследования [сетевой ресурс] – http://www.galactic.org.ua/Prostranstv/pr_kiber7.htm
- Hartly R.V.L. Transmission of Information – Bell Syst. Tech. J. v.7, 535-563 (1928).
- Перевод в кн. «Теория информации и её приложения» – М.: ФизматГИЗ, 1959.
- Shannon C.E. A Mathematical Theory of Communication – Bell Syst. Tech. J v. 27 373-423, 623-656.(1948).
- Timeline of Information Theory [сетевой материал] –
http://en.wikipedia.org/wiki/Timeline_of_information_theory - Бриллюэн Л. Наука и теория информации. Пер. с англ. – М.: Физмат ГИЗ, 1960. 392 с.
- Бриллюэн Л. Научная неопределённость и информация. Пер. с англ. Изд. 3-е — М.: Изд. КД Либрком, 2009. 271 с.
- Яглом А.М., Яглом И.М. Вероятность и информация. Изд. 3-е – М.: «Наука», ФизматГИЗ, 1973. 512 с.
- Винер Н. Кибернетика или управление и связь в животном и машине. Пер.с англ. – М.:«Советское радио», 1959. 216 с.
- Газе-Раппопорт М.Г., Поспелов Д.А. От амёбы до робота: Модели поведения – М.: «Наука» Физмат ГИЗ, 1987. 288 с.
- Эко У. Отсутствующая структура. Введение в семиологию. Пер с итал. – СПб.: Symposium, 2006. 538 c.
- Моль А. Теория информации и эстетическое восприятие. Пер. с франц. – М.: «Мир», 1966. 351 с.
- Хорн Г. Память, импринтинг и мозг: Исследование механизмов. Пер. с англ. – М.: «Мир», 1988. 343 с.
- Кохлеарная имплантация [аноним. сетевой материал] –
http://www.triensmed.ru/news/post-new676.ru - Зотова О.В. Педагогическая реабилитация детей после кохлеарной имплантации [сетевой материал] – http://www.istok-cochlear.ru/index.php?area=static&page=ps6
- Petersen B., Mortensen M.V., Gjedde A., Vuust P. Reestablishing Speech Understanding through Musical Ear Training after Cochelar Implantation. A Study of Potential Cortical Plasticity – The Neurosciences and Plasticity III; Disorders and Plasticity. Ann of NY Acad. of Sci. 1169, 437-440 (2009). Сетевой вариант:
http://www.misic-consw.dk/nyheader/pdf/09_sent_oct/nyas_article.boehhe.pdf - Козырев Н. А. Избранные труды. – Л.: Изд. ЛГУ, 1991. 443 с.
- Л.С. Шихлобалов. Список работ [сетевой ресурс] –
http://www.chronos.ru/nameindex/shiobalov.htm - Шихобалов Л.С. Квантовомеханические соотношения неопределённостей как следствие постулатов причинной механики Н.А. Козырева; силы в причинной механике – В сб. «Изучение времени: концепции, модели, подходы, гипотезы и идеи.» Шахты: Изд. ЮРГУЭС, 2005. с. 126-156.
- Эвентологическое описание семантической информации [аноним. сетевой материал] – http://www.wikiynanie.ru/ru-wz/index.php /Эвентологическое_описание_информации
- Шрейдер Ю.А. Об одной модели семантической информации – Сб. «Проблемы кибернетики» (1960). Вып. 4
- Шрейдер Ю.А. Тезаурусы в информатике и теоретической семантике – НТИ сер. 2(1971), № 3, с. 21-24
- Sharov A. Yuli (Yulius) Schreider. On Systems and Models [сетевой ресурс] — http://home.comcast.net/~sharov/ biosem/schreider/shreider.html .
Сетевой вариант: http://www.chronos.msu.ru/REPOTRS/shihobalob_kvatovo_pdf - Харкевич А.А. О ценности информации – Сб. «Проблемы кибернетики». (1960). Вып.4
- Floridi L.Semantic Conceptions of Information – Stanford Encyclopedia of Philosophy. Сетевой вариант: http://plato.stanford.edu/information_semantic .
- Чурсин Н.Н. Популярная информатика – Киев: Технiка, 1982, 158 с. Сетевой вариант: http://n-t.ru/ri/ch/pi02.htm
- Berkeley G. Alkiphron: Or the Minute Or Philosopher – Routlege. L - N.Y. 1993. 236 p. На русском языке: Беркли Дж. Алкифрон, или Мелкий философ; Работы разных лет. Пер. с англ. – «Алетейя» СПб: 2000. 425 с.
- Хазен А.М. Место дарвинизма в общей картине природы [Сетевой ресурс] — http://www.elektron2000.com/khazen_0082.html
- Попов В.П., Крайнюченко Н.В. Глобальный эволюционизм и синергетика ноосферы – Изд. АПЦН СКНЦ ВШ: Ростов-н/Д.2003. Сетевой вариант на сайте: http://holism.narod.ru
- Луценко Е.В. Универсальный информационный принцип развития систем — Квантовая магия 5, вып. 4, 4201 4267, 2008. [сетевой вариант]:
http://quantmagic.narod.ru/volumes/vol542008/p4201.html Lutsenko E.V. Conceptual principles of the system emergent information theory & Its application for the modeling of the action objects entities – 2002 IEEE International Conference of Artificial Intelegence System (ISAIS 2002). Computer Society IEEE: Los Alamos and oth. pp 268-269.
Вяткин В.Б. Синергетическая теория информации: Общая характеристика и примеры использования – Наука и оборонный комплекс – основные ресурсы российской модернизации. Материалы межрег. конф. Екатеринбург. УрО РАН. 2002. Сетевой вариант:http://inftech.webservis.ru/it/information/vyatkin/ar_02/index.html
Губин В.В. Физические модели и реальность. Проблема согласования термодинамики и механики. – Алматы: 1993. 231 с. [Сетевой вариант]:http://gubin.narod.ru/AVVEDENI.htm
Голицин Г.А. Левич А.П. Принцип максимума информации и вариационные принципы в научном знании [сетевой ресурс] —http://www.chronos.msu.ru/REPORTS/golitsin_princip.htm
Хубка В. Теория технических систем / Пер. с нем. – М.: «Мир», 1987. 208 с
Koller R., Kastrup N. Prinziplösungen zur Konstruktion Technischer Produkte – Berlin – NY. Springer-Verlag. 1994. S 476.
Eder W.E., Gosling W. Mechanical System Design – Oxford, NY, Pergamon Press 1965. 226 p.
Романенко В.Н. Принципы общей теории технологий – СПб.: Изд СПбГАСУ, 1994. 53 с.
Романенко В.Н., Никитина Г.В. Описание технологий (В печати).
Тоффлер Э. Третья волна. Пер. с англ. – М.: АСТ, 2004. 781 с.
Шрейдер Ю.А. Информация и метаинформация — Сб. «Научно-техническая информация». (1974) Вып. 4, с. 3 – 10.
Кудрин Б.И. Технетика: новая парадигма философии техники (третья научная картина мира) – Томск: Изд. Томского ун-та, 1998. 40 с. Сетевой вариант: http://www.kudrinbi.ru/public/10414/index.htm
Никитина Г.В., Романенко В.Н. Формирование творческих умений в процессе Профессионального обучения —СПб.: СПбГУ, 1992. 168 с.
Щербаков В.П. Эволюция как сопротивление энтропии [Сетевой материал] - HTTP://elementy.ry/lib/430413
Эшби У.Р. Введение в кибернетику. Изд. 3-е. Пер. с англ. – М.: КомКнига, 2006, 432 с.
Романенко В.Н. Управление составом полупроводниковых кристаллов М.: «Металлургия», 1976. 368 с.
- Романенко В.Н. Оценка неоднородности распределения состава кристаллов и смесей – ТОХТ Т.19, № 6. с. 741 – 756. 1985 г.
- Семенченко В.К. О фазовых равновесиях и переходах в области низких температур - В сборнике «Химическая связь в кристаллах». Минск, «Наука и техника» 1969. с. 213 – 219.
- Эткин В.А. Равновесие: порядок или хаос? (Equilibrium: an order or chaos?) [Сетевой ресурс] –http://zhurnal.lib.ru/etkin_w_a/ravnovesieporjaokilichaos.shtml
- Чайковский Ю.В. Элементы эволюционной диатропики – М.: Наука, 1980. 270.
- Романенко В.Н. Основные представления теории многообразий – СПб: Изд СПбГАСУ, 1997. 76 с.
- Бердников Л.Н. Многообразие единого: Тезисы. – СПб.: Изд. СПбГУ. 1999. 36 с.
- Луценко Е.В., Лойко В.И. Семантические информационные модели управления агропромышленным комплексом – Краснодар, изд. Куб ГАУ, 2005. 484 с. [Сетевой вариант] http://www.tewripx.com/file/38162
- Парето В. Чистая экономия. Пер. с франц. – Воронеж, Типография М.М. Сомова, 1912. 12 с.
- Парето В. Компендиум по общей социологии. Пер. с итал. – М.: Изд. Дом ГУ ВШЭ, 2007. 511с.
- Тоффлер Э., Тоффлер Х. Война и антивойна. Что такое война и как с ней бороться и как выжить на рассвете XXI века. Пер. с англ. – М.:АСТ: Транзиткнига, 2005.412 с.
- Луговской В.М. Супермозг человечества [Электронный ресурс] — http://www.elektron2000.peremoga.bizcom/lugovskoi_0148.html
[1] С основными датами развития представлений о передаче информации сигналами можно ознакомиться по[9].
[2] Связь этих процессов с оператором присвоения мы не затрагиваем.
[3] Этот вопрос обсуждался одним из авторов с покойным академиком В.А. Фоком. Хотя погрешностей в предварительных результатах автора отмечено не было, эти материалы остались не опубликованными.
[4] URL-адреса соответствующих ссылок можно найти по ключевому слову metainformation на персональном сайте автора:http://www.cs.tut.fi/~korpela .
[5] Основной ценностью работ Б.И. Кудрина следует считать установление глубоких связей между законами, описывающими биологию и технику.
[6] Термин клиентская аппаратура широко используется в теории и практике Интернета.
[7] Этот вопрос освещён во многих работах Е.В. Луценко. Также как[34,35] все эти работы имеются в Интернете. К сожалению, увлечение автора астрологией рассеяло многие из его интересных и полезных публикаций по заведомо маргинальным журналам.
[8] В силу широкого распространения подобных наблюдений и их разбросанности по разным областям знания мы позволим себе не давать ссылок на первоисточники, ограничившись лишь упоминанием о том, что этот закон часто называют законом 80/20.
[9] В процесс этого структурирования включаются и некоторые дополнительные факторы, которые привели к закрытию в декабре 2009 г. автоматического статистического анализа, связанного с работой ИПС Яндекс.
[10] Мы позволим себе не давать здесь ссылку, а просто отослать читателя к полному собранию сочинений писателя.
[11] Исторически, для обозначения скрытых умений впервые использовался термин теневые. В силу его негативного звучания в современной России он был заменён на переведённый с английского языка термин скрытые.Дло
Передано автором для обсуждения на семинаре 23 декабря 2009г.
Понятие информация в последние годы широко вошло в практику. Однако, со временем выяснилось, что в термин информация можно вкладывать различные смысловые значения. В предыдущие годы основное внимание исследователей уделялось только количественным оценкам этой важнейшей характеристики Вселенной. В то же время не менее существенно рассмотреть смысловые и ценностные аспекты этого понятия, а также учесть то, что в ряде случаев необходимо учитывать коммуникативные особенности информации. Поскольку дальнейшее продвижение в этом плане затруднено из-за неоднозначности используемых смыслов, авторы поставили себе целью рассмотреть с единых позиций разные подходы к использованию термина информация,обращая внимание на все стадии информационного процесса. Рассматривается также связь понятия информации с понятиями однородности и хаоса.
- Весь материал представлен в пяти разделах:
- 1. С чем связаны трудности определения понятия информация
- 2. Информационный процесс и его стадии
- 3. Основные свойства информации
- 4. Информация, разнообразие и однородность
- 5. О роли коммуникативного обмена
- 1. С чем связаны трудности определения понятия информация
Свойства мира, которые в повседневной жизни связывают с понятием информация, интересуют Человечество с глубокой древности. Иногда даже говорят о том, что подтверждением этого интереса служат начальные слова Евангелия от Иоанна: «В начале было слово». Тем не менее, термин информация вошел в практический обиход не очень давно. Понятия, связанные с эти термином столь важны, что он быстро получил широчайшее распространение. Быстрое и широкое распространение термина размыло границы самого понятия. В связи с этим иногда говорят о том, что информация – это чисто интуитивное, строго не определяемое понятие. Эволюция использования общих терминов всегда связана с необходимостью выделения в них разных смысловых значений. Соответственно, периодически требуется проводить их уточнение. Применительно к информации при подобном уточнении желательно ограничиться только установлением смысла разных значений термина информация. Вопросы же неологизации, то есть введения новых терминов затрагивать преждевременно.
Если исходить из самых общих представлений, то становится очевидным, что отражение сведений об окружающем мире должно передаваться живым существам посредством некоторой функции, имеющей определённое смысловое содержание. Именно эта функция отражения свойств реального мира и рассматривается обычно в общем плане как информация или, более точно как знание, сведения и т.д. (см. напр.[1]). Нетрудно понять, что отражение мира, воспринимаемое различными объектами, может быть разным. Поэтому такое понимание информации далеко от чётких представлений. Тем не менее, как видно из приведённой выше ссылки, это определение используется в обучении. В обучении также используются и другие определения понятия информация. Они не очень хорошо согласуются между собой. В связи с этим общий анализ понятияинформация важен и для педагогического процесса. Отметим также, что информационное отражение реального мира может воздействовать не только на живые существа, но и на некоторые машины и более простые неживые объекты. Все эти воздействия происходят в рамках того, что естественно называть информационным процессом.
Трудности определения понятия информация, соотносятся с двумя причинами. Первая из них очевидна. Введение нового широкого термина вычленяет широкую понятийную область. Дальнейшие работы в этой области всегда выявляют то обстоятельство, что широкие термины многоаспектны. В связи с этим после периода латентного развития возникает настоятельная необходимость в дроблении понятия и его дальнейшем уточнении. В принципе, это можно сделать как путём введения новых терминов, так и путём уточнений, достигаемых использованием различных чётко установленных определений. Вторая причина обусловлена тем, что информация – это одна из наиболее общих характеристик Универсума (Вселенной). Общепризнано, что Универсум имеет иерархическую структуру. (см. напр. один из стандартных учебников по курсу «Концепции современного естествознания»[2]). Как следствие, информация также имеет структурные уровни[3,4]. Наличие структурных уровней информации требует введения уточняющих понятий и терминов. Из сказанного следует, в частности, ещё одно следствие: уточнение понятия информация можно производить двумя путями. Первый путь исходит из последовательного анализа различных иерархических уровней информации. Если удачно выбрать исходный для анализа структурный уровень, то такой анализ характеризуются разумной последовательностью введения терминов. Тем не менее, трудности в выборе наиболее подходящего исходного уровня и ряд других очевидных сложностей[5] заставили нас в качестве отправной точки использовать идеи второго пути. Этот путь основан на общем анализе всего информационного процесса на том иерархическом уровне, который непосредственно связан с повседневной деятельностью человека. При таком подходе возможно без больших затруднений привлекать к анализу результаты из смежных областей, пользующихся понятием информации. Примером такой области может служить юриспруденция[6].
2. Информационный процесс и его стадии
Рассмотрим стадии информационного процесса. Начнём с простого примера. Пусть имеется ствол многолетнего дерева. Годовые кольца, которые могут проявиться на его срезе, несут данные (сведения) о том, какими с точки зрения среднегодовой температуры были различные годы. Дерево ещё не спилено и вся эти данные скрыты. Тем не менее, при известных условиях они могут быть превращены в информацию. При желании эти данные можно назвать скрытой информацией. Можно использовать и выражения начальная или исходная информация. Никаких терминологических традиций или авторских предпочтений у нас нет. В то же время понятно, что в этом случае мы сталкиваемся с некоторымупорядочением. В рассматриваемом случае это упорядочение в расположении и толщине слоёв дерева. Строго говоря, чтобы это упорядочение можно было превратить в информацию или в разумный сигнал, нужно уметь ещё провести его расшифровку (декодирование). Если дерево спилено, то скрытая информация, точнее имеющееся упорядочение, может быть обнаружена. Это упорядочение можно наблюдать глазами. Строго говоря, сведения об этом упорядочении распространяются в пространстве. Это распространение не имеет адресата. Оно проявляется независимо от каких-либо обстоятельств. Окружающий нас мир заполнен такими сведениями. К ним можно, прежде всего, отнести тепловое излучение. Это излучение может служить примером независимого наличия сведений. В ряде случаев источник таких сведений может оставаться неизвестным. В подобных сведениях в не выявленном виде имеется некое содержание. Это содержание, естественно есть некая форма информации. Она также может считаться скрытой. Тем не менее, говорить об её тождественности с исходной информацией нельзя. Более того, даже в случае расшифровки этого содержания его истолкование может быть неоднозначным. Так, например если с помощью приёмника, например глаза, мы обнаружим, что у человека покраснели щёки, то истолковать эти сведения, превратить их в некоторые данные путём обработки содержащейся в содержании информации, очень непросто. Щёки человека могут покраснеть из-за смущения, повышенного кровяного давления, оттого, что он пробежал большое расстояние и т.д. Если содержание специально формируется и направленно на некоторый объект, который может служить потенциальным получателем и пользователем содержащейся информации, то можно говорить о наличии сигнала. Строго говоря, именно изучение сигналов и послужило той отправной точкой, с которой начался современный подход к исследованию информации[7,8].[1] Изучение передачи сигналов и связь информации с упорядочением[10–13] многократно описаны, и обсуждать здесь эти проблемы нет никакого смысла.
Основное отличие сигнала в принятом нами смысле – это его целенаправленность. Мы не пользуемся подходящим для этих целей термином коммуникативность только в силу того, что он несёт в себе некоторый оттенок взаимности, то есть подразумевает наличие ответа. Сигнал поступает в некоторый обобщённый приёмник. Принятый сигнал может проходить через систему фильтров[14]. В конечном итоге сигнал поступает на оконечное устройство. Примером такого устройства может служить человеческий мозг. В то же самое время можно отметить, что приёмными устройствами характеризуются и неживые системы, в частности, машины. Путь, по которому сигнал проходит от источника до приёмника – это канал связи. В теории передачи сигналов всегда уделялось большое внимание установлению связи искажения сигнала со свойствами этого канала. Речь при этом в первую очередь шла о пропускной способности канала[3,7,8,12,13]. После того как сигнал, прошедший канал связи, поступает в оконечное приёмное устройство (в мозг), начинается его обработка (термин условный). Пришедший сигнал отражает сведения о передающей системе с помощью кодов. Например, сведения о температуре тела можно передать разными способами, то есть использовать разные коды. Естественно, что практически никакой код не может быть тождественен передающей системе. Поэтому степень отражения её свойств кодом может быть разной. Задача принимающей системы состоит, прежде всего, в опознании кодов[15]. Для этого они должны быть выделены из сигнала.
Обратим внимание на одно обстоятельство, которое часто упускается из вида. Обычно ознакомление с информатикой начинается с изучения основных действий вычислительной машины, в частности со знакомства с математическими операторами. Основные операторы отражают основные действия с переменными. Чаще всего знакомство начинается с операторов сложения и умножения. Нередко знакомство начинают с оператора присвоения. В общем, это естественно. В то же самое время такой подход маскирует одну важнейшую особенность, присущую окружающему Миру. Она связана с тем, что в реальной ситуации первой операцией, используемой любым объектом следует полагать операцию узнавания, типа «свой - чужой». В сочетании с операцией сравнения узнавание определяет процесс опознавания кодов[2]. В любой математизированной процедуре эта операция считается уже выполненной и поэтому на неё обычно не обращают внимания. В реальной же жизни, именно процессы выделения и опознания объектов следует считать первичными.
В процессе опознания коды сигнала сравниваются с теми сведениями (данными), которые имеются в памяти приёмного устройства. Сравнение позволяет определить новизну сигнала и таким образом выяснить его ценность. Уже имеющиеся в памяти сведения структурированы в тезаурусе (словаре) приёмного устройства. Новые сведения, которые содержатся в сигнале, могут либо отброситься и со временем забыться, или же поступить в тезаурус. Иными словами, взаимодействие сигнала с тезаурусом меняет и сам тезаурус. При этом сами сведения, которые имеются в сигнале, превращаются в данные. Естественно, что данные, имеющиеся в тезаурусе, то есть в памяти объекта, структурированы. Память имеет иерархическую структуру. Для сохранения данных в памяти нужно сочетание двух факторов. Первый из них это эффект от новых данных. Условно говоря этот эффект может быть определён, как сила воздействия (величина впечатления, переживания). Чем больше эта величина, тем данные легче сохраняются в памяти, то есть запоминаются. Величина впечатления зависит от свойств объекта (индивидуума), в частности от его тезауруса. Реально оценить её очень непросто. Фактор больших (сильных) впечатлений эффективен только в том случае, если он редок. В обычных же условиях более существенен второй фактор, который способствует запоминанию. Это фактор повторения или подкрепления[4,14,16].
Из сказанного очевидно, что процесс формирования тезауруса, или же процесс расширения памяти связан с уже имеющимися в памяти исходными данными. В связи с этим возникает вопрос о самых первых стадиях формирования памяти. Для человека это вопрос о том, как отбираются первичные впечатления. Очевидно, большая их часть строится на основе запоминания многократно повторяющихся сигналов[4]. В то же время у высокоорганизованных существ имеется и генетическая программа запоминания. Чтобы подтвердить это, достаточно вспомнить о механизме импринтинга[17]. Применительно к вычислительной технике вопрос о начальной программе, обеспечивающей дальнейшее запоминание, решается её создателями.
Начальный тезаурус понятий, как мы уже отметили, строится на основе повторяющихся впечатлений, которые создают некий образ. Проследить это непросто, так как самые ранние впечатления, скажем человека, трудно выявить экспериментально. В то же время ряд медицинских исследований проливает дополнительный свет на эту проблему. Действительно, в последние годы в повседневную практику стали входить специальные операции по восстановлению или созданию слуха у полностью глухих и по созданию того, что можно условно назвать искусственным зрением. Принципиальная идея соответствующих операций может быть проиллюстрирована т.н. кохлеарной имплантацией (cochlear implantation). Краткие сведения о существе этой операции можно найти в[18,19]. (Аналогичные, но более сложные в техническом плане идеи, используются и в офтальмологии.) Эти операции позволяют подсоединить к ушному нерву электронную схему, которая генерирует непосредственные сигналы, поступающие в мозг и имитирующие работу поражённых частей слухового канала. (В офтальмологии ситуация несколько более сложна, но по существу та же самая). В этом случае оперируемый начинает получать первые слуховые или зрительные впечатления уже в том возрасте, когда имеется возможность проанализировать процесс. Естественно, что работа и врачей и соответствующих педагогов направлена, в первую очередь, на формирование правильного восприятия окружающего мира, а не на анализ формирования первичных впечатлений. Широко изучается и возникновение новых связей между нейронами в мозгу. Тем не менее, из имеющихся наблюдений можно вычленить ряд полезных сведений. В частности при обучении ранее полностью глухих детей отмечается, что первоначально они не умеют выделять то направление, откуда идёт звук, оценивать его периодичность и т.д. Можно выявить и то, как повторение одинаковых (схожих) последовательностей кодов постепенно формирует первоначальный набор впечатлений. В то же время основное внимание всё же уделяется методам ускоренного восприятия ориентировки в море различных сигналов, которые первоначально воспринимаются как хаос[20]. Все эти данные подтверждают соображения о роли повторяемости и интенсивности кодов в формировании начального тезауруса. В связи со сказанным интересно проследить и за процессом стирания записей в тезаурусе при ряде заболеваний, например при болезни Альцгеймера.
Так как процесс опознания кодов связан с запоминанием и сравнением, то он формирует ещё одно действие, которое для человеческого мозга также подсознательно. Однако это действие в иерархии подсознательных действий относится к более высокой их ступени. Это действие, в соответствии с терминологией А. Моля[16] можно обозначить, как ожидание. Ожидание – это действие (примитивный процесс), которое на основе уже полученных данных пытается оценить данные, которые будут в сигнале (последовательности кодов) далее. (Для этого действия можно использовать термин угадывание). Иными словами: ожидание – это действие (процесс), которое на основе прошлого (близкого прошлого) пытается предсказать будущее. Естественно, что ожидание характеризуется рядом ограничений. Они связаны с глубиной оценки прошлых данных и временной протяжённостью ожидаемых данных. Иными словами, ожидание – это процесс, связанный с временными интервалами. В этом процессе проявляется асимметрия относительно времени. Можно выразить это и как утверждение о том, что ожидание – это процесс, который связан с угадыванием причинно-следственной связи. Заметим, что этот процесс можно связать с представлениями причинной механики Н.А. Козырева[21]. Однако глубокий анализ этого вопроса уводит нас в сторону от рассматриваемой проблемы. Обратим внимание на обстоятельство, которое чётко указано в[16], а именно на то, что обработка сигнала (некоторой последовательности кодов) требует определённого времени. Это приводит к ряду ограничений, накладываемых на параметры сигнала. По форме эти ограничения напоминают соотношение неопределённостей. (Вопрос о связи передачи информации и причинно-следственных связей с соотношением неопределённостей, в духе теории[18] периодически обсуждается в литературе. См. Напр. работы Л.С. Шихобалова, список которых имеется на сайте[22], а. также[23])[3]. Время обработки сигнала учитывает корреляцию его порций. С математической точки зрения сказанное означает, что в описании должна быть использована автокорелляционная функция. Вопросы этого плана детально описаны в[17] и мы их более подробно не затрагиваем. Отметим ещё, что если информация воспринимается живым существом, то в этом процессе происходит превращение сигналов объективного мира в некоторые субъективные следы, остающиеся в памяти, то есть в образы.
Информация, которая поступает в приёмник (мозг), оценивается иначе, чем это принято при энтропийном подходе, часто называемомсинтаксическим. При такой оценке речь идёт о смысловом содержании сигнала (сообщения). В этом случае принято говорить о т.н. семантическойинформации. Семантическая информация имеет множество аспектов. В[24] указываются, хорошо известные в России, основные авторы, изучавшие семантическую информацию. Это, прежде всего Ю.А. Шрейдер[25-27], а также А.А. Харкевич[28] ряд других. В обзорной статье[29], написанной известным английским философом, итальянского происхождения Лючиано Флориди, приводится большой список зарубежных специалистов, работавших в этой области. Главное во всех упомянутых источниках одно и то же – введение смыслового понятия информации и разработка различных путей её классификации и количественной оценки. Вопросы же в расхождении основных идей и принципов понимания и описания семантической информации нельзя считать странным. Так, в частности работа[29] как раз начинается с обсуждения вопроса о разном понимании понятия информация и, как следствие, разницы в методах её количественного описания. Эта ситуация чётко и понятно описана в[30]. Различие в описаниях и трактовках в понимании информации, выделение разных аспектов, которые с ним связаны, не случайно. Время, в течение которого стал активно использоваться этот термин, достаточно велико, для того чтобы стала ясна многоаспектность термина и, следовательно, необходимость уточнений. Как отмечено в[28], термин информация уже использовался в диалоге Алкифрон, впервые изданном в 1732 году[30]. Итак, многоаспектность термина информация породила многочисленные и часто кажущиеся противоречивыми его определения и понимания. Эта многоаспектность на наш взгляд проистекает из того, что информация характеризуется многими иерархическими уровнями. Иерархичность уровней информации чётко отражена в работах Е.А. Седова[3] и А.М. Хазена[4,32].
Связь понятия информации с иерархической структурой Вселенной (Универсума) исследовалось в работах В.П. Попова и Н.В. Крайнюченко[34], Е.В. Луценко[34,35] и В.Б. Вяткина[36]. Схожим вопросам уделено внимание в достаточно спорной книге В.Б. Губина[37], а также в ряде статей (см. напр.[38]). Эти исследования разбросаны по случайным изданиям. Поэтому используемая терминология, не согласована. Вероятно, требуется специальное исследование, которое было бы посвящено согласованию этой терминологии. В то же время не следует полагать, что во всех работах, как российских, так и западных, есть принципиальная несогласованность используемых идей. Косвенным свидетельством тому можно считать сходство многих примеров и рассуждений. Так, в частности, пример с кольцами деревьев, приводимый нами в этой статье, можно встретить в ряде других работ[29,33], авторы которых никогда между собой не взаимодействовали.
3. Основные свойства информации
Несмотря на различие в терминологии и подходах можно выделить несколько представлений об информации, в отношении которых имеется определённое согласие. Отметим их:
• Информация имеет иерархическую структуру
• Свойства информации на разных уровнях иерархии существенно различаются.
• В пределах одного и того же уровня иерархии информация трансформируется, переходя от источника к приёмнику.
• Переход информации от источника к приёмнику в пределах одного и того же уровня иерархии может сопровождаться частичными изменениями информации.
• В отличие от энергии и вещества информация несимметрична по отношению к тому, что можно назвать направлением передачи информации. Это позволяет с уверенностью говорить о глубокой связи информации и времени.
• Информация всегда связана с некоторым материальным носителем. Одна и та же информация может переходить с одного носителя на другой.
• На одном и том же самом носителе может одновременно находиться информация от нескольких никак не связанных друг с другом источников.
• Информация имеет направленный характер (от объекта к субъекту). Её восприятие субъектом зависит от свойств (тезауруса) субъекта.
Эти утверждения принимаются повсеместно. В настоящее время наиболее подробно изучен ряд вопросов, связанных с количественной оценкой информации. В то же самое время имеется ряд свойств информации, которые, несмотря на то, что они чётко описаны, в общем контексте изучения этого понятия редко рассматриваются в совокупности с количественными характеристиками информации. Так хорошо известно, что информация, передаваемая по каналу связи, испытывает негативное воздействие различных шумов. Этот вопрос исследован весьма подробно. Однако крайне редко обращают внимание на то обстоятельство, что в процессе передачи к информации может добавляться и некоторая осмысленная информация. Насколько нам известно, впервые на это обстоятельство обратил внимание А. Моль[16], назвавший такую информациюэстетической. В отличие от этого по А. Молю шум – это сообщение, которое источник не собирался передавать. В качестве примера эстетической информации Моль приводил интонацию разговора. Одни и те же слова (знаки, коды) человек может произносить с разной интонацией. В этой интонации содержатся определённая информация о состоянии человека. Именно эта информация и была названа эстетической. Другой вариант искусственного добавления сигнала, был рассмотрен Э. Тоффлером[44]. Он описал ситуацию, когда к сигналу передаваемому клиенту без его запроса добавляется некоторая дополнительная информация. Соответствующие системы были им названы VAN (Valuable Added Networks). В этом случае добавление информации в передаваемый сигнал происходит на основании некоторой программы, а не произвольно. Скорее всего, это обстоятельство следует учитывать на всех уровнях информационной иерархии.
Второй, редко учитываемой, но важной особенностью информации можно полагать выделение в ней некоторой части, которую можно назвать управляющей информацией. Л. Флориди[29] называет эту часть информации instructional. Ю.А. Шрейдер[45] для схожей ситуации использует термин метаинформация. Юкка Корпела одним их первых использовал термин метаинформация для описания команд и программ используемых информационно-поисковыми системами – ИПС, то есть для схожих ситуаций.
Б.И. Кудрин[46] для схожей ситуации говорит о генетической информации.[5]. Все упомянутые работы, отмечают, что на разных иерархических уровнях информации в случае её большого количества поступающего к приёмнику (субъекту,) возникает необходимость упорядочить её для хранения и иметь некоторую программу использования. Такую управляющую информацию можно назвать организационной информацией.Организационная программа использования информации подразумевает наличие стандартных действий (операций), запускаемых поступающей извне разнообразной (управляющей) информацией. В расширительном смысле – это тот переход к ближайшему вверх иерархическому уровню информации, который часто рассматривается в различных исследованиях по связи синергетики (или эмерджентности) и информации (см.[3-5]). В действительности, однако, процесс структурирования информации, вероятно, более сложен. Соответствующие явления легко прослеживаются в вычислительной технике. Так любой протокол Интернета фактически состоит из двух частей. Одну из них иногда называют служебной частью, а другую данными. Служебная часть такой программы – это выделенная в явном виде организационная информация.
Можно ожидать, что расщепление поступающей информации на управляющую (организационную) и смысловую части характерно для каждого выделенного уровня информационной иерархии. Иными словами, картина перехода с уровня на уровень, предлагаемая например, А.М. Хазеном (рис. 1)[4] и рядом других авторов, например[33], несколько видоизменяется (рис.2). На рис. 2 учтено два обстоятельства. Первое, наличие двух типов (двух рядов ступенек) отражающих неодновременность перехода на новый иерархический уровень организационной и смысловой информации. (Применительно к педагогике это было впервые отмечено в[47].) Безусловно, сейчас трудно ответить на вопрос происходит ли такое расщепление одновременно с переходом на новый уровень в духе рис 1, или же для этого требуется некоторый временной интервал. Второе обстоятельство развивает утверждение А.М. Хазена о прогрессирующем уменьшении величины ступенек и уменьшением временного промежутка между переходами. Это, в общем, верное утверждение, наводит на мысль о наличии некоторого временного предела эволюции[4]. На самом деле при достижении предела возникает новый, более существенный скачок и цепь последовательных ступенек начинает новый отсчёт. Это также отражено на рис.2.
Расхождение в предлагаемых для организационной информации терминах во многом связано с тем, что в разных случаях организационная информация анализировалась на разных иерархических уровнях. Кроме того, сама организационная информация может характеризоваться разной степенью жёсткости. В одних случаях, например при передаче наследственной информации, требования к воспроизведению (копированию) строгие. Сбои (мутации) должны считаться естественным фактором. Тем не менее, это всё же явление относительно редкое. Они могут характеризоваться величинами порядка 6х10-10 мутаций на пару оснований ДНК в расчёте на одно поколение[48]. В тех же случаях, когда же речь идёт, например, о воспроизведении художественного произведения, скажем при чтении нот[29], заранее предполагается наличие определённой степени свободы. Эта свобода отражает возможность введения дополнительной информации, вносимой исполнителем. Она носит творческий характер и, естественно, аналогична рассматриваемой в[16] эстетической информации. Имеется предусмотренная свобода и в изготовлении деталей по чертежам и даже по технологическим картам[43]. Поэтому отнесение этой информации к случаю намного более жёсткой генетической информации, как это сделано в[46], не совсем точно. Строго говоря, в зависимости от жёсткости для организационной информации желательно использовать два разных термина из тех, которые предлагались в литературе. Отметим ещё, что термин метаинформация[45], используемый в вычислительной технике (см.
Рис. 1. Зависимость от времени t условного количества информации J в соответствии с представлениями А.М. Хагена.
сноску на предыдущей странице) отражает достаточно сложную структуру организационной информации и, скорее всего, его целесообразно использовать только для достаточно высоких уровней информационной иерархии. Выявление исходного момента появления организационной информации на том или ином уровне иерархии очень важно. Так, например, овладение понятиями счёта, сложения и т.д., свидетельствует о формировании математического тезауруса у обучающихся.
Рис. 2. Зависимость условного количества информации J от времени t в соответствии с уточнениями данной работы (см. текст).
Исторически исследование понятий, которые связаны с информацией, началось с тех уровней иерархии, которые затрагивают повседневную жизнь человека. При этом наиболее изученными оказались процессы передачи генетической информации, процессы передачи сигналов в технике и информационные процессы, связанные с языком. Это естественно. Однако постепенно стало ясным, что некоторое базовое свойство материи, связываемое нами с информацией, проявляется и на тех уровнях Вселенной, которые связаны с неживой материей. Информация, энергия и вещество, как основные свойства материи по современным представлениям составляет основную триаду, характеризующую материю. Между этими свойствами имеется связи. Это, прежде всего, формула Эйнштейна E=mc2 , которая не требует специальных объяснений. Связь информации с веществом также прослеживается в наличии материального носителя информации. Переход (перенос) некоторой информации с одного носителя на другой говорит о том, что эта связь принципиально отлична от связи энергии и вещества, отражаемого формулой Эйнштейна. Прослеживается и связь информации с энергией. В частности (см. напр.[10]), для обнаружения, то есть оценки и измерения информации, нужны определённые энергетические затраты. Однако намного более важно отметить разницу между этими тремя характеристиками материи. Так, закон сохранения вещества или сохраняет объекты, как таковые, или сохраняет их некоторую численную характеристику – суммы различного типа зарядов. Это проявляется в попарном рождении и аннигиляции частиц. Закон сохранения энергии говорит о переходе энергии из одной формы в другую. Основной практический интерес при этом имеет характеристика перехода, которая называется работой. Информация же не сохраняется количественно. Как известно, при усложнении системы и появлении новых связей информация системы в целом возрастает[3,4,6,22]. Общее количество информации в системе оценить невозможно[33] и основной интерес для практики, вероятно, должны иметь переходы информации с одного носителя на другой. Это предельно упрощённое и несколько примитизированное отражение сходства и различия трёх основных характеристик материи.
4. Информация, разнообразие и однородность
Говоря об особенностях информации полезно обратить внимание на ряд её свойств, которые были отражены ещё в[10]. К сожалению, эти особенности информации обычно находятся вне поля зрения исследователей. Так можно полагать хорошо установленным то, что количество информации связано с изменением разнообразия в системе, которое вызывается наличием информации. Эти представления восходят ещё к работам У.Р. Эшби[49]. Измерение информации с помощью оценки величины неоднородности[3,43,10,11] также примыкают к этим представлениям. Представим теперь (пример, основанный на высказываниях Бриллюэна), что имеется некоторое количество копий информационного продукта – несколько одинаковых книг, музыкальных записей и т.п. На создание каждой копии затрачено некоторое количество энергии. Однако главное связано с другим. Упорядочение некоторых структур, например магнитных доменов на диске, знаков текста и т.п. одинаково для каждой копии. Количество информации на «уровне записи» (сохранения) для каждой копии практически одно и то же. Это означает, что общее количество информации на этом уровне пропорционально числу копий. В то же самое время, информация, которая попадает в принимающее устройство – органы чувств человека или же считывающее устройство клиентской аппаратуры[6], практически неизменна. Иными словами, она не зависит от числа копий и в этом смысле постоянна. Более того, эта информация, скажем текстовая запись, может быть невостребованной и ждать своего использования. При этом во время использования требуется затратить некоторое количество энергии для её считывания (опознания, измерения). Эти обстоятельства вынудили Л. Бриллюэна дать каждому из этих видов информации свои наименования Эти наименования практически никем не используются. Во всяком случае, полнотекстовый поиск в Интернете по этим терминам, выводит пользователя на совершенно иные представления, связанные с предложенными терминами. По этой причине мы позволим себе не приводить здесь эти редко используемые термины.
Несложно понять, что когда речь идёт об информации, связанной в копиях, и сохраняемой информации, которая в конечном итоге поступает к объекту, то на самом деле речь идёт о разных иерархических уровнях информации и особых противоречий в трактовке ситуации не возникает. Более того, даже простое ознакомление с ситуацией со всей очевидностью ставит вопрос о необходимости первоочередного уточнения терминологии и, что не менее важно, о связи этой терминологии с иерархическими уровнями и процессами передачи информации с одного носителя на другой в пределах одного и того же уровня. Необходимость такого не только традиционно вертикального, но и горизонтального расчленения понятий очевидна.
То, что информацию требуется измерять количественно, не вызывает сомнений. Менее очевидно другое. На разных уровнях иерархии свойства информации претерпевают изменения. Можно предполагать, что при переходе на новые иерархические уровни количественная мера, принятая для её измерения может либо изменяться, либо дополняться другими способами измерения. Вполне допустимо, что на достаточно далёких по вертикали уровнях иерархии наиболее существенными для её измерения могут оказаться разные меры. Во всяком случае, предположение о единственной, универсальной мере количества информации может вызывать определённые сомнения.
Говоря об измерении количества информации, принято отталкиваться от таких понятий, как однородность, равномерность, разнообразие, хаос и ряд близких к ним и широко употребительных терминов. Эти базовые термины, входящие в аксиоматику, предполагаются интуитивно понятными и в этом смысле достаточно определёнными. Поэтому анализ понятий однородности, равномерности, разнообразия и хаоса в проблемах, которые связаны с введением количественной меры информации, обычно опускают. То же самое относится и к понятию упорядоченность, связанному с понятиями однородности и равномерности. Однако, эти понятия имеют ряд принципиальных ограничений, заложенных в их сущность. Так, например, понятия однородности и равномерности, которую можно считать однородностью во времени, мысленно предполагают бесконечность однородности в пространстве и равномерности во времени. Иными словами полагаются наличие бесконечно длящихся процессов и однородных пространств, не имеющих границ. С другой стороны настоящий хаос, то есть полное отсутствие порядка, может быть реализован только в бесконечном пространстве и времени. Начало и конец, а также граница пространственной области подразумевают наличие определённости, а значит и отсутствие того, что можно было бы определить, как идеальный хаос. Не очень трудно осознать и то, что для наблюдения хаоса обязательно нужен сторонний наблюдатель. Это связано с тем, что наблюдатель (измерительная система) должен иметь некоторую структуру. Сказанное означает, что частью хаоса он быть не может. В принципе любая измерительная система основана на наличиипрограммированных неоднородностей[50]. Сигнал, передающий информацию, – это тоже неоднородность. Неоднородность сигнала – это не просто строго повторяющиеся изменения. Это неоднородности, которые меняются в процессе передачи, то есть отражающие пространственные и/или временные неоднородности объекта-источника. Говоря о временных аспектах проблемы можно ещё отметить то, что непрерывность может рассматриваться как один из аспектов периодичности. Поэтому утверждение о наличии строгой однородности или равномерности можно считать идеализацией. К такой же идеализации можно отнести и понятие хаоса, что достаточно естественно. Природа сложна, но она допускает простые модели (упрощения). Такие упрощения имеют ограничения. Это хорошо известно из примера многих наук. Так, идеальный газ, абсолютно упругое тело и многие подобные модели – это типичные упрощения, используемые в физике. Ограничение упрощающих моделей не позволяет использовать их в качестве повсеместной меры для количественных оценок. Поскольку идеальная модель на практике не реализуется то для количественного исследования (меры) описывающей ситуацию с её участием, лучше брать не эту идеальную характеристику, а степень отклонения от неё реальной модели. Такой подход можно использовать во многих случаях. Рассмотрим его на примере пространственной однородности свойств[50,51]. Одна из важнейших количественных характеристик информации связана с упорядоченностью. Поскольку полная упорядоченность может быть истолкована как полная однородность, результаты анализа легко переносятся на вопросы, которые связаны с информацией.
При рассмотрении важного для многих задач вопроса об однородности распределения – ОР состава говорят о некоторых объектах, распределение которых исследуется. В этом случае однородность, как и равномерность – это по существу предсказание свойств, например концентрации, некоторых объектов (их числе, скажем, в единице объема) на основании уже имеющихся данных. В случае равномерности во времени – это суждение о будущих событиях на основании серии предыдущих. В этом смысле[16] непрерывность во времени может считаться полной аналогией равномерности распределения в пространстве. Суждение о будущих событиях (составе в близлежащей пространственной области) допустимо толковать как угадывание. Угадывание же можно описать в вероятностных терминах. В качестве аналогии с этим случаем в традиционной тематике, связанной с информацией, аналогом такой задачи можно считать угадывание (оценку вероятности) букв текста на основании уже имеющейся их последовательности. В этом случае буква аналогична тем объектам, распределение которых изучается в различных технологиях.
Объекты, распределение которых изучается, сами могут быть неоднородными. Так, атом имеет сложную структуру. Тем не менее, естественно говорить о распределении атомов в веществе и его однородности или неоднородности. В то же время в астрофизике говорят об ОР в распределении галактик. Естественно, что как объект галактика имеет большую внутреннюю неоднородность. Всё сказанное говорит о том, что для того, чтобы говорить об однородности распределения таких объектов необходимо пользоваться их некоторыми усреднёнными свойствами. Таким образом, при изучении ОР или отклонений от ОР, свойства объекта усредняются в пространстве и/или во времени. Это означает, что в определение понятия объекта должна входить величина объема и/или интервала усреднения. Как следствие, определяемая величина однородности зависит от величины объема/интервала усреднения. Величина объема/интервала измерения имеет определённые ограничения. Действительно, любое измерение распределения объектов требует проведения акта измерения в конечном объеме, который можно назвать объемом измерения. Разумный подход требует, чтобы объем, который мы назовём объемом усреднения, был не меньше объема измерения. В то же время результат измерения может зависеть от того, как реально распределены объекты в объеме измерения. Это означает, что результат измерения зависит от корреляции объектов внутри объема измерения (или же соответственно внутри интервала измерения). Наличие этой корреляции хорошо известно, например, для изучения физических свойств кристалла. Так внутренняя корреляция атомов в объеме измерения, называемая локальной неоднородностью, проявляется в ширине линий рентгеновского рассеяния[50]. Аналогичные суждения можно высказать и о временном интервале измерения.
С точки зрения анализа информации можно говорить о разных её уровнях. Одна информация связана с однородностью (равномерностью) объектов внутри объемов усреднения или измерения, а другая информация, точнее другой её иерархический уровень, связан с характером распределения (равномерностью) самих этих объектов. Такая корреляция всегда существует, так как невозможно создать систему, в которой на сколь угодно близких расстояниях и при сколь угодно близких временах расположение объектов не были бы никак не связаны между собой. Это означает, что невозможны ситуации, в которых на каждом системном уровне не было бы какой-либо, хотя бы минимальной информации. Если бы удалось реализовать такую систему, в которой не было бы корреляций распределения на бесконечно близких расстояниях и через бесконечно малые промежутки времени, и такая система не имела бы ни пространственных, ни временных границ, то только тогда можно было бы говорить о достижении того состояния, которое можно назвать абсолютным беспорядком или же абсолютным хаосом. Именно такая система не содержит никакой информации. Тем не менее, наличие сведений о существовании подобной системы уже является некоторой информацией. Но для того, чтобы этой информацией обладать, надо находиться вне этой системы, нарушая тем самым требование об отсутствии у неё пространственных и временных границ. В мире всегда есть пространственные и временные неоднородности в распределении объектов, то есть имеется некоторая информация. Иными словами абсолютный хаос нереализуем. Перейти в него невозможно. В принципе можно предположить, что это относится к непрерывным, а не к скачкообразным переходам и нечто похожее на такой хаос может возникнуть в равновесии с другими областями, в которых его нет. В своё время с подобной идеей, обобщающей ряд опубликованных ранее работ, выступал на одной из конференций в г. Минске проф. МГУ В.К. Семенченко[52]. Поскольку эти идеи глубокого развития не получили, мы позволим себе не возвращаться к обсуждению этого вопроса.
В рассмотрениях, связанных с информацией имеется и иное определение хаоса. В упрощённой формулировке оно связано с системами, каждый объект которых обладает некоторой информацией, но этой информации столь много, что её невозможно воспринять[33]. Если стараться точно определить понятие хаос, то оказывается, что такое однозначное определение отсутствует и в разных ситуациях нередко в него вкладывается противоречивый смысл. На это, также как и на неоднозначность связанного с определением хаоса понятия равновесие, обращено внимание в[53]. Нам, однако, достаточно ограничиться лишь одним важным обстоятельством – между таким понятием хаоса (беспорядка) и разнообразием имеется принципиальная, но чисто количественная разница. Разнообразие же в свою очередь используется при количественной оценке информации[49].
Вопросы изучения разнообразия, применительно к биологии названные диатропикой детально описаны в[54]. Разнообразия же изучены в [55] и частично в[56]. Во всех этих работах не уточнялось то, что между понятиями многообразия и разнообразия есть количественная отличие. При изучении информации это полезно учитывать. Разнообразие охватывает меньше вариантов действительности, чем многообразие. В то же время комбинацией небольшого числа объектов (элементов) разнообразия можно создать множество комбинаций, которые могут рассматриваться уже в качестве многообразия[36,55]. Так комбинация приблизительно ста атомов таблицы Менделеева позволяет создать огромное многообразие молекул. Такого рода соображения обсуждаются в[36], где приводится и ряд иных примеров.
Можно предполагать, что имеется некоторое оптимальное количество разнообразия, необходимое любой системе для её развития. Это проявляется на системном (актуальном) уровне. Избыточное же разнообразие связано жёсткими правилами на более низких уровнях и используется в качестве резерва в критических ситуациях. Поскольку в процессе развития системы информационные возможности системы на актуальном уровне исчерпываются, постольку периодически возникают скачки, которые порождают новые связи и новые информационные возможности. При этом количество уровней в системе возрастает. В работах А.М. Хазена (см.[4]) отмечается, что высота скачков при переходе к новому системному уровню непрерывно уменьшается, а скорость перехода от одного скачка к другому постепенно возрастает (рис 1). При этом автор делает вывод о наличие некоторого предела в этом процессе. Так ли это на самом деле или просто возникает новый принципиально новый скачок, что кажется более естественным, не обсуждается. (См. Наши замечания к рис. 2). Количественные характеристики степени возрастания числа новых связей при переходе к новым, более высоким уровням иерархии, описаны в[57][7]. При этом процесс описывается с помощью т.н. коэффициента эмерджентности. Главная идея здесь сводится к утверждению, что в сложных многоуровневых системах основная часть информации связана с возникновением новых связей между элементами. Это легко понять, если вспомнить, что между n элементами некоторого уровня может возникнуть n(n-1)~n2 новых парных связей. В действительности же элементы могут собираться в группы по два, три и т.д. элемента и новые связи могут возникать уже между ними. Таким образом, количество возможных вариантов, то есть разнообразие, соотносимое с количеством информации, быстро возрастает при образовании новых иерархических информационных уровней. Это отражает известные утверждения Е.А. Седова[3] о компенсации потерь информации на разупорядочение за счёт возрастания сложности системы.
Усложнение системы необходимо для компенсации утраты разнообразия, связанного, в общем, с процессом развития (эволюции). Однако рост разнообразия при возрастании сложности системы (возникновении новых уровней иерархии) столь интенсивен, что часть избыточного разнообразия не используется. Оно, резервируется (хранится) на нижних уровнях иерархии и является запасом, который используется в критических ситуациях. Эта избыточность (резервирование информации) по существу является защитным механизмом. Сказанное хорошо известно, скажем, для случая передачи сигналов (кодов) когда именно сама избыточность становится механизмом защиты смысла передаваемой информации. Избыточное (связанное на более низких уровнях иерархии) разнообразие – это необходимый резерв, который используется любой системой при существенном изменении условий. Иными словами это некое обеспечение стойкости системы в целом. Соотношения связанного (запасённого) разнообразия и того, что можно назвать актуальным (действующим) разнообразием, судя по всему, колеблются вблизи некоторого численного соотношения. Отношения типа 80:20 или 3:1 наблюдались в огромном количестве различных ситуаций. Известно много наблюдений и правил подобного типа, относящихся к разным областям человеческого знания. К ним, в частности, относятся закон Парето[57,58], многие законы, связанные с лингвистикой, закон рассеяния публикаций (закон Брэдфорда-Ципфа). Сюда же относятся такие наблюдения, как доля картин на художественном рынке, являющихся подделкой, соотношение между модернизаторами и консерваторами в правительственных органах, утверждения о том, что основной научно-технический прогресс мира обеспечивается 1/5 населения, соотношения между раненными и убитыми в войнах XX века, соотношения между лётчиками-ассами и лётчиками, которые практически не достигают успехов, количество т.н. «играющих» особей в стаях животных и многое иное[8]. Избыточное разнообразие снимается не только появлением законов связи, переводящих часть разнообразия в запасённую форму. Одновременно идёт процесс структурирования разнообразия. Он связан с возникновением новых структур, которые строятся из более простых элементов разнообразия. Это постепенно приводит к возникновению нового уровня иерархии.
Процесс структурирования разнообразия многократно обсуждался в литературе. Основные сложности анализа при этом, как обычно, связаны с тем, что в природе такие процессы идут очень медленно. Поэтому в таком анализе доля умозрительных рассуждений, иногда подкрепляемая построением математических моделей, очень велика. Переход к системам, которые связаны с практической деятельностью человека, позволяет рассматривать ситуации, развивающиеся намного быстрее. С этой точки зрения анализ, например, различных технологий весьма поучителен[42,43]. В настоящее время подобное структурирование можно проследить в блогосфере, где происходит группировка блогов в группы «френдов», то есть в некоторые группы по интересам. Динамика возникновения таких групп, распределение их по числу посетителей и формирование при этом нового структурного уровня происходит буквально на наших глазах и только ждёт количественного исследования[9].
Информацию можно с большой долей вероятности считать двигателем развития. Образно можно сказать, что информация – это беспокойство материи. Затраты информации компенсируются за счёт прогрессирующего усложнения системы. Как уже сказано, рост разнообразия, столь прогрессивен, что его избыток резервируется. Иными словами, можно говорить об оптимальном разнообразии на актуальных уровнях системы. Проблема оптимального уровня допустимого разнообразия проявляется, в частности в том, что возникают определённые трудности с её обработкой и анализом на этом уровне. Этот вопрос разобран в[60] применительно к задаче обработки разведданных при избыточности огромного количества мелких фактов.
5. О роли коммуникативного обмена
Любая система в первую очередь использует информацию, поступающую на актуальный уровень. Информация на более низких уровнях является резервом для сложных и критических ситуаций. Естественно предположить, что сначала используется информация на первом вниз уровне по отношению к актуальному уровню. Иногда этот уровень называют подситемным. Включение в действие этого уровня применительно к человеку описано в[61]. В этой работе уделяется пристальное внимание вопросам роли подсистемных уровней в реализации коммуникативного обмена информацией между разными системами. Вопрос обсуждается с точки зрения взаимодействия и общей реакции нескольких систем на изменение обстановки. Здесь можно вычленить несколько проблем, важных с информационной точки зрения.
Первая проблема – это проблема взаимопонимания. Это условная формулировка, так как эта проблема в равной степени касается как живых, так и неживых систем. Суть её сводится к тому, что переданный одной системой (отправителем) сигнал должен состоять из кодов, которые должны быть расшифрованы получателем (реципиентом). Представим себе идеальный случай полного соответствия информации отправленной и полученной участниками коммуникации. Пусть они связаны идеальным коммуникационным каналом. Таким каналом считаем канал, который не вносит никаких помех (шума) и не добавляет эстетическую информацию. Если имеется полное соответствие отправленного и принятого, а затем и расшифрованного сигнала, это означает, что тезаурусы обоих участников коммуникации полностью совпадают. Сказанное подразумевает полную идентичность обоих систем в момент возникновения и полностью одинаковую историю поступления в эти системы информации в течение всего времени их существования. Нетрудно понять, что в этом случае речь идёт о полностью идентичных системах с полным мгновенным обменом всей поступающей в них информации. Более того, внутренние потоки информации в системах, связанные с организационной информацией, также должны быть полностью одинаковыми. Несколько идентичных систем разумно иметь и включать между ними обмен информации только в том случае, если подразумевается некоторое разделение их функций при объединении. В противном случае мы сталкиваемся с полностью задублированными системами, которые, строго говоря, нельзя разъединить, так как разъединение подразумевает ограничение в обмене информации (связи) между обеими системами. Полностью задублированные системы нужны для решения ряда задач резервирования. Чтобы обеспечить резервирование системы надо разъединять и осуществлять обмен информации только периодически. При этом, естественно, условие полной идентичности нарушается.
Вторая проблема – это проблема о величине взаимодействующих систем. Чем больше размеры систем, тем труднее обеспечить даже их частичное совпадение.
Следующая, третья по счёту, проблема – это проблема об интенсивности информационного обмена между системами. В простейшем случае можно говорить о двух типах информационного обмена: сильном и слабом. При более детальном анализе можно ввести промежуточные качественные характеристики обмена информацией, например, средний по интенсивности обмен. При относительно небольших объемах систем легче обеспечить их сходство. Тогда близкие по характеристикам системы, объединяясь связями, могут обеспечить разделение решения общей сложной задачи. В технике такой случай хорошо известен – это т.н. распределённые компьютерные вычисления. Идея подобных ситуаций изучена в ряде романов Станислава Лема[10]. Именно эту ситуацию можно, следуя[61], назвать супермозгом. Нетрудно понять, что реализация объединения нескольких информационных систем в одну большую систему, реагирующую на сложные задачи, вызванные изменением ситуации, можно реализовать двумя путями. Первый – сложная задача решается совместно всеми участниками системы. В этом случае каждый участник системы решает свою часть задачи. При этом должно произойти некое структурирование участников и должен выделиться как минимум один участник, берущий на себя управляющие и обобщающие функции. Это можно реализовать, если в резервной памяти участников, то есть на подсистемном уровне, хранится организационная программа, которая запускается при объединении участников в новую сверхсистему. Скорее всего, это подразумевает некоторое исходное различие участников, хотя можно предположить, что на подсистемном уровне просто заложен некий алгоритм (организационная информация) позволяющая случайным образом распределить роли участников в новой сверхсистеме.
Второй путь подразумевает, что на подсистемном уровне уже заранее заложены программы действий на случай некоторой ситуации. Они запускаются в действие управляющим сигналом, который идёт от одного участника объединённой системы к другому. Нетрудно понять, что первый путь связан с сильным информационным обменом между участниками системы, а для второго пути достаточно наличия слабого запускающего информационного сигнала (информационного обмена).
Различные варианты, иллюстрирующие эти соображения, приведены в таблице I. Эта таблица достаточно схематична, а приводящиеся в ней примеры условны. Тем не менее, её анализ в известной мере поучителен. Действительно несложно заметить, что примеры, приводимые в левом столбце, часто встречаются. Их число несложно увеличить. Однако уже последний пример нижней части (социум из малых составляющих с сильной связью) может оставить некоторую неудовлетворённость. Увеличить число убедительных примеров здесь не очень сложно. Легко понять, что цепочка
Атомные системы Биология Техника Социум
исторически развивалась слева направо. Соответственно системы, отражённые в левой части, развиты и изучены намного лучше, чем системы в правой части цепочки. Эта цепочка только часть большой цепи, но здесь идёт речь только о тех системах Вселенной, которые соразмерны человеку. Если посмотреть на столбцы таблицы, то есть в направлении сверху вниз, то верхние части (слабая связь) на соответствующем уровне иерархии предшествуют нижним частям (сильная связь). Поэтому нижняя часть правого столбца таблицы реально практически не изучена, хотя она и привлекает пристальное внимание учёных, фантастов и футурологов. Говорить о подлинной реализации этого угла таблицы можно только с известной условностью. Поэтому, возвращаясь к идеям[61] следует ожидать, что они могут быть реализованы в разных вариантах.
Проведённый нами небольшой анализ позволяет сделать ряд выводов, которые важны, в частности, для организации педагогического процесса. Во-первых, для изучения информации надо в первую очередь обратить внимание на иерархичность её структуры. Такой подход позволит разумно подойти к выбору терминологии. Следующим основополагающим для изучения и преподавания моментом должно быть выделение из общей информации основных частей – организационной, смысловой и привнесённой (эстетическая информация и шумы). Применительно к учебному процессу выделение организационной информации существует в понятии скрытые (hidden) умения и навыки[47][11]. Рассматривая восприятие информации с человеком никоим образом нельзя обойти вопросы психологии и частично неврологии. Обязательно должна быть указана коммуникативная роль информации. Только после этого целесообразно переходить к изучению оценок количества информации. Соответственно должны быть учтено и качественные её характеристики. При этом оценки должны исходить из оценки отклонений от идеальных понятий, типа идеальной равномерности. Одновременно должны быть проведены уточнения ряда основополагающих понятий, типа понятия хаос. Немаловажную роль следует отвести и анализу информации в неживой природе. Кроме того, следует обратит внимание на различные эволюционные информационные процессы в технике и технологии. Это связано с их относительно быстрым протеканием, позволяющем легче проследить основные закономерности.
Таблица I. Различные варианты большой системы с разными размерами частей и разными характеристиками коммуникативных связей.
Литература