Любое изменение состояния физической системы

Рубрики Публикации

Любое изменение состояния физической системы

Кафедра физической и коллоидной химии ЮФУ

Материалы к лекциям для студентов химфака

В общем случае направление и предел самопроизвольного протекания процесса в любых системах определяет принцип минимума свободной энергии:

Самопроизвольно могут протекать только те процессы, которые приводят к понижению свободной энергии системы; система приходит в состояние равновесия, когда свободная энергия достигает минимального значения.

Для закрытых систем, находящихся в изобарно-изотермических либо изохорно-изотермических условиях свободная энергия принимает вид изобарно-изотермического либо изохорно-изотермического потенциалов (т.н. свободная энергия Гиббса и Гельмгольца соответственно). Данные функции называют иногда просто термодинамическими потенциалами, что не вполне строго, поскольку термодинамическими потенциалами являются также внутренняя энергия (изохорно-изэнтропный) и энтальпия (изобарно-изэнтропный потенциал).

Протекание самопроизвольного процесса в закрытой системе сопровождается уменьшением свободной энергии системы (dG 2 Y > 0. Таким образом, условием термодинамического равновесия в закрытой системе является минимальное значение соответствующего термодинамического потенциала :

Изобарно-изотермические (P = const, T = const):

ΔG = 0 dG = 0, d 2 G > 0

Изохорно-изотермические (V = const, T = const):

ΔF = 0 dF = 0, d 2 F > 0

Состояние системы с минимальной свободной энергией есть состояние термодинамического равновесия:

Термодинамическим равновесием называется такое термодинамическое состояние системы, которое при постоянстве внешних условий не изменяется во времени, причем эта неизменяемость не обусловлена каким-либо внешним процессом.

Учение о равновесных состояниях – один из разделов термодинамики. Далее мы будем рассматривать частный случай термодинамического равновесного состояния – химическое равновесие. Как известно, многие химические реакции являются обратимыми, т.е. могут одновременно протекать в обоих направлениях – прямом и обратном. Если проводить обратимую реакцию в закрытой системе, то через некоторое время система придет в состояние химического равновесия – концентрации всех реагирующих веществ перестанут изменяться во времени.

Необходимо отметить, что достижение системой состояния равновесия не означает прекращения процесса; химическое равновесие является динамическим , т.е. соответствует одновременному протеканию процесса в противоположных направлениях с одинаковой скоростью.

Химическое равновесие является подвижным – всякое бесконечно малое внешнее воздействие на равновесную систему вызывает бесконечно малое изменение состояния системы; по прекращении внешнего воздействия система возвращается в исходное состояние. Ещё одним важным свойством химического равновесия является то, что система может самопроизвольно прийти в состояние равновесия с двух противоположных сторон . Иначе говоря, любое состояние, смежное с равновесным, является менее устойчивым, и переход в него из состояния равновесия всегда связан с необходимостью затраты работы извне.


Copyright © В. В. Луков, С. И. Левченков, 2005.

Любое изменение состояния физической системы

IV. МЕХАНИЧЕСКАЯ ЭНЕРГИЯ

Всякое изменение материи является движением, простейшими формами которого являются поступательное и вращательное движения.

Мерой поступательного движения является импульс. Однако эта динамическая характеристика, введенная Ньютоном , хотя и имеет фундаментальное значение, но не может служить универсальной мерой для всех форм движения материи, например, для вращательного, теплового и т.д.

НЬЮТОН (Newton) Исаак (1643-1727), английский математик, механик, астроном и физик, создатель классической механики, член (1672) и президент (с 1703) Лондонского королевского общества. Фундаментальные труды «Математические начала натуральной философии» (1687) и «Оптика» (1704). Разработал (независимо от Г. Лейбница) дифференциальное и интегральное исчисления. Открыл дисперсию света, хроматическую аберрацию, исследовал интерференцию и дифракцию, развивал корпускулярную теорию света, высказал гипотезу, сочетавшую корпускулярные и волновые представления. Построил зеркальный телескоп. Сформулировал основные законы классической механики. Открыл закон всемирного тяготения, дал теорию движения небесных тел, создав основы небесной механики. Пространство и время считал абсолютными.

Пусть однородный шар равномерно вращается вокруг неподвижной оси, совпадающей с осью симметрии, проходящей через центр инерции (рис. 4.1).

Поскольку при вращении шара, любые его две диаметрально противоположные материальные точки имеют линейные скорости, равные по величине, но противоположные по направлению, т.е. vi = vk , v i = v k . При этом суммарный импульс всего шара равен нулю. Однако тело может вращаться с любой угловой скоростью ω . Следовательно, импульс тела ни как не характеризует вращательное движение. В этом случае мерой вращательного движения шара является момент импульса.

Известно, что для осуществления равномерного вращательного движения тел вокруг некоторой оси необходимо непрерывно воздействовать внешней силой, которая расходуется на преодоление трения в местах закрепления оси вращения.

Однако при трении выделяется тепло, а момент импульса остаётся постоянным и никак не учитывает количество выделившегося тепла.

Поскольку физика изучает различные формы движения материи (механические, тепловые, электрические, магнитные и т.д.), то усилия учёных разных стран были направлены на то, чтобы найти универсальную меру, учитывающую любое изменение материи.

Единой мерой различных форм движения материи является физическая величина — энергия.

В работах Ломоносова, Майера, Гельмгольца, Джоуля и других ученых был окончательно сформулирован всеобщий закон сохранения и превращения материи — закон сохранения энергии, который гласит : энергия не исчезает и не уничтожается, а переходит из одного вида к другой в равных количествах.

ЛОМОНОСОВ Михаил Васильевич (1711-65), первый российский ученый-естествоиспытатель мирового значения, поэт, заложивший основы современного русского литературного языка, художник, историк, поборник развития отечественного просвещения, науки и экономики. Родился 8(19) ноября в д. Денисовка (ныне с. Ломоносово) в семье помора. В 19 лет ушел учиться (с 1731 в Славяно-греко-латинской академии в Москве, с 1735 в Академическом университете в Санкт-Петербурге, в 1736-41 в Германии). С 1742 адъюнкт, с 1745 академик Петербургской АН. В 1748 основал при АН первую в России химическую лабораторию. По инициативе Ломоносова основан Московский университет (1755). Открытия Ломоносова обогатили многие отрасли знания. Развивал атомно-молекулярные представления о строении вещества. В период господства теории теплорода утверждал, что теплота обусловлена движением корпускул. Сформулировал принцип сохранения материи и движения. Исключил флогистон из числа химических агентов. Заложил основы физической химии. Исследовал атмосферное электричество и силу тяжести. Выдвинул учение о цвете. Создал ряд оптических приборов. Открыл атмосферу на Венере. Описал строение Земли, объяснил происхождение многих полезных ископаемых и минералов. Опубликовал руководство по металлургии. Автор поэм, поэтических посланий, трагедий, сатир, фундаментальных филологических трудов и научной грамматики русского языка. Возродил искусство мозаики и производство смальты, создал с учениками мозаичные картины. Член Академии художеств (1763). Похоронен в Санкт-Петербурге в Некрополе 18 в.

Движение, изменение, развитие как философские категории.

Изменение – категория философского дискурса, которая характеризует состояние, альтернативное стабильности, переход из одного состояния в другое, смену содержания во времени. В соответствии с локализацией изменений в пространстве и времени выделяют изменения в пространстве (механическое движение) и изменения во времени. Различия в трактовке времени определяют понимание характера изменений – обратимых и необратимых, направленных и ненаправленных, спонтанных, самоорганизованных и организуемых. Любые изменения коррелятивно связаны с чем-то инвариантным, устойчивым, и, наоборот, инвариантные структуры предполагают вариативное, изменчивое.

Всякое изменение вообще — есть движение.

Материя тесно связана с движением, а оно существует в виде конкретных своих форм. Движение — есть способ существования материальных систем.

Особой формой движения и изменения является развитие. Развитие это такое количественное и качественное изменение объекта или его состояние, которое характеризуется направленностью, определенными закономерностями и необратимостью.

Движение- любое изменение вообще, начиная с пространственного перемещения предметов и заканчивая человеческим мышлением. Движение есть атрибут материи, неотъемлемое свойство любого материального объекта. Не существует материи без движения как и наоборот. Движение- абстракция, отвлеченное нашим сознанием от реальных материальных предметов свойство изменять свои параметры.

Развитие- необратимое качественное изменение.Оно бывает прогрессивным – проистекающим с нарастанием сложности и упорядоченности объекта и регрессивным – деградация объекта, его распад, гибель. Энгельс выделил 5 основных форм движения:

Все эти формы движения взаимосвязаны между собой и более простые входят в более сложные, образуя качественно иную форму движения. Каждая из этих форм включает в себя бесконечное множество видов движения. Даже, по Энгельсу, простейшая механическая включает в себя такие виды движения, как равномерно-прямолинейное, равномерно-ускоренное (замедленное), криволинейное, хаотическое и др.

Наиболее сложной формой движения является социальная, т. к. материальный носитель есть самый сложный вид материи — социальный. Эта форма движения включает и изменения, происходящие в организме отдельного человека. Так, сердце человека — это механическая двигатель, обеспечивающий движение крови в сосудах. Но это не чисто механический двигатель. Его деятельность регулируется механизмами высшей нервной деятельности человека. А жизнедеятельность организма — условие участия человека в труде, в общественной жизни. Сюда входят изменения социальных групп, слоев, классов, этнические изменения, демографические процессы, развитие производительных сил и производственных отношений и другие изменения, определяемые законами движения на социальном уровне материи.

Следует подчеркнуть, что различные формы движения способны переходить друг в друга в соответствии с законами сохранения материи и движения. Это есть проявление свойства неуничтожимости и несотворимости материи и движения. Мерой движения материи является энергия, мерой покоя, инертности — масса.

Дата добавления: 2015-01-19 ; просмотров: 230 ; Нарушение авторских прав

Любое изменение состояния физической системы

В основе всех физиологических реакций лежит способность живых клеток реагировать на раздражитель. Раздражитель – любое изменение внешней или внутренней среды, которое действует на клетку или многоклеточную систему (ткань, организм).

Раздражители

По природе раздражители подразделяют на:
• физические (звук, свет, температура, вибрация, осмотическое давление), особое значение для биологических систем имеют электрические раздражители;
• химические (ионы, гормоны, нейромедиаторы, пептиды, ксенобиотики);
• информационные (голосовые команды, условные знаки, условные стимулы).

По биологическому значению раздражители подразделяют на:
• адекватные – раздражители, для восприятия которых биологическая система имеет специальные приспособления;
• неадекватные – раздражители, не соответствующие природной специализации рецепторных клеток, на которые они действуют.

Раздражитель вызывает возбуждение только в том случае, если он достаточно силен. Порог возбуждения – минимальная сила раздражителя, достаточная для того, чтобы вызвать возбуждение клетки. Выражение «порог возбуждения» имеет несколько синонимов: порог раздражения, пороговая сила раздражителя, порог силы.

Возбуждение как активная реакция клетки на раздражитель

Реакция клетки на внешнее воздействие (раздражение) отличается от реакции небиологических систем следующими особенностями:
• энергией для реакции клетки служит не энергия раздражителя, а энергия, образующаяся в результате метаболизма в самой биологической системе;
• сила и форма реакции клетки не определяется силой и формой внешнего воздействия (если сила раздражителя выше пороговой).

В некоторых специализированных клетках реакция на раздражитель проявляется особенно интенсивно. Такую интенсивную реакцию называют возбуждением. Возбуждение – активная реакция специализированных (возбудимых) клеток на внешнее воздействие, проявляющаяся в том, что клетка начинает выполнять присущие ей специфические функции.

Возбудимая клетка может находиться в двух дискретных состояниях:
• состоянии покоя (готовность к реагированию на внешнее воздействие, совершение внутренней работы);
• состоянии возбуждения (активное выполнение специфических функций, совершение внешней работы).

В организме существует 3 типа возбудимых клеток:
• нервные клетки (возбуждение проявляется генерацией электрического импульса);
• мышечные клетки (возбуждение проявляется сокращением);
• секреторные клетки (возбуждение проявляется выбросом в межклеточное пространство биологически активных веществ).

Возбудимость – способность клетки переходить из состояния покоя в состояние возбуждения при действии раздражителя. Разные клетки имеют различную возбудимость. Возбудимость одной и той же клетки меняется в зависимости от ее функционального состояния.

Возбудимая клетка в состоянии покоя

Мембрана возбудимой клетки поляризована. Это означает, что имеется постоянная разность потенциалов между внутренней и наружной поверхностью клеточной мембраны, которую называют мембранный потенциал (МП). В состоянии покоя величина МП составляет –60…–90 мВ (внутренняя сторона мембраны заряжена отрицательно относительно наружной). Значение МП клетки в состоянии покоя называют потенциалом покоя (ПП). МП клетки можно измерять, разместив один электрод внутри, а другой снаружи клетки (рис. 1 А ) .

Рис. 1. Схема регистрации мембранного потенциала клетки (А); мембранный потенциал клетки в состоянии покоя и его возможные изменения (Б).

Уменьшение МП относительно его нормального уровня (ПП) называют деполяризацией , а увеличение – гиперполяризацией . Под реполяризацией понимают восстановление исходного уровня МП после его изменения (см. рис. 1 Б).

Электрические и физиологические проявления возбуждения

Рассмотрим различные проявления возбуждения на примере раздражения клетки электрическим током (рис. 2).

Рис. 2. Изменение мембранного потенциала клетки (А) при действии электрического тока различной силы (Б).

При действии слабых (подпороговых) импульсов электрического тока в клетке развивается электротонический потенциал. Электротонический потенциал (ЭП) – сдвиг мембранного потенциала клетки, вызываемый действием постоянного электрического тока . ЭП есть пассивная реакция клетки на электрический раздражитель; состояние ионных каналов и транспорт ионов при этом не изменяется. ЭП не проявляется физиологической реакцией клетки. Поэтому ЭП не является возбуждением.

При действии более сильного подпорогового тока возникает более пролонгированный сдвиг МП – локальный ответ. Локальный ответ (ЛО) – активная реакция клетки на электрический раздражитель, однако состояние ионных каналов и транспорт ионов при этом изменяется незначительно. ЛО не проявляется заметной физиологической реакцией клетки. ЛО называют местным возбуждением , так как это возбуждение не распространяется по мембранам возбудимых клеток.

При действии порогового и сверхпорогового тока в клетке развивается потенциал действия (ПД). ПД характеризуется тем, что значение МП клетки очень быстро уменьшается до 0 (деполяризация), а затем мембранный потенциал приобретает положительное значение (+20…+30 мВ), т. е. внутренняя сторона мембраны заряжается положительно относительно наружной. Затем значение МП быстро возвращается к исходному уровню. Сильная деполяризация клеточной мембраны во время ПД приводит к развитию физиологических проявлений возбуждения (сокращение, секреция и др.). ПД называют распространяющимся возбуждением , поскольку, возникнув в одном участке мембраны, он быстро распространяется во все стороны.

Механизм развития ПД практически одинаков для всех возбудимых клеток. Механизм сопряжения электрических и физиологических проявлений возбуждения различен для разных типов возбудимых клеток (сопряжение возбуждения и сокращения, сопряжение возбуждения и секреции).

Устройство клеточной мембраны возбудимой клетки

В механизмах развития возбуждения участвуют 4 вида ионов: K+ , Na+ , Ca++ , Cl – (ионы Ca++ участвуют в процессах возбуждения некоторых клеток, например кардиомиоцитов, а ионы Cl – важны для развития торможения). Мембрана клетки, представляющая собой липидный бислой, непроницаема для этих ионов. В мембране существуют 2 типа специализированных интегральных белковых систем, которые обеспечивают транспорт ионов через клеточную мембрану: ионные насосы и ионные каналы.

Ионные насосы и трансмембранные ионные градиенты

Ионные насосы (помпы) – интегральные белки, которые обеспечивают активный перенос ионов против градиента концентрации. Энергией для транспорта служит энергия гидролиза АТФ. Различают Na+ / K+ помпу (откачивает из клетки Na+ в обмен на К+ ), Ca++ помпу (откачивает из клетки Ca++ ), Cl– помпу (откачивает из клетки Cl – ).

В результате работы ионных насосов создаются и поддерживаются трансмембранные ионные градиенты:
• концентрация Na+, Ca++, Cl – внутри клетки ниже, чем снаружи (в межклеточной жидкости);
• концентрация K+ внутри клетки выше, чем снаружи.

Ионные каналы

Ионные каналы – интегральные белки, которые обеспечивают пассивный транспорт ионов по градиенту концентрации. Энергией для транспорта служит разность концентрации ионов по обе стороны мембраны (трансмембранный ионный градиент).

Неселективные каналы обладают следующими свойствами:
• пропускают все типы ионов, но проницаемость для ионов K+ значительно выше, чем для других ионов;
• всегда находятся в открытом состоянии.

Селективные каналы обладают следующими свойствами:
• пропускают только один вид ионов; для каждого вида ионов существует свой вид каналов;
• могут находиться в одном из 3 состояний: закрытом, активированном, инактивированном.

Избирательная проницаемость селективного канала обеспечивается селективным фильтром , который образован кольцом из отрицательно заряженных атомов кислорода, которое находится в самом узком месте канала.

Изменение состояния канала обеспечивается работой воротного механизма , который представлен двумя белковыми молекулами. Эти белковые молекулы, так называемые активационные ворота и инактивационные ворота, изменяя свою конформацию, могут перекрывать ионный канал.

В состоянии покоя активационные ворота закрыты, инактивационные ворота открыты (канал закрыт) (рис. 3). При действии на воротную систему сигнала активационные ворота открываются и начинается транспорт ионов через канал (канал активирован). При значительной деполяризации мембраны клетки инактивационные ворота закрываются и транспорт ионов прекращается (канал инактивирован). При восстановлении уровня МП канал возвращается в исходное (закрытое) состояние.

Рис. 3. Состояния селективного ионного канала и условия перехода между ними.

В зависимости от сигнала, который вызывает открытие активационных ворот, селективные ионные каналы подразделяют на:
• хемочувствительные каналы – сигналом к открытию активационных ворот является изменение конформации ассоциированного с каналом белка-рецептора в результате присоединения к нему лиганда;
• потенциалчувствительные каналы – сигналом к открытию активационных ворот является снижение МП (деполяризация) клеточной мембраны до определенного уровня, который называют критическим уровнем деполяризации (КУД).

Механизм формирования потенциала покоя

Мембранный потенциал покоя образуется главным образом благодаря выходу К+ из клетки через неселективные ионные каналы. Утечка из клетки положительно заряженных ионов приводит к тому, что внутренняя поверхность мембраны клетки заряжается отрицательно относительно наружной.

Мембранный потенциал, возникающий в результате утечки К+ , называют «равновесным калиевым потенциалом» (Ек). Его можно рассчитать по равнению Нернста

где R – универсальная газовая постоянная,
Т – температура (по Кельвину),
F – число Фарадея,
[К+] нар – концентрация ионов К+ снаружи клетки,
[К+] вн – концентрация ионов К+ внутри клетки.

ПП, как правило, очень близок к Ек, но не точно равен ему. Эта разница объясняется тем, что свой вклад в формирование ПП вносят:

• поступление в клетку Na+ и Cl– через неселективные ионные каналы; при этом поступление в клетку Cl– дополнительно гиперполяризует мембрану, а поступление Na+ – дополнительно деполяризует ее; вклад этих ионов в формирование ПП невелик, так как проницаемость неселективных каналов для Cl– и Na + в 2,5 и 25 раза ниже, чем для К+ ;

• прямой электрогенный эффект Na+ /К+ ионного насоса, возникающий в том случае, если ионный насос работает асимметрично (количество переносимых в клетку ионов K+ не равно количеству выносимых из клетки ионов Na+).

Механизм развития потенциала действия

В потенциале действия выделяют несколько фаз (рис. 4):

• фаза деполяризации;
• фаза быстрой реполяризации;
• фаза медленной реполяризации (отрицательный следовый потен­циал);
• фаза гиперполяризации (положительный следовый потенциал).

Рис. 2.4. Изменение мембран-ного потенциала, интенсивности калиевого и натриевого трансмембранного тока и возбудимости клетки в разные фазы потенциала действия.

Д – фаза деполяризации, Рб – фаза быстрой реполяризации, Рм – фаза медленной реполяризации, Г – фаза гиперполяризации;

Н – период нормальной возбудимости, Ра – период абсолютной рефрактерности, Ро – период относительной рефрактерности, Н+ – период супернормальной возбудимости, Н- – период субнормальной возбудимости

Фаза деполяризации. Развитие ПД возможно только при действии раздражителей, которые вызывают деполяризацию клеточной мембраны. При деполяризации клеточной мембраны до критического уровня деполяризации (КУД) происходит лавинообразное открытие потенциалчувствительных Na+-каналов. Положительно заряженные ионы Na+ входят в клетку по градиенту концентрации (натриевый ток), в результате чего мембранный потенциал очень быстро уменьшается до 0, а затем приобретает положительное значение. Явление изменения знака мембранного потенциала называют реверсией заряда мембраны.

Фаза быстрой и медленной реполяризации . В результате деполяризации мембраны происходит открытие потенциалчувствительных К+ -каналов. Положительно заряженные ионы К+ выходят из клетки по градиенту концентрации (калиевый ток), что приводит к восстановлению потенциала мембраны. В начале фазы интенсивность калиевого тока высока и реполяризация происходит быстро, к концу фазы интенсивность калиевого тока снижается и реполяризация замедляется.

Фаза гиперполяризации развивается за счет остаточного калиевого тока и за счет прямого электрогенного эффекта активировавшейся Na+ / K+ помпы.

Овершут – период времени, в течение которого мембранный потенциал имеет положительное значение.

Пороговый потенциал – разность между мембранным потенциалом покоя и критическим уровнем деполяризации. Величина порогового потенциала определяет возбудимость клетки – чем больше пороговый потенциал, тем меньше возбудимость клетки.

Изменение возбудимости клетки при развитии возбуждения

Если принять уровень возбудимости клетки в состоянии физиологического покоя за норму, то в ходе развития цикла возбуждения можно наблюдать ее колебания. В зависимости от уровня возбудимости выделяют следующие состояния клетки (см. рис. 4).

• Супернормальная возбудимость ( экзальтация ) – состояние клетки, в котором ее возбудимость выше нормальной. Супернормальная возбудимость наблюдается во время начальной деполяризации и во время фазы медленной реполяризации. Повышение возбудимости клетки в эти фазы ПД обусловлено снижением порогового потенциала по сравнению с нормой.

• Абсолютная рефрактерность – состояние клетки, в котором ее возбудимость падает до нуля. Никакой, даже самый сильный, раздражитель не может вызвать дополнительного возбуждения клетки. Во время фазы деполяризации клетка невозбудима, поскольку все ее Na+ -каналы уже находятся в открытом состоянии.

• Относительная рефрактерность – состояние, в котором возбуди­мость клетки значительно ниже нормальной; только очень сильные раздражители могут вызвать возбуждение клетки. Во время фазы реполяризации каналы возвращаются в закрытое состояние и возбудимость клетки постепенно восстанавливается.

• Субнормальная возбудимость характеризуется незначительным снижением возбудимости клетки ниже нормального уровня. Это уменьшение возбудимости происходит вследствие возрастания порогового потенциала во время фазы гиперполяризации.

Любое изменение состояния физической системы

Понятие информации является одним из основных, ключевых понятий не только в информатике, но и в системном анализе, математике, в физике (открытых систем) и др. В то же время, это понятие является плохо формализуемым понятием из-за его всеобщности, объёмности, расплывчатости и трактуется по разному:

  • как любая сущность, которая вызывает изменения в некоторой информационно-логической (инфологической — состоящей из сообщений, данных, знаний. абстракций и т.д.) модели, представляющей систему (математика, системный анализ);
  • как сообщения, полученные системой от внешнего мира в процессе адаптивного управления, приспособления (теория управления, кибернетика);
  • как отрицание энтропии, отражение меры хаоса в системе (термодинамика);
  • как связи и отношения, устраняющие неопределённость в системе (теория информации);
  • как вероятность выбора в системе (теория вероятностей);
  • как отражение и передача разнообразия в системе (физиология, биокибернетика);
  • как отражение материи, атрибут сознания, “интеллектуальности” системы (философия).

Мы будем рассматривать системное понимание этой категории, ничуть не отрицая приведенные выше понятия и, более того, используя их по мере надобности.

Информация — это некоторая последовательность сведений, знаний, которые актуализируемы (получаемы, передаваемы, преобразуемы, сжимаемы и/или регистрируемы) с помощью некоторых знаков (символьного, образного, жестового, звукового, сенсомоторного типа).

Информация с мировоззренческой точки зрения — отражение реального мира. Информация — приращение знания, развитие знаний, актуализация знаний, возникающее в процессе целеполагающей интеллектуальной деятельности человека. Никакая информация, никакое знание не появляется сразу: появлению их предшествует этап накопления, осмысления, систематизации опытных данных, мнений, взглядов, их осмысление и переосмысление. Знание — продукт этого этапа и такого процесса.

Информация по отношению к окружающей среде (или к использующей ее среде) бывает трех типов: входная, выходная и внутренняя.

Входная информация — информация, которую система воспринимает от окружающей среды. Такого рода информация называется входной информацией (по отношению к системе).

Выходная информация (по отношению к окружающей среде) — информация, которую система выдает в окружающую среду.

Внутренняя, внутрисистемная информация (по отношению к данной системе) — информация, которая хранится, перерабатывается, используется только внутри системы т.е. актуализируемая лишь только подсистемами системы.

Пример. Человек воспринимает, обрабатывает входную информацию, например, данные о погоде на улице, формирует выходную реакцию — ту или иную форму одежды. При этом используется внутренняя информация, например, это генетически заложенная или приобретённая физиологическая информация о реакции, например, о «морозостойкости» человека.

Внутренние состояния системы и структура системы влияют определяющим образом на взаимоотношения системы с окружающей средой — внутрисистемная информация влияет на входную и выходную, а также на изменение самой внутрисистемной информации.

Пример. Информация о финансовой устойчивости банка может влиять на её деятельность на рынке. Накапливаемая (внутрисистемно) социально- экономически негативная (позитивная) информация (проявляемая, например, социальной активностью в среде) может влиять на развитие системы.

Пример. Генетически заложенная в молекулах ДНК информация и приобретённая информация (в памяти) влияют на поведение, на адаптацию человека в окружающей среде. В машинах первого поколения внутренняя структура определялась тысячами ламп, причем каждая из них отдельно была невысокой надежности, т.е. вся система была ненадежной в работе. Это влияло на входную информацию, например, такие ЭВМ не были способны на работу в многозадачном режиме, в режиме реального времени (обработки сообщений по мере получения входных данных).

В живой и неживой природе информация может также передаваться структурой этой информации. Такую информацию называют структурной информацией.

Пример. Структурные кольца среза дерева несут информацию о возрасте дерева. Структура питания хищника (или трофическая структура) несет информацию о хищнике, о среде его обитания. Структура плавников рыбы часто несет информацию о глубине среды её обитания.

Информация по отношению к конечному результату проблемы бывает:

  • исходная (на стадии начала использования, актуализации этой информации);
  • промежуточная (на стадии от начала до завершения актуализации информации);
  • результирующая (после использования этой информации, завершения её актуализации).

Пример. При решении системы линейных алгебраических уравнений информация от методах решения, среде реализации, входных данных (источники, точность и т.д.), размерности системы и т.д. является исходной информацией; информация о совместности системы уравнений, численных значениях корня и т.д. — результирующая; информация о текущих состояниях коэффициентов уравнений, например, при реализации схемы Гаусса — промежуточная.

Информация по изменчивости при её актуализации бывает:

  • постоянная (не изменяемая никогда при её актуализации);
  • переменная (изменяемая при актуализации);
  • смешанная — условно — постоянная (или условно-переменная).

Пример. В известной физической задаче определения дальности полёта снаряда артиллерийского орудия, информация об угле наклона орудия может быть переменной, информация о начальной скорости вылета снаряда — постоянной, а информация о координатах цели (точности прицеливания) — условно-постоянной.

Возможна также классификация информации и по другим признакам:

  • по стадии использования (первичная, вторичная);
  • по полноте (избыточная, достаточная, недостаточная);
  • по отношению к цели системы (синтаксическая, семантическая, прагматическая);
  • по отношению к элементам системы (статическая, динамическая);
  • по отношению к структуре системы (структурная, относительная);
  • по отношению к управлению системой (управляющая, советующая, преобразующая, смешанная);
  • по отношению к территории, территориально (федеральная, региональная, местная, относящая к юридическому лицу, относящаяся к физическому лицу, смешанная);
  • по доступу (открытая или общедоступная, закрытая или конфиденциальная, смешанная);
  • по предметной области, по характеру использования (статистическая, коммерческая, нормативная, справочная, научная, учебная, методическая и т.д., смешанная) и другие.

Информация в философском аспекте бывает:

  • мировоззренческая;
  • эстетическая;
  • религиозная;
  • научная;
  • бытовая;
  • техническая;
  • экономическая;
  • технологическая.

Все это (вместе с человеком) составляет ноосферу общества — более высокое состояние биосферы, возникшее в результате эволюции, структурирования, упорядочивания (как статического, так и динамического) и гармонизации связей в природе и обществе под воздействием целеполагающей деятельности человечества.

Это понятие было введено впервые В.И.Вернадским в качестве отображения концепции этапа эволюции общества и природы т.е. системы, в рамках которой потенциально может быть реализовано гармоническое, устойчивое развитие (эволюция) систем “Общество” и “Природа”, а также постепенное слияние, гармонизация наук о природе и об обществе.

Основные свойства информации (и сообщений):

  • полнота (содержит всё необходимое для понимания информации);
  • актуальность (необходимость) и значимость (сведений);
  • ясность (выразительность сообщений на языке интерпретатора);
  • адекватность, точность, корректность интерпретации, приема и передачи;
  • интерпретируемость и понятность интерпретатору информации;
  • достоверность отображаемых сообщениями;
  • избирательность;
  • конфиденциальность и адресованность;
  • информативность и значимость отображаемых сообщениями;
  • массовость (применимость ко всем проявлениям);
  • кодируемость и экономичность (кодирования, актуализации сообщений);
  • сжимаемость и компактность;
  • защищённость и помехоустойчивость;
  • доступность (интерпретатору);
  • ценность (предполагает достаточный уровень потребителя).

Пример. Рекламный щит — простой красочный кусок дерева (железа), но информация заложенная в сообщениях на этом щите должна обладать всеми вышеперечисленными свойствами и только тогда этот щит будет ассоциироваться у интерпретатора (человека) с рекламируемым товаром (услугами) и актуализировать информацию. При этом вся форма представления рекламы (сообщения на щите) должна строиться с учетом понятности интерпретатору, быть информативной. Пока символы не организованы определенным образом, не используются для определённой цели, они не отражают информацию.

Информация может оказаться и вредной, влияющей негативно на сознание, например, воспитывающей восприятие мира от безразличного или же некритического — до негативного, «обозлённого», неадекватного. Информационный поток — достаточно сильный раздражитель.

Пример. Негативной информацией может быть информация о крахе коммерческого банка, о резком росте (спаде) валютного курса, об изменении налоговой политики и др.

Информация в системах может актуализироваться в следующих режимах:

  • последовательном — каждое сообщение этой информации может обрабатываться только после обработки предыдущего сообщения для этой информации;
  • параллельном — все сообщения обрабатываются одновременно;
  • последовательно — параллельном (смешанном) — какие-то сообщения могут обрабатываться в другом режиме (последовательном или же параллельном).

Информация не существует без других типов ресурсов — энергии, вещества, организации, как и они не могут существовать без информации. Любые взаимодействия систем (подсистем) — взаимодействия всегда материально-энергетически-информационные. Выявление (систематизация, структурирование), описание (формализация), изучение, применение инвариантов этих взаимодействий и составляет основную задачу науки, как человеческой деятельности.

Методы получения и использования информации можно разделить на три группы, иногда условно разграничиваемые.

  1. Эмпирические методы или методы получения эмпирической информации (эмпирических данных).
  2. Теоретические методы или методы получения теоретической информации (построения теорий).
  3. Эмпирико — теоретические методы (смешанные, полуэмпирические) или методы получения эмпирико-теоретической информации.

Охарактеризуем кратко эмпирические методы.

  1. Наблюдение — сбор первичной информации или эмпирических утверждений о системе (в системе).
  2. Сравнение — установление общего и различного в исследуемой системе или системах.
  3. Измерение — нахождение, формулирование эмпирических законов, фактов.
  4. Эксперимент — целенаправленное преобразование исследуемой системы (систем) для выявления ее (их) свойств.

Кроме классических форм их реализации в последнее время используются и такие формы как опрос, интервью, тестирование и другие формы.

Охарактеризуем кратко эмпирико — теоретические методы.

  1. Абстрагирование — установление общих свойств и сторон объекта (или объектов), замещение объекта или системы ее моделью. Абстракция в информатике и в математике играет важнейшую роль, понимается в двух следующих смыслах:
    а) абстракция, абстрагирование — метод исследования (изучения) некоторых явлений, объектов, в результате которого можно выделить основные, наиболее важные для исследования свойства, стороны исследуемого объекта или явления и игнорировать несущественные и второстепенные;
    б) абстракция — как описание или представление объекта (явления), полученного с помощью метода абстрагирования; особо важно и используемо в информатике такое понятие, как абстракция потенциальной осуществимости, которое позволяет нам исследовать конструктивно объекты, системы с потенциальной осуществимостью т.е. они могли бы быть осуществимы, если бы не было ограничений по ресурсам (время, пространство, вещество, энергия, информация, организация, человек); используются и абстракция актуальной бесконечности — существования бесконечных, неконструктивных множеств и систем, процессов, а также абстракция отождествления — возможности отождествления любых двух одинаковых букв, символов любого алфавита, объектов — независимо от места их появления в словах, конструкциях, хотя их информационная ценность при этом может быть различна.
  2. Анализ — разъединение системы на подсистемы с целью выявления их взаимосвязей.
  3. Синтез — соединение подсистем в систему с целью выявления их взаимосвязей.
  4. Индукция — получение знания о системе по знаниям о подсистемах; индуктивное мышление — распознавание эффективных решений, ситуаций и затем проблем, которые оно может разрешать.
  5. Дедукция — получение знания о подсистемах по знаниям о системе; дедуктивное мышление — определение проблемы и поиск затем ситуации его разрешающей.
  6. Эвристики, использование эвристических процедур — получение знания о системе по знаниям о подсистемах и наблюдениям, опыту.
  7. Моделирование и/или использование приборов — получение знания об объекте с помощью модели и/или приборов; моделирование основано на возможности выделять, описывать и изучать наиболее важные факторы и игнорировать при формальном рассмотрении второстепенные.
  8. Исторический метод — нахождение знаний о системе путем использования его предыстории — реально существовавшей или же мыслимой, возможной (виртуальной).
  9. Логический метод — метод нахождения знаний о системе путём воспроизведения его некоторых подсистем, связей или элементов в мышлении, в сознании.
  10. Макетирование — получение информации по макету объекта или системы, т.е. с помощью представления структурных, функциональных, организационных и технологических подсистем в упрощенном виде, сохраняющем информацию, необходимую для понимания взаимодействия и связей этих подсистем.
  11. Актуализация — получение информации с помощью активизации, инициализации ее, т.е. переводом из статического (неактуального) состояния в динамическое (актуальное) состояние; при этом все необходимые связи и отношения (открытой) системы с внешней средой должны быть учтены (именно они актуализируют систему).
  12. Визуализация — получение информации с помощью наглядного или визуального представления состояний актуализированной системы; визуализация предполагает возможность выполнения в системе операции типа “передвинуть”, “повернуть”, “укрупнить”, “уменьшить”, “удалить”, “добавить” и т.д. (как по отношению к отдельным элементам, так и к подсистемам системы), т.е. — это метод визуального восприятия информации.

Кроме указанных классических форм реализации теоретико- эмпирических методов в последнее время часто используются и такие формы как мониторинг (система наблюдений и анализа состояний системы), деловые игры и ситуации, экспертные оценки (экспертное оценивание), имитация (подражание) и другие формы.

Охарактеризуем кратко теоретические методы.

  1. Восхождение от абстрактного к конкретному — получение знаний о системе на основе знаний о его абстрактных проявлениях в сознании, в мышлении.
  2. Идеализация — получение знаний о системе или о ее подсистемах путём мысленного конструирования, представления в мышлении систем и/или подсистем, не существующих в действительности.
  3. Формализация — получение знаний о системе с помощью знаков или же формул, т.е. зыков искусственного происхождения, например, языка математики (или математическое, формальное описание, представление).
  4. Аксиоматизация — получение знаний о системе или процессе с помощью некоторых, специально для этого сформулированных аксиом и правил вывода из этой системы аксиом, т.е. правил получения выводов, знаний из аксиом.
  5. Виртуализация — получение знаний о системе созданием особой среды, обстановки, ситуации (в которую помещается исследуемая система и/или ее исследующий субъект), которую реально, без этой среды невозможно реализовать и получить соответствующие знания.

Эти методы получения информации применяются системно.

Пример. Для построения модели планирования и управления производством в рамках страны, региона, отрасли необходимо решить следующие проблемы:

  1. определить структурные связи системы (как вертикальные, так и горизонтальные), уровни управления и принятия решений, ресурсы; при этом чаще используются методы наблюдения, сравнения, измерения, эксперимента, анализа и синтеза, дедукции и индукции, эвристический, исторический и логический, макетирование и др.;
  2. определить гипотезы, цели, возможные проблемы планирования; наиболее используемые при этом методы: наблюдение, сравнение, эксперимент, абстрагирование, анализ, синтез, дедукция, индукция, эвристический, исторический, логический и др.;
  3. конструирование эмпирических моделей системы; наиболее при этом используемые методы: абстрагирование, анализ, синтез, индукция, дедукция, формализация, идеализация и др.;
  4. поиск решения проблемы планирования и просчет различных вариантов, директив планирования, поиск оптимального решения; используемые чаще методы: измерение, сравнение, эксперимент, анализ, синтез, индукция, дедукция, актуализация, макетирование, визуализация, виртуализация и др.

Информация, таким образом, может быть рассмотрена как кортеж А= , где носитель X — сведения, знания о предметной области, множество Y — сообщения, отражающие эти сведения, отношение f — отношение кодирования между элементами X, Y т.е. их актуализации.

Пример. Пусть X=<супруги, дети супругов>, Y= , отношение f может быть задано (словесно) перечислением связей вида: “Иванов Олег Петрович — супруг Ивановой Ольги Николаевны”, “Иванова Наталья Петровна — дочь Ивановой Ольги Николаевны” и т.д.

Таким образом, основная задача науки состоит в построении, исследовании, актуализации или хранении множеств с заданным классом X однотипных задач, Y — классом структур и ресурсов связываемых с этими задачами и f — процессами их сопоставления и актуализации с помощью некоторых ресурсов.

Такие задачи мы решаем в ежедневной жизни, но в то же время часто правило f нельзя явно отыскать или построить явно или конструктивно. В этом случае приходится заменять искомый закон f с помощью подходящих явных или конструктивных представлений f, X, Y и/или Z (см. рис.) и применять эти представления всякий раз.

Правило j задает правило кодирования или интерпретации входного алфавита, правило y — правило декодирования или интерпретации выходного алфавита, т.е. входной и выходной коды (правила, функции). При этом справедливы законы:

Правило f* подбирают так, чтобы в отличие от f, его можно было бы найти и/или исследовать, применить. Для каждого сообщения х Î Х определена триада:

Информация — содержание сообщения, сообщение — форма проявления или актуализации информации. Информация всегда имеет носитель, передача (актуализация) информации связана с изменением носителя, ресурсов.

Пример. Сведения о сути товара могут быть изложены в рекламе, передаваемой различными сообщениями (по телевидению, по радио, в газете и т.д.). При этом соответствие этой рекламы действительности может быть независима от типа сообщений, т.е. имеется третья сторона информации (кроме её абстрактной сущности, её представления сообщениями) — соответствие сведений заложенных в информации с проявлениями реальной системы.

Выше было отмечено, что информация может пониматься и интерпретироваться по разному. Вследствие этого имеются различные подходы к определению измерения информации, меры количества информации. Раздел информатики (теории информации) изучающий методы измерения информации называется информметрией.

Количество информации — числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности (упорядоченности), определённости, выбору состояний отображаемой системы.

Если рассматривается некоторая система, которая может принимать одно из n возможных состояний, то актуальной задачей является задача оценки такого выбора, исхода. Такой оценкой может стать мера информации (или события). Мера — это некоторая непрерывная действительная неотрицательная функция, определённая на множестве событий и являющаяся аддитивной т.е. мера конечного объединения событий (множеств) равна сумме мер каждого события.

Меры могут быть статические и динамические — в зависимости от того, какую информация они позволяют оценивать — статическую (не актуализированную т.е. на самом деле оцениваются представляющие информацию сообщения без учёта ресурсов и формы актуализации) или динамическую (актуализированную т.е. оцениваются также и затраты ресурсов для актуализации информации).

Отметим, что ниже мы не всегда будем (в основном, для большей убедительности и большего содержательного понимания) проводить четкие математические границы между понятиями »количество информации» и “мера количества информации», но строгому читателю необходимо всё время задавать достаточно важные вопросы типа: о количестве информации или о мере информации в конкретной последовательности событий идёт речь? о детерминированной или стохастической информации идёт речь?

Мера Р. Хартли. Пусть имеется N состояний системы S или N опытов с различными, равновозможными последовательными состояниями системы. Если каждое состояние системы закодировать, например, двоичными кодами определённой длины d, то эту длину необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N. Наименьшее число, при котором это возможно или мера разнообразия множества состояний системы задаётся формулой Р. Хартли:

где k — коэффициент пропорциональности (масштабирования, в зависимости от выбранной, рассматриваемой единицы измерения меры), а — основание рассматриваемой системы.

Пример. Чтобы узнать положение точки в системе из двух клеток т.е. получить некоторую информацию, необходимо задать 1 вопрос («Левая или правая клетка?»). Узнав положение точки, мы увеличиваем суммарную информацию о системе на 1 бит (I=log22). Для системы из четырех клеток необходимо задать 2 аналогичных вопроса, а информация равна 2 битам (I=log24). Если система имеет n различных состояний, то максимальное количество информации равно I=log2n.

Если измерение ведётся в экспоненциальной (натуральной) системе, то

если измерение ведётся в двоичной системе, то

если измерение ведётся в десятичной системе, то

Справедливо утверждение Хартли: если во множестве X=1, x2, . xn> выделить произвольный элемент xi Î X, то для того, чтобы найти его, необходимо получить не менее logan (единиц) информации.

По Хартли, чтобы мера информации имела практическую ценность — она должна быть такова, чтобы информация была пропорциональна числу выборов.

Пример. Имеются 192 монеты из которых одна фальшивая. Определим сколько взвешиваний нужно произвести, чтобы определить ее. Если положить на весы равное количество монет, то получим 2 возможности: а) левая чашка ниже; б) правая чашка ниже. Таким образом, каждое взвешивание дает количество информации I=log22=1 и, следовательно, для определения этой фальшивой монеты нужно сделать не менее k взвешиваний, где k удовлетворяет условию log22 k ³ log2192. Отсюда, k ³ 7. Следовательно, необходимо (достаточно) сделать не менее 7 взвешиваний.

Эта формула отвлечена от семантических и качественных, индивидуальных свойств рассматриваемой системы (качества информации, содержащейся в системе, в проявлениях системы с помощью рассматриваемых состояний системы). Это положительная сторона этой формулы. Но имеется и отрицательная сторона: формула не учитывает различимость и различность рассматриваемых N состояний системы.

Уменьшение (увеличение) Н может свидетельствовать об уменьшении (увеличении) разнообразия состояний N системы. Обратное, как это следует из формулы Хартли (основание логарифма берётся больше 1!), — также верно.

Мера К. Шеннона. Формула Шеннона дает оценку информации независимо, отвлеченно от ее смысла:

где n — число состояний системы; рi — вероятность (или относительная частота) перехода системы в i-ое состояние, причем

Если все состояния равновероятны (т.е. рi=1/n), то I=log2n (как и ожидалось).

К. Шенноном доказана теорема о единственности меры количества информации). Для случая равномерного закона распределения плотности вероятности мера Шеннона совпадает с мерой Хартли.

Формулы Хартли и Шеннона подтверждается и данными нейропсихологии.

Пример. Время t реакции испытуемого на выбор предмета из имеющихся N предметов линейно зависит от log2N: t=200+180log2N (мс). По аналогичному закону изменяется и время передачи информации в живом организме. (См. также сказанное выше о числе Страуда).

Пример. Один из опытов по определению психофизиологических реакций человека состоял в том, что перед испытуемым большое количество раз зажигалась одна из n лампочек, которую он должен указать. Оказалось, что среднее время, необходимое для правильного ответа испытуемого, пропорционально не числу n лампочек, а именно величине I определяемой по формуле Шеннона, где pi — вероятность зажечь лампочку номер i.

Легко видеть, что в общем случае:

Если выбор i-го варианта предопределен заранее (выбора, собственно говоря, нет, pi=1), то I=0.

Сообщение о наступлении события с меньшей вероятностью несёт в себе больше информации, чем сообщение о наступлении события с большей вероятностью. Сообщение о наступлении достоверно наступающего события несёт в себе нулевую информацию (и это вполне ясно, — событие всё равно произойдёт когда-либо).

Пример. Если положение точки в системе известно, в частности, она — в k-ой клетке, т.е. все рi=0, кроме рk=1, то тогда I=log21=0 и мы здесь новой информации не получаем.

Пример. Выясним, сколько бит информации несет каждое двузначное число xx со всеми значащими цифрами (отвлекаясь при этом от его конкретного числового значения). Так как таких чисел может быть всего 90 (10 — 99), то информации будет количество I=log290 или приблизительно I=6.5. Так как в таких числах значащая первая цифра имеет 9 значений (1 — 9), а вторая — 10 значений (0 — 9), то I=log290 = log29 + log210. Приблизительное значение log210 равно 3.32. Отсюда можно сделать вывод о том, что сообщение в одну десятичную единицу несет в себе в 3.32 больше информации, чем в одну двоичную единицу (чем log22=1). Вторая цифра в любом двузначном числе несёт в себе больше информации, чем первая, например, в числе 22 вторая цифра 2 несёт в себе больше информации, чем первая, если заранее эти цифры не были известны (если же цифры, т.е. конкретное число 22 было задано, то количество информации равно 0 (почему?).

Если в формуле Шеннона обозначить fi = — n log2pi, то получим

т.е. I можно понимать как среднеарифметическое величин fi.

Отсюда, fi можно интерпретировать как информационное содержание символа алфавита с индексом I и величиной pi вероятности появления этого символа в сообщении, передающем информацию. Если k — коэффициент Больцмана, известный в физике как k=1.38×10 -16 эрг/град, то выражение

в термодинамике известно как энтропия или мера хаоса, беспорядка в системе. Сравнивая выражения для I и S видим, что I можно понимать как информационную энтропию или энтропию из-за нехватки информации в системе (или о системе).

Нулевой энтропии соответствует максимальная информация.

Основное соотношение между энтропией и информацией:

или в дифференциальной форме —

Итак, если имеется система S и каждое I -ое состояние S из N возможных состояний определяется некоторым информационным вектором или же сообщением xi, i=1,2. N над некоторым заданным алфавитом A, система может перейти в каждое i-ое состояние с вероятностью pi, i=1,2. N, то pi можно понимать как вероятность i -го сообщения (сообщения, характеризующего усреднённое i -ое состояние системы).

Основными положительными сторонами этой формулы является её отвлечённость от семантических и качественных, индивидуальных свойств системы, а также то, что в отличие от формулы Хартли она учитывает различность состояний, их разновероятность или же формула имеет статистический характер (учитывает структуру сообщений), делающий эту формулу удобной для практических вычислений. Основные отрицательные стороны формулы Шеннона: она не различает состояния (с одинаковой вероятностью достижения, например), не может оценивать состояния сложных и открытых систем и применима лишь для замкнутых систем, отвлекаясь от смысла информации.

Увеличение (уменьшение) меры Шеннона свидетельствует об уменьшении (увеличении) энтропии (организованности, порядка) системы. При этом энтропия может являться мерой дезорганизации систем от полного хаоса (S=S max ) и полной информационной неопределённости (I=I min ) до полного порядка (S=S min ) и полной информационной определённости (I=I max ) в системе.

Пример. Чем ближе движущийся объект к нам, тем полнее информация обрабатываемая нашими органами чувств, тем чётче и структурирован (упорядочен) объект. Чем больше информации мы имеем о компьютерной технике, тем меньше психологический барьер перед ним (согласно основному соотношению между энтропией и информацией).

Термодинамическая мера. Информационно-термодинамический подход связывает величину энтропии системы с недостатком информации о её внутренней структуре (не восполняемым принципиально, а не нерегистрируемым). При этом число состояний определяет, по существу, степень неполноты наших сведений о системе.

Пусть дана термодинамическая система (процесс) S, а Н0, Н1 — термодинамические энтропии системы S в начальном (равновесном) и конечном состояниях термодинамического процесса, соответственно. Тогда термодинамическая мера информации (негэнтропия) определяется формулой:

Эта формула универсальна для любых термодинамических систем.

Уменьшение Н(Н01) свидетельствует о приближении термодинамической системы S к состоянии статического равновесия (при данных доступных ей ресурсах), а увеличение — об удалении.

Поставим некоторый вопрос о состоянии некоторой термодинамической системы. Пусть до начала процесса можно дать p1 равновероятных ответов на этот вопрос (ни один из которых не является предпочтительным другому), а после окончания процесса — p2 ответов. Изменение информации при этом:

Если p1p2 ( D I > 0) — прирост информации, т.е. сведения о системе стали более определёнными, а при p1p2 ( D I >0) — менее определёнными. При этом важно то, что мы не использовали явно структуру системы (механизм протекания процесса), т.е. это универсальный вывод.

Пример. Предположим, что имеется термодинамическая система — газ в объёме V, который расширяется до объёма 2V (рис.).

Нас интересует вопрос о координате молекулы m газа. В начале (а) мы знали ответ на вопрос и поэтому p1=1 (ln p1=0). Число ответов было пропорционально ln V. После поднятия заслонки мы уже знаем эту координату (микросостояния), т.е. изменение (убыль) информации о состоянии системы будет равно

Это известное в термодинамике выражение для прироста энтропии в расчёте на одну молекулу и оно подтверждает второе начало термодинамики. Энтропия — мера недостатка информации о микросостоянии статической системы.

Величина D I может быть интерпретирована как количество информации, необходимой для перехода от одного уровня организации системы к другой (при D I >0 — более высокой, а при D I >0 — более низкой организации).

Термодинамическая мера (энтропия) применимо к системам, находящимся в тепловом равновесии. Для систем, далёких от теплового равновесия, например, живых биологических систем, мера-энтропия — менее подходящая.

В биологических науках широко используются так называемые индексные меры, меры видового разнообразия. Индекс — мера состояния основных биологических, физико-химических и др. компонент системы, позволяющая оценить силу их воздействия на систему, состояние и эволюцию системы. Индексы должны быть уместными, общими, интерпретируемыми, чувствительными, минимально достаточными, качественными, широко применяемыми, рациональными.

Пример. Показателем видового разнообразия в лесу может служить

где p1, p2. pn — частоты видов сообщества обитающих в лесу, n — число видов.

Энергоинформационная (квантово-механическая) мера. Энергия (ресурс) и информация (структура) — две фундаментальные характеристики систем реального мира, связывающие их вещественные, пространственные, временные характеристики. Если А — именованное множество, где носитель — «энергетического происхождения», а В — именованное множество, где носитель «информационного происхождения», то можно определить энергоинформационную меру f:A ® B, например, можно принять отношение именования для именованного множества с носителем (множеством имён) А или В. Отношение именования должно отражать механизм взаимосвязей физико-информационных и вещественно-энергетических структур и процессов в системе.

Отметим, что сейчас актуальнее говорить о биоэнергоинформационных мерах, отражающих механизм взаимосвязей биофизикоинформационных и вещественно-энергетических структур и процессов в системе.

Пример. Процесс деления клеток сопровождается излучением квантов энергии с частотами приблизительно до N=1.5×10 15 Гц. Этот спектр можно воспринимать как спектр функционирования словарного запаса клетки как биоинформационной системы. С помощью этого спектра можно закодировать до 10 15 различных биохимических реакций, что примерно в 10 7 раз меньше количества реакций реально протекающих в клетке (их количество — примерно 10 8 ), т.е. словарный запас клетки избыточен для эффективного распознавания, классификации, регулировании этих реакций в клетке. Количество информации на 1 квант энергии: I =log210 15 » 50 бит. При делении клеток, количество энергии, расходуемой на передачу 50 бит информации равна энергии кванта (h — постоянная Планка, n — частота излучения):

При этом, на 1 Вт мощности «передатчика» или на m =10 7 эрг/сек. может быть передано количество квантов:

Общая скорость передачи информации на 1 Вт затрачиваемой клеткой мощности определяется по числу различных состояний клетки N и числу квантов (излучений) m:

Информация — это знание, но не все знание, которым располагает человечество, а только та часть, которая используется для развития, совершенствования системы, для взаимосвязей, взаимодействий подсистем системы, а также системы в целом с окружающими условиями, средой.

Информация развивается вслед за развитием системы. Новые формы, принципы, подсистемы, взаимосвязи и отношения вызывают изменения в информации, ее содержании, формах получения, переработки, передачи и использования. Благодаря потокам информации (от системы к окружающей среде и наоборот) система осуществляет целесообразное взаимодействие с окружающей средой, т.е. управляет или управляема. Информация стала средством не только производства, но и управления.

Своевременная и оперативная информация может позволить стабилизировать систему, приспосабливаться и/или адаптироваться, восстанавливаться при нарушениях структуры и/или подсистем. От степени информированности системы, от богатства опыта взаимодействия системы и окружающей среды зависит развитие и устойчивость системы.

Информация обладает также определенной избыточностью: чем больше сообщений о системе, тем полнее и точнее управляется система.

Пример. При передаче сообщений часто применяют способ двукратной (избыточной) последовательной передачи каждого символа (что позволяет избавляться от помех, “шумов” при передаче и осуществлять контроль чётности). Пусть в результате сбоя при передаче приемником принято было слово вида “прраосснтоо”. Определим, какое осмысленное (имеющее семантический смысл) слово русского языка передавалось передатчиком. Легко заметить, что “претендентами на слово” являются слова “праспо”, “проспо”, “рроспо”, “ррасто”, “прасто”, “рросто”, “просто” и “рраспо”. Из всех этих слов осмысленным является только слово “просто”.

Суть задачи управления системой — отделение ценной информации от “шумов” (бесполезного, иногда даже вредного для системы, возмущения информации) и выделение информации, которая позволяет этой системе существовать и развиваться.

Управление любой системой (в любой системе) должно подкрепляться необходимыми для этого ресурсами — материальными, энергетическими, информационными, людскими и организационными (административного, экономического, правового, гуманитарного, социально — психологического типа). При этом характер и степень активизации этих ресурсов может повлиять (иногда — лишь косвенно) и на систему, в которой информация используется. Более того, сама информация может быть зависима от системы.

Пример. В средствах массовой информации правительство чаще ругают, актеров чаще хвалят, спортсменов упоминают чаще в связи с теми или иными спортивными результатами, прогноз погоды бывает чаще кратким, новости политики — официальными.

Управление — непрерывный процесс, который не может быть прекращён, ибо движение, поток информации не прекращается.

Цикл (инвариант) управления любой системой (в любой системе):

Основные правила организации информации для управления системой:

  • выяснение формы и структуры исходной (входной) информации;
  • выяснение средств, форм передачи и источников информации;
  • выяснение формы и структуры выходной информации;
  • выяснение надежности информации и контроль достоверности;
  • выяснение форм использования информации для принятия решений.

Пример. При управлении полётом ракеты наземная станция управления генерирует и в определённой форме, определёнными структурами посылает входную информацию в бортовую ЭВМ ракеты; при этом сигналы отсеиваются от возможных “шумов”, осуществляется контроль входной информации на достоверность и только затем бортовая ЭВМ принимает решение об уточнении траектории и ее корректировке.

Ценность информации для управления определяется мерой раскрываемой им неопределенности в системе, содержанием передающих её сообщений.

Информация используется для управления, но и сама подвержена управляющим воздействиям. Основная цель этих воздействий — поддержка информационных потоков, магистралей, способствующих достижению поставленных целей при ограниченных ресурсах (материальных, энергетических, информационных, организационных, пространственных, временных).

Информационная система — система поддержки и автоматизации интеллектуальных работ — поиска, администрирования, экспертиз и экспертных оценок или суждений, принятия решений, управления, распознавания, накопления знаний, обучения.

Информационная среда — система взаимодействующих информационных систем, включая и информацию, актуализируемую в этих системах.

Пример. Можно выделить три основных подхода к использованию информационного менеджмента в социально-экономических системах.

Пример. Технологический и социально-экономический отрыв стран Запада и СНГ определяется, в первую очередь, не отсутствием у нас квалифицированных рабочих, хорошей образовательной системы, ресурсов, а отсутствием адекватной им системы информационного и экономического управления, его регулирования, а не саморегулирования (самоорганизации), недостаточным вниманием к третьему подходу к информационному менеджменту. Реформы должны происходить не для обогащения небольшой группы населения, а для благосостояния трудящейся массы, обеспечения его творческого и плодотворного труда. Это особенно важно и в то же время трудно обеспечиваемо в условиях экономических реформ.

Информационная система управления — система предназначенная для управления как системой, так и в системе.

По характеру управления, охвата подсистем и подцелей (цели системы) управление может быть:

  • стратегическое, направленное на разработку, корректировку стратегии поведения системы;
  • тактическое, направленное на разработку, корректировку тактики поведения системы. По времени управляющего воздействия системы могут быть:
  • долгосрочно управляемые;
  • краткосрочно управляемые.

Иногда отождествляют стратегическое и долгосрочное, тактическое и краткосрочное управление, но это не всегда верно.

Пример. Любая серьёзная экономическая система стратегического управления должна включать в себя управляющую (информационную) подсистему, обрабатывающую и актуализирующую стратегическую информацию об инновационных мероприятиях, о состоянии рынков товаров, услуг и ценных бумаг, о ресурсном обеспечении, о финансовых условиях и критериях, о принципах и методах управления и др.

Различают также основные 6 типов информационных систем управления (тип определяется целью, ресурсами, характером использования и предметной областью):

  1. Диалоговая система обработки запросов (Transaction Processing System) — для реализации текущих, краткосрочных, тактического характера, часто рутинных и жестко структурируемых и формализуемых процедур, например, обработка накладных, ведомостей, бухгалтерских счётов, складских документов и т.д.
  2. Система информационного обеспечения (Information Provision System) — для подготовки информационных сообщений краткосрочного (обычно) использования тактического или стратегического характера, например, с использованием данных из базы данных и структурированных, формализованных процедур.
  3. Система поддержки принятия решений (Decision Support System) — для анализа (моделирования) реальной формализуемой ситуации, в которой менеджер должен принять некоторое решение, возможно, просчитав различные варианты потенциального поведения системы (варьируя параметры системы); такие системы используются как в краткосрочном, так и в долгосрочном управлении тактического или стратегического характера в автоматизированном режиме.
  4. Интегрированная, программируемая система принятия решения (Programmed Decision System), предназначена для автоматического, в соответствии с программно реализованными в системе структурированными и формализованными критериями оценки и отбора (выбора) решений; используются как в краткосрочном, так и в долгосрочном управлении тактического (стратегического) характера.
  5. Экспертные системы (Expert System) — информационные консультирующие и\или принимающие решения системы, основанные на структурированных, часто плохо формализуемых процедурах, использующих опыт, интуицию т.е. поддерживающие или моделирующие работу экспертов, интеллектуальные особенности; системы используются как в долгосрочном, так и в краткосрочном оперативном прогнозировании, управлении;
  6. Интеллектуальные системы или системы, основанные на знаниях (Knowleadge Based System) — системы поддержки задач принятия решения в сложных системах, где необходимо использование знаний в достаточно широком диапазоне, особенно, в плохо формализуемых и плохо структурируемых системах, нечетких системах и при нечетких критериях принятия решения; эти системы наиболее эффективны и используемы для сведения проблем долгосрочного, стратегического управления к проблемам тактического и краткосрочного характера, повышения управляемости, особенно, в условиях многокритериальности. В отличие от экспертных систем, в системах основанных на знаниях следует чаще избегать экспертных и эвристических процедур и прибегать к когнитивным процедурам для минимизации риска. Здесь более существенно влияние профессионализма персонала, ибо при разработке таких систем необходимо сотрудничество и взаимопонимание не только разработчиков, но и пользователей, менеджеров, а сам процесс разработки, как правило, происходит итерационно, итерационными улучшениями, постепенным преобразованием (переходом) процедурных знаний (как делать) в непроцедурные, декларативные (что делать).

Фундаментальная ошибка с неустранимыми последствиями в информационных системах — принятие неправильных стратегических решений и критериев оценки решений.

При построении (выборе, адаптации) информационной системы можно использовать две основные концепции, два основных подхода (третья концепция — их комбинации):

  • ориентация на проблемы, которые необходимо решать с помощью этой информационной системы, т.е. проблемно-ориентированный подход (или индуктивный подход);
  • ориентация на технологию, которая доступна (актуализируема) в данной системе, среде, т.е. технология-ориентированный подход, (или дедуктивный подход).

Выбор концепции зависит от стратегических (тактических) и\или долгосрочных (краткосрочных) критериев, проблем, ресурсов.

Если вначале изучаются возможности имеющейся технологии, а после их выяснения определяются актуальные проблемы, которые можно решить с их помощью, то необходимо опираться на технология-ориентированный подход.

Если же вначале определяются актуальные проблемы, а затем внедряется технология(ии) достаточная(ые) для решения этих проблем, то необходимо опираться на проблемно-ориентированный подход.

Ошибки в выборе подхода (проблем, технологии) могут привести не только к ошибочным стратегиям и/или тактике, но и к полному краху.

При этом обе концепции построения информационной системы зависят друг от друга: внедрение новых технологии изменяют решаемые проблемы, а изменение решаемых проблем — приводит к необходимости внедрения новых технологий; и то и другое влияют на принимаемые решения.

Дороговизна, важность, актуальность информации определяют цели и важность (приоритеты) в управлении информационными системами (в информационных системах).

Системное проектирование (разработка) информационной системы должно пройти следующий жизненный цикл:

  1. предпроектный анализ (опыта создания других аналогичных систем, прототипов, отличия и особенности разрабатываемой системы и др.); это анализ внешних проявлений системы;
  2. внутрисистемный анализ, внутренний анализ (анализ подсистем системы);
  3. системное (морфологическое) описание (представление) системы (описание системной цели, системных отношений и связей с окружающей средой, другими системами и системных ресурсов — материальных, энергетических, информационных, организационных, людских, пространственных и временных);
  4. определение критериев адекватности, эффективности и устойчивости (надёжности);
  5. функциональное описание подсистем системы (описание моделей, алгоритмов функционирования подсистем);
  6. макетирование системы, оценка взаимодействия подсистем системы (разработка макетов — реализации подсистем с упрощёнными функциональными описаниями, процедурами и апробация взаимодействия этих макетов с целью удовлетворения системной цели), при этом возможно использование “макетов” критериев адекватности, устойчивости, эффективности;
  7. “сборка” и тестирование системы — реализация полноценных функциональных подсистем и критериев, оценка модели по сформулированным критериям;
  8. определение целей, дальнейшего развития системы, приложений системы.

Эти этапы — основы информационного реинжиниринга систем.

При разработке целей, определении ресурсов необходимо тесное взаимодействие управляющего, проектирующего, разрабатывающего и пользовательского звена системы. Здесь недопустимы ложные критерии конфиденциальности и защиты информации, всегда влияющие негативно на стратегическое и долгосрочное планирование и прогнозирование, а также непрофессионализм принятия решений в каждом звене.

Главным лозунгом разработки информационных систем должен быть лозунг: “Разработка информационной системы не для внедрения (или использования) информационной системы, а для обеспечения эффективного управления, функционирования, планирования и прогнозирования, эволюции системы”.

Сформулируем основные аксиомы управления информационными системами.

Аксиома 1
Количество информации в любой подсистеме иерархической системы определяется произведением количеством сигналов исходящих от подсистемы нулевого уровня (исходной вершины) и достигающих данную подсистему (или входящих в данную подсистему) и энтропии этих сигналов.

Аксиома 2
Энтропия любого элемента управляющей подсистемы при переходе в новое целевое состояние (при смене цели) определяется исходным (от нулевого уровня) информационным потоком и энтропией этого элемента.

Аксиома 3
Энтропия всей управляющей подсистемы при переходе в новое целевое состояние определяется суммой (точнее интегральной оценкой) энтропии всех её элементов.

Аксиома 4
Полный информационный поток направленный на объект управления за период его перехода в новое целевое состояние равен разности энтропии всей управляющей подсистемы при переходе в новое целевое состояние и энергии объекта управления, затрачиваемой объектом управления на переход в новое состояние.

Аксиома 5
Информационная работа управляющей подсистемы по преобразованию ресурсов состоит из двух частей — работы управляющей подсистемы, затраченной на компенсацию её исходной энтропии и работы, направленной на управляемый объект, т.е. на удерживание системы в устойчивом состоянии.

Аксиома 6
Полезная работа управляющей подсистемы в течении некоторого промежутка времени должна соответствовать полному информационному потоку воздействующему на управляемую систему (в соответствии с аксиомой 4) за рассматриваемый период времени.

Любая открытая информационная система эволюционирует так, что начиная с состояния наибольшей энтропии (неопределённости) стремится спиралеобразно к актуализации новых связей и отношений, к организованности и порядку в системе в процессе взаимоотношений со средой и перестройки структуры с целью уменьшения энтропии.

Пример. На телевизионной игре “Что? Где? Когда?” обсуждение вопроса часто начинается хаотично, спонтанно, независимо и в конце обсуждения может организоваться в единодушное принятие правильного решения.

Самоорганизация может наблюдаться и в неживых системах.

Пример. История развития ЭВМ — пример самоорганизации: от 1-го поколения ЭВМ (40-50-ые годы 19 века) с электронными лампами и быстродействием порядка 10 4 операций в сек. до 1-го поколения оптических ВМ (конец 90-ых годов) с голографической памятью, с логикой на потоках фотонов, нейроподобных архитектурах и быстродействием порядка 10 12 операций в сек.

Пример. Человеческое общество развивается спиралевидно, циклически: циклически повторяются катастрофы, законы, неурожаи и т.п.

Любая деятельность вопреки эволюционным процессам в системе, вопреки принципам самоорганизации — вредна и противосистемна.

Пример. Любые экономические решения противоречащие основному регулятору рынка, основному механизму её организации — соотношению “спрос-предложение” приводят к вредным последствиям для системы, её самоорганизации, например, выпуск товаров в объёме, превышающем спрос на рынке может привести к снижению спроса.

Сформулируем основные аксиомы теории информационных динамических процессов (информационной синергетики).

Аксиома 1
Развитие (эволюция) системы определяется некоторой целью и информационными ресурсами системы, её информационной открытостью.

Аксиома 2
При стремлении к цели система воспринимает входную информацию, которая используется и для изменения внутренней структуры самой системы, внутрисистемной информации.

Аксиома 3
Изменение внутрисистемной информации происходит таким образом, чтобы увеличивалась негэнтропия системы, уменьшалась энтропия (мера беспорядка) в системе.

Аксиома 4
Любое изменение внутренней структуры системы или внутрисистемной информации оказывает воздействие на выходную информацию системы (т.е. на окружающую среду системы); внутренняя энтропия изменяет внешнюю энтропию системы.

Пример. Сформулируем, опираясь на эти аксиомы основные законы информационных динамических процессов в социально-экономических системах. Социально-экономические процессы при этом труднее поддаются математизации, информатизации из-за сложности, плохой формализуемости и плохой структурируемости этих систем (процессов).

Закон 1
Развитие любой социально — экономической системы определяется лишь целью и социально — экономико — информационными ресурсами системы.

Закон 2
При стремлении к цели любая социально-экономическая система воспринимает входную информацию, используемую и для изменения внутренней структуры системы, изменения внутрисистемной информации.

Закон 3
Изменение внутрисистемной информации происходит таким образом, чтобы уменьшалась энтропия (мера беспорядка) в социально- экономической системе.

Закон 4
Любое изменение внутренней структуры социально- экономической системы или внутрисистемной информации оказывает воздействие на выходную информацию, на окружающую среду, а система при этом ведёт себя так, чтобы уменьшить негативное влияние этих воздействий.

Важное значение при исследовании управляемости системы, её управляющих параметров, развития системы во времени, в пространстве, по структуре имеют синергетические принципы сформулированные И. Пригожиным и его последователями, в частности следующие:

  • принцип эволюции системы, необратимости процессов её развития;
  • принцип возможного решающего воздействия (при определенном стечении обстоятельств) малых изменений поведения системы на её эволюцию;
  • принцип множественности (или многовариантности) путей развития системы и возможности выбора оптимальных из них;
  • принцип невмешательства в процессы самоуправляемого развития и непредсказуемости эволюционного поведения системы и, в то же время, — учёт возможности организовать управляющие воздействий на ресурсы и процессы в системе;
  • принцип учёта стохастичности и неопределённости процессов (поведения систем);
  • принцип взаимовоздействия усложнения организации, устойчивости и темпов развития систем;
  • принцип учёта факторов стабильности и нестабильности системы (возникновения устойчивости из неустойчивого поведения), порядка и хаоса в системе (возникновения порядка из хаоса), определенности и неопределенности;
  • принцип взаимовлияния устойчивости среды отдельной подсистемы или элемента (микросреды) и процессов во всей системе (макросреды).

Наблюдаемая математизация и информатизация современной науки убедительно показывает, что их эффективность зависит как от данной науки, сложности и возможности описания её законов и принципов адекватными математическими и информационными моделями, так и от используемого математического аппарата.

Новые информационные технологии, наиболее часто используемые системах различного типа и назначения:

  • математическое и компьютерное моделирование;
  • базы данных и знаний;
  • экспертные и интеллектуальные системы;
  • средства, технологии планирования и управления с помощью электронных таблиц;
  • электронная почта и телекоммуникационные средства;
  • автоматизированные системы (обучения, контроля, управления и т.д.), АРМы и интеллектуальные системы управления;
  • компьютерные офисы и виртуальные корпорации;
  • интегрированные пакеты прикладных программ и среды;
  • средства, методы и технологии машинной графики и анимации;
  • средства, методы и технологии мультимедиа;
  • гипертекстовые технологии и WWW-технологии;
  • технологии информационного реинжиниринга, в частности технологии «клиент-сервер»;
  • технологии, системы и среды виртуальной реальности;
  • когнитивные технологии, в частности, средства и методы визуального и когнитивного программирования;
  • объектно-ориентированные технологии, в частности, объектно- ориентированные среды программирования и организации интерфейса;
  • средо-ориентированные технологии, в частности, средо-ориентированные системы программирования;
  • CASE — технологии и др.

Новые информационные технологии — основа многих других технологий, а также основа нового операционного стиля мышления.

Отношение общего объёма активных информационных ресурсов к общему объёму всех национальных ресурсов является одним из наиболее существенных показателей экономического вектора развития общества по пути построения информационного общества.

Компьютеризация общества и её различных институтов должна быть направлена не только (не столько) на пассивную (статическую) актуализацию информационных ресурсов общества, но и на создание и актуализацию новых информационных технологий, ресурсов, динамическое их переупорядочивание, а также их взаимопроникновение и взаимообогащение в системах вида “человек-технология-знания-система”.

Информация (informatio) — разъяснение, осведомленность, изложение.

Исторически первым носителем человеческих информации, знаний была речь, представлявшая изначально кодированные звуки для координации действий в человеческом сообществе. Затем появилось наскальное письмо каменного века, далее пиктограммы (“иконы”) бронзового века, иероглифическое письмо (сохраненное до сих пор, например, в Китае) и письмо “обычное” — конкатенацией букв алфавита в слоги (“слоговое письмо”) и т.д.

Объединение систем, процессов, связанных с понятиями “информация”, “управление” привело к появлению нового предмета “кибернетика (или науки об управлении в живых организмах и автоматах)” (40-ые годы 20-го века), изучающей информационные процессы в живых организмах и машинах (автоматах). Кибернетика явилась одной из важных предпосылок появления и развития информатики. В последнее время, предмет кибернетики понемногу, видимо, “поглощается” предметом информатики. Но при этом информатика не зачеркивает кибернетику, которая теперь может развиваться сильнее, используя результаты, методы и технологии информатики.

Понятие энтропии было введено Р.Клаузиусом в 1852 году в качестве удобного средства описания и анализа работы тепловых двигателей. Затем это понятие Л.Больцманом и другими учеными использовано в качестве универсального средства для описания поведения макроскопических систем. Л.Больцманом также установлена связь между энтропией H и термодинамической вероятностью состояния системы W: W=k lnW.

Связь информации и энтропии замечена Л. Сциллардом в 1929 году. К. Шеннон в 1948 году дал определение информации, основываясь на энтропии сообщений, используя ее как меру вероятности информационных процессов.

Э. Шредингер расширил понятие энтропии — рассмотрел её как меру дезорганизации системы любой природы.

Понятие ноосферы (в эколого-социальной трактовке) впервые ввел В.И. Вернадский.

Основные результаты по теории информации были получены Л. Бриллюэном, Н. Винером, Д. Пирсом, Р. Фано, К. Шенноном, У. Эшби, А. Колмогоровым и др.

Важные результаты в области синергетики получили Г. Хакен, К. Николис, И. Пригожин, И. Стенгерс, С.П. Курдюмов, Г.Г. Малиновский, Ю.М. Романовский и др.

Вопросы для самоконтроля

  1. Что такое информация? Приведите пример некоторой информации.
  2. Чем отличается информация от сообщения? Приведите пример информации и сообщения соответствующего этой информации.
  3. Что такое информация с мировоззренческой точки зрения? Приведите примеры получения, хранения, передачи, использования информации в быту, науке, производстве, обучении, управлении, планировании.
  4. Что означает термин “актуализация информации”? Приведите пример актуализированной и не актуализированной информации.
  5. Как и какими единицами измеряют сообщения и информацию?
  6. Как зависит управление системой и информация в системе? В чем суть задачи управления системой? Приведите примеры.
  7. Изобразите и поясните на примере один виток цикла управления системой.
  8. Пояснить смысл информации по Шеннону, энтропии, их связь.

Еще по теме: