Некоторая система может находиться в четырех состояниях

Некоторая система может находиться в четырех состояниях

  1. Система имеет N равновероятных состояний. Количество информации в системе (о ее состоянии) равно 5 бит. Чему равна вероятность одного состояния? Если состояние системы неизвестно, то каково количество информации в системе? Если известно, что система находится в состоянии номер 8, то чему равно количество информации?
  2. Некоторая система может находиться в четырех состояниях с вероятностями: в первом (худшем) — 0,1, во втором и третьем (среднем) — 0,25, в четвертом (лучшем) — 0,4. Чему равно количество информации (неопределённость выбора) в системе?
  3. Пусть дана система с p=0,4, p1=0,5 — вероятности достижения цели управления, соответственно, до и после получения информации о состоянии системы. Оцените меру целесообразности управления этой системой (в битах).

Не нашли то, что искали? Воспользуйтесь поиском:

Лучшие изречения: Как то на паре, один преподаватель сказал, когда лекция заканчивалась — это был конец пары: "Что-то тут концом пахнет". 8742 — | 8279 — или читать все.

6. Лекция: Меры информации в системе

Рассматриваются различные способы введения меры измерения количества информации, их положительные и отрицательные стороны, связь с изменением информации в системе, примеры.

Цель лекции: введение в различные способы задания мер для измерения количества информации, их критический сравнительный анализ, основные связи информации и энтропии системы.

В предыдущей лекции было отмечено, что информация может пониматься и интерпретироваться в различных проблемах, предметных областях по-разному. Вследствие этого, имеются различные подходы к определению измерения информации и различные способы введения меры количества информации.

Количество информации — числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности (упорядоченности), определенности, выбору состояний отображаемой системы.

Если рассматривается некоторая система, которая может принимать одно из n возможных состояний, то актуальной задачей является задача оценки этого выбора, исхода. Такой оценкой может стать мера информации (события).

Мера, как было сказано выше, — непрерывная действительная неотрицательная функция, определенная на множестве событий и являющаяся аддитивной (мера суммы равна сумме мер).

Меры могут быть статические и динамические, в зависимости от того, какую информацию они позволяют оценивать: статическую (не актуализированную; на самом деле оцениваются сообщения без учета ресурсов и формы актуализации) или динамическую (актуализированную т.е. оцениваются также и затраты ресурсов для актуализации информации).

Ниже мы не всегда будем, в основном, для большей убедительности и большего содержательного понимания, проводить четкие математические границы между понятиями ";количество информации"; и ";мера количества информации";, но строгому читателю необходимо все время задавать достаточно важные вопросы: о количестве информации или о мере информации в конкретной последовательности событий идет речь? о детерминированной или стохастической информации идет речь? какова мера измерения количества информации и насколько она адекватна?

1. Мера Р. Хартли. Пусть имеется N состояний системы S или N опытов с различными, равновозможными, последовательными состояниями системы. Если каждое состояние системы закодировать, например, двоичными кодами определенной длины d, то эту длину необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N. Наименьшее число, при котором это возможно, называется мерой разнообразия множества состояний системы и задается формулой Р. Хартли: H=klog а N, где k — коэффициент пропорциональности (масштабирования, в зависимости от выбранной единицы измерения меры), а — основание системы меры.

Если измерение ведется в экспоненциальной системе, то k=1, H=lnN (нат); если измерение было произведено в двоичной системе, то k=1/ln2, H=log 2 N (бит); если измерение было произведено в десятичной системе, то k=1/ln10, H=lgN (дит).

Пример. Чтобы узнать положение точки в системе из двух клеток т.е. получить некоторую информацию, необходимо задать 1 вопрос (";Левая или правая клетка?";). Узнав положение точки, мы увеличиваем суммарную информацию о системе на 1 бит (I=log 2 2). Для системы из четырех клеток необходимо задать 2 аналогичных вопроса, а информация равна 2 битам (I=log 2 4). Если же система имеет n различных состояний, то максимальное количество информации будет определяться по формуле: I=log 2 n.

Справедливо утверждение Хартли: если в некотором множестве X= необходимо выделить произвольный элемент x i X, то для того, чтобы выделить (найти) его, необходимо получить не менее log a n (единиц) информации.

Если N — число возможных равновероятных исходов, то величина klnN представляет собой меру нашего незнания о системе.

По Хартли, для того, чтобы мера информации имела практическую ценность, она должна быть такова, чтобы отражать количество информации пропорционально числу выборов.

Пример. Имеются 192 монеты. Известно, что одна из них — фальшивая, например, более легкая по весу. Определим, сколько взвешиваний нужно произвести, чтобы выявить ее. Если положить на весы равное количество монет, то получим 3 независимые возможности: а) левая чашка ниже; б) правая чашка ниже; в) чашки уравновешены. Таким образом, каждое взвешивание дает количество информации I=log 2 3, следовательно, для определения фальшивой монеты нужно сделать не менее k взвешиваний, где наименьшее k удовлетворяет условию log 2 3 k log 2 192. Отсюда, k 5 или, k=4 (или k=5 — если считать за одно взвешивание и последнее, очевидное для определения монеты). Итак, необходимо сделать не менее 5 взвешиваний (достаточно 5).

Пример. ДНК человека можно представить себе как некоторое слово в четырехбуквенном алфавите, где каждой буквой помечается звено цепи ДНК или нуклеотид. Определим, сколько информации (в битах) содержит ДНК, если в нем содержится примерно 1,5×10 23 нуклеотидов (есть и другие оценки этого объема, но мы рассмотрим данный вариант). На один нуклеотид приходится log 2 (4)=2 (бит) информации. Следовательно, структура ДНК в организме человека позволяет хранить 3×10 23 бит информации. Это вся информация, сюда входит и избыточная. Реально используемой — структурированной в памяти человека информации, — гораздо меньше. В связи с этим, заметим, что человек за среднюю продолжительность жизни использует около 5-6% нейронов (нервных клеток мозга — ";ячеек ОЗУ человека";). Генетический код — чрезвычайно сложная и упорядоченная система записи информации. Информация, заложенная в генетическом коде (по учению Дарвина), накапливалась многие тысячелетия. Хромосомные структуры — своеобразный шифровальный код, при клеточном делении создаются копии шифра, каждая хромосома — удваивается, в каждой клетке имеется шифровальный код, при этом каждый человек получает, как правило, свой набор хромосом (код) от матери и от отца. Шифровальный код разворачивает процесс эволюции человека. Вся жизнь, как отмечал Э. Шредингер, ";упорядоченное и закономерное поведение материи, основанное . на существовании упорядоченности, которая поддерживается все время";.

Формула Хартли отвлечена от семантических и качественных, индивидуальных свойств рассматриваемой системы (качества информации в проявлениях системы с помощью рассматриваемых N состояний системы). Это основная и положительная сторона формулы. Но имеется основная и отрицательная ее сторона: формула не учитывает различимость и различность рассматриваемых N состояний системы.

Уменьшение (увеличение) Н может свидетельствовать об уменьшении (увеличении) разнообразия состояний N системы. Обратное, как это следует из формулы Хартли (так как основание логарифма больше 1!), — также верно.

2. Мера К. Шеннона. Формула Шеннона дает оценку информации независимо, отвлеченно от ее смысла:

где n — число состояний системы; р i — вероятность (или относительная частота) перехода системы в i-е состояние, причем сумма всех p i равна 1.

Если все состояния равновероятны (т.е. р i =1/n), то I=log 2 n.

К. Шенноном доказана теорема о единственности меры количества информации. Для случая равномерного закона распределения плотности вероятности мера Шеннона совпадает с мерой Хартли. Справедливость и достаточная универсальность формул Хартли и Шеннона подтверждается и данными нейропсихологии.

Пример. Время t реакции испытуемого на выбор предмета из имеющихся N предметов линейно зависит от log 2 N: t=200+180log 2 N (мс). По аналогичному закону изменяется и время передачи информации в живом организме. Один из опытов по определению психофизиологических реакций человека состоял в том, что перед испытуемым большое количество раз зажигалась одна из n лампочек, на которую он должен был указать в ходе эксперимента. Оказалось, что среднее время, необходимое для правильного ответа испытуемого, пропорционально не числу n лампочек, а именно величине I, определяемой по формуле Шеннона, где p i — вероятность зажечь лампочку номер i

Читайте также:  2000 Знаков это сколько страниц

Легко видеть, что в общем случае

Если выбор i-го варианта предопределен заранее (выбора, собственно говоря, нет, p i =1), то I=0.

Сообщение о наступлении события с меньшей вероятностью несет в себе больше информации, чем сообщение о наступлении события с большей вероятностью. Сообщение о наступлении достоверно наступающего события несет в себе нулевую информацию (и это вполне ясно: событие всё равно произойдет когда-либо).

Пример. Если положение точки в системе известно, в частности, она — в k-ой клетке, т.е. все р i =0, кроме р k =1, то тогда I=log 2 1=0 и мы здесь новой информации не получаем (как и следовало ожидать).

Пример. Выясним, сколько бит информации несет произвольное двузначное число со всеми значащими цифрами (отвлекаясь при этом от его конкретного числового значения, т.е. каждая из возможных цифр может появиться на данном месте, в данном разряде с одинаковой вероятностью). Так как таких чисел может быть всего 90 (10-99), то информации будет количество I=log 2 90 или приблизительно I=6,5. Так как в таких числах значащая первая цифра имеет 9 значений (1-9), а вторая — 10 значений (0-9), то I=log 2 90=log 2 9+log 2 10. Приблизительное значение log 2 10 равно 3,32. Итак, сообщение в одну десятичную единицу несет в себе в 3,32 больше информации, чем в одну двоичную единицу (чем log 2 2=1), а вторая цифра, например, в числе аа, несет в себе больше информации, чем первая (если цифры а обоих разрядов неизвестны; если же эти цифры а известны, то выбора нет и информация равна нулю).

Если в формуле Шеннона обозначить f i =-nlog 2 p i , то получим, что I можно понимать как среднеарифметическое величин f i .

Отсюда, f i можно интерпретировать как информационное содержание символа алфавита с индексом i и величиной p i вероятности появления этого символа в сообщении, передающем информацию.

Пример. Пусть рассматривается алфавит из двух символов русского языка — ";к"; и ";а";. Относительные частоты встречаемости этих букв в частотном словаре русского языка равны соответственно p 1 =0.028, p 2 =0.062. Возьмем произвольное слово p длины N из k букв ";к"; и m (k+m=N) букв ";а"; над этим алфавитом. Число всех таких возможных слов, как это следует из комбинаторики, равно n=N!/(k! m!). Оценим количество информации в таком слове: I=log 2 n=lnn/ln2=log 2 e[lnN!-lnk!-lnm!]. Используя известную формулу Стирлинга (эта формула, как известно из математического анализа, достаточно точна при больших N, например, при N>100) — N!≈(N/e) N ), а точнее, ее важное следствие, — lnN!≈N(lnN-1), получаем оценку количества информации (в битах) на 1 символ любого слова:

I 1 =I/N≈(log 2 e/N)[(k+m)(lnN -1) — k(ln k-1) — m(ln m-1)]=

=(log 2 e/N)[k ln(N/k) — m ln(N/m)]=

= — log 2 e[(k/N) ln(k/N) + (m/N) ln(m/N)]

-log 2 e [p 1 ln p 1 +p 2 ln p 2 ]=

=-log 2 e[0,028 ln0,028+0,062 ln0,062]≈ 0,235.

Пример. В сообщении 4 буквы ";a";, 2 буквы ";б";, 1 буква ";и";, 6 букв ";р";. Определим количество информации в одном таком (из всех возможных) сообщений. Число N различных сообщений длиной 13 букв будет равно величине: N=13!/(4!×2!×1!×6!)=180180. Количество информации I в одном сообщении будет равно величине: I=log 2 (N)=log 2 180180≈18 (бит).

Если k — коэффициент Больцмана, известный в физике как k=1.38×10 -16 эрг/град, то выражение

в термодинамике известно как энтропия, или мера хаоса, беспорядка в системе. Сравнивая выражения I и S, видим, что I можно понимать как информационную энтропию (энтропию из-за нехватки информации о/в системе).

Л. Больцман дал статистическое определение энтропии в 1877 г. и заметил, что энтропия характеризует недостающую информацию. Спустя 70 лет, К. Шеннон сформулировал постулаты теории информации, а затем было замечено, что формула Больцмана инвариантна информационной энтропии, и была выявлена их системная связь, системность этих фундаментальных понятий.

Важно отметить следующее.

Нулевой энтропии соответствует максимальная информация. Основное соотношение между энтропией и информацией:

I+S(log 2 e)/k=const

или в дифференциальной форме

dI/dt= -((log 2 e)/k)dS/dt.

При переходе от состояния S 1 с информацией I 1 к состоянию S 2 с информацией I 2 возможны случаи:

S 1 2 (I 1 >I 2 ) — уничтожение (уменьшение) старой информации в системе;

S 1 = S 2 (I 1 = I 2 ) — сохранение информации в системе;

S 1 > S 2 (I 1 2 ) — рождение новой (увеличение) информации в системе.

Главной положительной стороной формулы Шеннона является ее отвлеченность от семантических и качественных, индивидуальных свойств системы. В отличие от формулы Хартли, она учитывает различность, разновероятность состояний — формула имеет статистический характер (учитывает структуру сообщений), делающий эту формулу удобной для практических вычислений. Основной отрицательной стороной формулы Шеннона является то, что она не различает состояния (с одинаковой вероятностью достижения, например), не может оценивать состояния сложных и открытых систем и применима лишь для замкнутых систем, отвлекаясь от смысла информации. Теория Шеннона разработана как теория передачи данных по каналам связи, а мера Шеннона — мера количества данных и не отражает семантического смысла.

Увеличение (уменьшение) меры Шеннона свидетельствует об уменьшении (увеличении) энтропии (организованности) системы. При этом энтропия может являться мерой дезорганизации систем от полного хаоса (S=S max ) и полной информационной неопределенности (I=I min ) до полного порядка (S=S min ) и полной информационной определённости (I=I max ) в системе.

3. Термодинамическая мера. Информационно-термодинамический подход связывает величину энтропии системы с недостатком информации о внутренней структуре системы (не восполняемым принципиально, а не просто нерегистрируемым). При этом число состояний определяет, по существу, степень неполноты наших сведений о системе.

Пусть дана термодинамическая система (процесс) S, а Н 0 , Н 1 — термодинамические энтропии системы S в начальном (равновесном) и конечном состояниях термодинамического процесса, соответственно. Тогда термодинамическая мера информации (негэнтропия) определяется формулой:

Н(Н 0 ,Н 1 )=Н 0 — Н 1 .

Эта формула универсальна для любых термодинамических систем. Уменьшение Н(Н 0 ,Н 1 ) свидетельствует о приближении термодинамической системы S к состоянию статического равновесия (при данных доступных ей ресурсах), а увеличение — об удалении.

Поставим некоторый вопрос о состоянии термодинамической системы. Пусть до начала процесса можно дать p 1 равновероятных ответов на этот вопрос (ни один из которых не является предпочтительным другому), а после окончания процесса — p 2 ответов. Изменение информации при этом:

ΔI=k ln(p 1 / p 2 )=k (ln p 1 — ln p 2 ).

Если p 1 >p 2 (ΔI>0) — идет прирост информации, т.е. сведения о системе стали более определенными, а при p 1

2 (ΔI 1 =1 (lnp 1 =0). Число ответов было пропорционально величине [ln10]. После развития мы знаем уже микроэкономическое состояние, т.е. изменение информации о состоянии системы равно ΔI = -kln(20/10) = -kln2 (нат).

Пример. Предположим, что имеется термодинамическая система — газ в объеме V , который расширяется до объема 2V ( рис. 6.1 ).

Рис. 6.1. Газ объема V (a) расширяемый до 2V (б)

Нас интересует вопрос о координате молекулы m газа. В начале (а) мы знали ответ на вопрос и поэтому p 1 =1 (lnp 1 =0). Число ответов было пропорционально lnV. После поднятия заслонки мы уже знаем эту координату (микросостояния), т.е. изменение (убыль) информации о состоянии системы будет равно

ΔI = -k ln(2V /V) = -k ln 2 (нат).

Мы получили известное в термодинамике выражение для прироста энтропии в расчете на одну молекулу, и оно подтверждает второе начало термодинамики. Энтропия — мера недостатка информации о микросостоянии статической системы.

Читайте также:  Ступичный подшипник bring отзывы

Величина ΔI может быть интерпретирована как количество информации, необходимой для перехода от одного уровня организации системы к другому (при ΔI>0 — более высокому, а при ΔI B, например, можно принять отношение именования для именованного множества с носителем (множеством имен) А или В. Отношение именования должно отражать механизм взаимосвязей физико-информационных и вещественно-энергетических структур и процессов в системе.

Отметим, что сейчас актуальнее говорить о биоэнергоинформационных мерах, отражающих механизм взаимосвязей биофизико-информационных и вещественно-энергетических структур и процессов в системе.

Пример. Процесс деления клеток сопровождается излучением квантов энергии с частотами приблизительно до N=1.5×10 15 гц. Этот спектр можно воспринимать как спектр функционирования словарного запаса клетки как биоинформационной системы. С помощью этого спектра можно закодировать до 10 15 различных биохимических реакций, что примерно в 10 7 раз больше количества реакций реально протекающих в клетке (их количество — примерно 10 8 ), т.е. словарный запас клетки избыточен для эффективного распознавания, классификации, регулирования этих реакций в клетке. Количество информации на 1 квант энергии: I=log 2 10 15 ≈50 бит. При делении клеток количество энергии, расходуемой на передачу 50 бит информации равно энергии кванта (h — постоянная Планка, n — частота излучения):

E=hν=6,62×10 -27 (эрг/cек) × 0,5×10 15 (сек -1 ) =3,3×10 -12 (эрг).

При этом на 1 Вт мощности ";передатчика"; или на μ=10 7 эрг/сек. может быть передано количество квантов:

n=μ/E=10 7 (эрг/сек)/(3,3×10 -12 (эрг))≈3,3×10 18 (квант).

Общая скорость передачи информации на 1 Вт затрачиваемой клеткой мощности определяется по числу различных состояний клетки N и числу квантов (излучений) m:

V=n log 2 N=3,3×10 18 ×50≈1,6×10 20 (бит/сек).

Любая информация актуализируется в некоторой системе. Материальный носитель любой системы — сообщение, сигнал. Любая актуализация сопровождается изменением энергетических свойств (изменением состояния) системы. Наши знания (а, следовательно, и эволюция общества) простираются на столько, на сколько углубляется информация и совершенствуется возможность ее актуализации.

5. Другие меры информации. Многими авторами в последнее время рассматриваются различные количественные меры для измерения смысла информации, например, мера, базирующаяся на понятии цели (А. Харкевич и другие); мера, базирующаяся на понятии тезаурус Т= , где X, Y, Z — множества, соответственно, имен, смыслов и значений (прагматики) этих знаний (Ю. Шрейдер и другие); мера сложности восстановления двоичных слов (А. Колмогоров и другие); меры апостериорного знания (Н. Винер и другие); мера успешности принятия решения (Н. Моисеев и другие); меры информационного сходства и разнообразия и другие способы, подходы к рассмотрению мер информации.

Пример. В качестве меры (Колмогорова) восстановления двоичного слова y по заданному отображению f и заданным двоичным словам x из непустого множества X можно взять H(f,y)=min|x|, x X, f(x)=y. Здесь |x| — длина двоичного слова х.

Пример. Если априори известно, что некоторая переменная лежит в интервале (0;1), и апостериори, что она лежит в интервале (a;b) (0;1), тогда в качестве меры (Винера) количества информации, извлекаемой из апостериорного знания, можно взять отношение меры (a;b) к мере (0;1).

Пример. В биологических науках широко используются так называемые индексные меры, меры видового разнообразия. Индекс — мера состояния основных биологических, физико-химических и др. компонент системы, позволяющая оценить силу их воздействия на систему, состояние и эволюцию системы. Индексы должны быть уместными, общими, интерпретируемыми, чувствительными, минимально достаточными, качественными, широко применяемыми, рациональными. Например, показателем видового разнообразия в лесу может служить

ν = √p 1 + √p 2 +. +√p n

где p 1 , p 2 , . p n — частоты видов сообщества, обитающих в лесу, n — число видов.

Вопросы для самоконтроля

Что такое мера информации? Каковы общие требования к мерам информации?

В чем смысл количества информации по Хартли и Шеннону? Какова связь количества информации и энтропии, хаоса в системе?

Какова термодинамическая мера информации? Какова квантово-механическая мера информации? Что они отражают в системе?

Задачи и упражнения

Система имеет N равновероятных состояний. Количество информации в системе (о ее состоянии) равно 5 бит. Чему равна вероятность одного состояния? Если состояние системы неизвестно, то каково количество информации в системе? Если известно, что система находится в состоянии номер 8, то чему равно количество информации?

Некоторая система может находиться в четырех состояниях с вероятностями: в первом (худшем) — 0,1, во втором и третьем (среднем) — 0,25, в четвертом (лучшем) — 0,4. Чему равно количество информации (неопределённость выбора) в системе?

Пусть дана система с p 0 =0,4, p 1 =0,5 — вероятности достижения цели управления, соответственно, до и после получения информации о состоянии системы. Оцените меру целесообразности управления этой системой (в битах).

Темы для научных исследований и рефератов, интернет-листов

Энтропия и мера беспорядка в системе. Информация и мера порядка в системе.

Квантово-механический и термодинамический подходы к измерению информации.

Семантические и несемантические меры информации — новые подходы и аспекты.

Вопросы для самоконтроля

  1. Каковы основные системные ресурсы общества? Что характеризует каждый тип ресурсов по отношению к материи?
  2. Что такое системный анализ? Что входит в предметную область системного анализа?
  3. Каковы основные системные методы и процедуры?

Задачи и упражнения

  1. Написать эссе на тему: "История системного анализа ".
  2. Написать эссе на тему: "Личность, внесшая большой вклад в развитие системного анализа ".
  3. Рассмотрим систему действительных чисел, каждое из которых представляет собой очередное (до следующей цифры после запятой) приближение числа "пи": 3; 3,1; 3,14; : . Укажите материальный, энергетический, информационный, человеческий, организационный, пространственный и временной аспекты рассмотрения этой системы. Укажите противоречия между познанием этой системы и ее ресурсами.

Вопросы для самоконтроля

  • Что такое цель, структура, система, подсистема, задача, решение задачи, проблема?
  • Каковы основные признаки и топологии систем? Каковы их основные типы описаний?
  • Каковы этапы системного анализа? Каковы основные задачи этих этапов?

Задачи и упражнения

  1. Каковы подсистемы системы "ВУЗ"? Какие связи между ними существуют? Описать их внешнюю и внутреннюю среду, структуру. Классифицировать (с пояснениями) подсистемы. Описать вход, выход, цель, связи указанной системы и ее подсистем. Нарисовать топологию системы.
  2. Привести пример некоторой системы, указать ее связи с окружающей средой, входные и выходные параметры, возможные состояния системы, подсистемы. Пояснить на этом примере (т.е. на примере одной из задач ), возникающих в данной системе конкретный смысл понятий "решить задачу " и "решение задачи ". Поставить одну проблему для этой системы.
  3. Привести морфологическое, информационное и функциональное описания одной-двух систем. Являются ли эти системы плохо структурируемыми, плохо формализуемыми системами? Как можно улучшить их структурированность и формализуемость?

Вопросы для самоконтроля

  1. Каковы основные сходства и отличия функционирования и развития, развития и саморазвития системы?
  2. В чем состоит гибкость, открытость, закрытость системы?
  3. Какие системы называются эквивалентными? Что такое инвариант систем? Что такое изоморфизм систем?

Задачи и упражнения

  1. Составить спецификации систем (описать системы), находящихся в режиме развития и в режиме функционирования. Указать все атрибуты системы.
  2. Привести примеры систем, находящихся в отношении: а) рефлексивном, симметричном, транзитивном; б) несимметричном, рефлексивном, транзитивном; в) нетранзитивном, рефлексивном, симметричном; г) нерефлексивном, симметричном, транзитивном; д) эквивалентности.
  3. Найти и описать две системы, у которых есть инвариант. Изоморфны ли эти системы?

Вопросы для самоконтроля

Задачи и упражнения

  1. Привести пример одной-двух сложных систем, пояснить причины и тип сложности, взаимосвязь сложностей различного типа. Указать меры (приемы, процедуры) оценки сложности. Построить 3D-, 2D-, 1D-структуры сложных систем. Сделать рисунки, иллюстрирующие основные связи.
  2. Выбрав в качестве меры сложности некоторой экосистемы многообразие видов в ней, оценить сложность (многообразие) системы.
  3. Привести пример оценки сложности некоторого фрагмента литературного (музыкального, живописного) произведения.
Читайте также:  Как помахать в прямом эфире

Вопросы для самоконтроля

  1. Что такое информация? Как классифицируется информация? Чем отличается информация от сообщения?
  2. Каковы основные эмпирические методы получения информации?
  3. Каковы основные теоретические методы получения информации?

Задачи и упражнения

  1. Для задачи решения квадратного уравнения указать входную, выходную, внутрисистемную информацию, их взаимосвязи.
  2. Построить тактику изучения (исследования) эпидемии гриппа в городе только эмпирическими ( теоретическими, смешанными) методами?
  3. Эмпирическими ( теоретическими, эмпирико-теоретическими ) методами получить информацию о погоде (опишите в общих чертах подходы).

Вопросы для самоконтроля

  1. Что такое мера информации? Каковы общие требования к мерам информации?
  2. В чем смысл количества информации по Хартли и Шеннону? Какова связь количества информации и энтропии, хаоса в системе?
  3. Какова термодинамическая мера информации? Какова квантово-механическая мера информации? Что они отражают в системе?

Задачи и упражнения

Вопросы для самоконтроля

  1. Что такое управление системой и управление в системе? Поясните их отличия и сходства. Сформулируйте функции и задачи управления системой.
  2. В чем состоит принцип Эшби? Каковы типы устойчивости систем? Как связаны сложность и устойчивость системы? Какова взаимосвязь функции и задач управления системой?
  3. Что такое когнитология? Что такое когнитивная схема (решетка)? Для чего и как ее можно использовать?

Задачи и упражнения

  1. Привести примеры использования (актуализации) принципа необходимого разнообразия управляемой системы и объяснить, что он регулирует.
  2. Привести конкретную цель управления системой и управления для некоторой социально-экономической системы. Привести пример взаимосвязи функций и задач управления системой. Выделить параметры, с помощью которых можно управлять системой, изменять цели управления.
  3. Построить когнитивную схему (решетку) одной проблемы на выбор.

Вопросы для самоконтроля

  1. Что такое информационная система? Что такое информационная среда?
  2. Что такое информационная система управления? Каковы ее типы?
  3. В чем суть системного проектирования информационной системы? Каков его жизненный цикл?

Задачи и упражнения

  1. Написать эссе на тему "Инжиниринг и реинжиниринг информационных систем ".
  2. Привести пример системы, указать ее управляющую (информационную) подсистему, определить тип информационной системы управления.
  3. Построить (спроектировать) один несложный проект информационной системы (проходя весь жизненный цикл проектирования).

Вопросы для самоконтроля

  1. Что такое самоорганизация, самоорганизующаяся система?
  2. Является ли любая система самоорганизующейся? Какие системы всегда приводят к самоорганизации?
  3. Каковы основные аксиомы информационной синергетики? Каковы основные синергетические принципы И. Пригожина?

Задачи и упражнения

  1. Написать эссе на тему " Самоорганизация в живой природе".
  2. Написать эссе на тему " Самоорганизация в неживой природе".
  3. Привести пример самоорганизующейся системы и на её основе пояснить синергетические принципы И. Пригожина (предварительно ознакомившись с ними).

Вопросы для самоконтроля

  1. Что такое модель, для чего она нужна и как используется? Какая модель называется статической (динамической, дискретной и т.д.)?
  2. Каковы основные свойства моделей и насколько они важны?
  3. Что такое жизненный цикл моделирования (моделируемой системы)?

Задачи и упражнения

  1. В последнее время наиболее актуальной проблемой в экономике стало воздействие уровня налогообложения на хозяйственную деятельность. В ряду прочих принципов взимания налогов важное место занимает вопрос о той предельной норме, превышение которой влечет потери общества и государства, несоизмеримые с текущими доходами бюджета. Определение совокупной величины налоговых сборов таким образом, чтобы она, с одной стороны, максимально соответствовала государственным расходам, а с другой, оказывала минимум отрицательного воздействия на деловую активность, относится к числу главных задач управления государства. Опишите, какие, на ваш взгляд, параметры необходимо учесть в модели налогообложения хозяйственной деятельности, соответствующей указанной цели. Составьте простую (например, рекуррентного вида) модель сбора налогов, исходя из налоговых ставок, изменяемых в указанных диапазонах: налог на доход — 8-12 %, налог на добавленную стоимость — 3-5 %, налог на имущество юридических лиц — 7-10%. Совокупные налоговые отчисления не должны превышать 30-35% прибыли. Укажите в этой модели управляющие параметры. Определите одну стратегию управления с помощью этих параметров.
  2. Заданы числовой — xi, i=0, 1, . n и символьный — yi, i=0, 1, . m массивы X и Y. Составить модель стекового калькулятора, который позволяет осуществлять операции:
  1. циклический сдвиг вправо массива X или Y и запись заданного числа в x или символа операции — y (в "верхушку стека" X(Y) ) т.е. выполнение операции "вталкивание в стек";
  2. считывание "верхушки стека" и последующий циклический сдвиг влево массива X или Y — операция "выталкивания из стека";
  3. обмен местами x и x1 или y и y1 ;
  4. "раздваивание верхушки стека", т.е. получение копии x или y в x1 или y1 ;
  5. считывание "верхушки стека" Y (знака +, -, * или /), затем расшифровка этой операции, считыавние операндов операций с "верхушки" X, выполнение этой операции и помещение результата в "верхушку" X.
  • Известна классическая динамическая модель В.Вольтерра системы типа "хищник-жертва", являющейся моделью типа "ресурс-потребление". Рассмотрим клеточно-автоматную модель такой системы. Алгоритм поведения клеточного автомата, моделирующего систему типа "хищник-жертва", состоит из следующих этапов:
    1. задаются начальные распределения хищников и жертв, случайно или детерминированно;
    2. определяются законы "соседства" особей (правила взаимоотношений) клеток, например, "соседями" клетки с индексами (i,j) считаются клетки (i-1,j), (i,j+1), (i+1,j), (i,j-1) ;
    3. задаются законы рождаемости и смертности клеток, например, если у клетки меньше двух (больше трех) соседей, она отмирает "от одиночества" ("от перенаселения").
    4. Цель моделирования: определение эволюции следующего поколения хищников и жертв, т.е., используя заданные законы соседства и динамики дискретного развития (время изменяется дискретно), определяются число новых особей (клеток) и число умерших (погибших) особей; если достигнута заданная конфигурация клеток или развитие привело к исчезновению вида (цикличности), то моделирование заканчивается.

      Вопросы для самоконтроля

      1. Что такое математическая модель?
      2. Что такое линеаризация, идентификация, оценка адекватности и чувствительности модели?
      3. Что такое вычислительный или компьютерный эксперимент? В чем особенности компьютерного моделирования по сравнению с математическим моделированием?

      Задачи и упражнения

      По приведенным ниже моделям: выписать соответствующую дискретную модель (если приведена непрерывная модель) или непрерывную модель (если приведена дискретная модель); исследовать модель в соответствии с поставленной целью (получить решение, проверить его единственность, устойчивость, наличие стационарного решения); составить алгоритм моделирования; модифицировать модель или разработать на ее основе новую; сформулировать несколько реальных систем, описываемых моделью; линеаризовать и идентифицировать модель (предложить подходы); сформулировать несколько возможных сфер применения моделей и результатов, полученных при ее исследовании; определить тип, входное и выходное множество модели.

      1. Концентрация вещества, поступающего в реку со стоком, изменяется в результате действия рассеивания, адвекции, реакции. Концентрация хi вещества в реке зависит только от расстояния i, i=0,1. n по течению реки и определяется по формуле: ab(xi+1-2xi+xi+1)-c(xi-xi-1)-daxi=0, где а — площадь поперечного сечения реки, b — коэффициент рассеивания по течению реки, с — полный объемный расход реки, d — скорость разложения органического вещества. Эти величины a, b, c, d считаются пока постоянными. Общий поток вещества определяется: N=cxi-ab(xi+1-xi). Цель моделирования — прогноз загрязнения реки (для каждого i ).
      2. Пусть x(t) — величина ресурса (вещественного, энергетического или информационного), а(х) — скорость его возобновления, у(t) — величина потребителя (плотность), b=b(x,y) — скорость потребления ресурса потребителем, причем эксперименты показывают, что часто b=b(x). При этих условиях модель баланса ресурса имеет вид: x'(t)=a-by(t), x(0)=m, y'(t)=cby(t)-dy(t), y(0)=n, где с — к.п.д. переработки ресурса для нужд потребителя (например, в биомассу потребителя), d — коэффициент естественной убыли потребителя. Функция b=b(x), обладающая свойствами: а) b(x) — монотонна, т.е. растет или убывает, b'(x)>0 или b'(x) 1 23456Следующая ⇒

      Поперечные профили набережных и береговой полосы: На городских территориях берегоукрепление проектируют с учетом технических и экономических требований, но особое значение придают эстетическим.

      Ссылка на основную публикацию
      Не удалось вычислить задержку проверьте интернет соединение
      Задержка в Доте 2: что делать? Проблемы с интернетом в различных регионах всегда остаются актуальными. Речь идет даже не о...
      Наигач значение слова википедия
      вопрос опубликован 21.01.2017 04:17:02 Это же шифровка. Если бы было всё понятно, то это не была бы шифровка, а была...
      Не включается принтер epson l132
      Довольно часто владельцы печатающей оргтехники сталкиваются со следующей банальной проблемой — не включается принтер. Т.е. вы нажимаете на кнопку, отвечающую...
      Не удалось подключиться к серверам warface ps4
      Подключение к сети PlayStation Network необходимо для корректной работы игр на PS4 и системы в целом. Если PS4 не удается...
      Adblock detector