Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ОТВЕТЫ 51 - 80.docx
Скачиваний:
133
Добавлен:
30.03.2015
Размер:
2.18 Mб
Скачать

74.2 Сравнение программных возможностей современных операционных систем ( Windows, Unix).

Сравнение MicrosoftWindows и Linux (двух семейств операционных систем) — популярная тема обсуждения среди пользователей компьютеров. Windows — самая распространённая из операционных систем для настольных компьютеров, Linux — наиболее популярная операционная система из свободного программного обеспечения (хотя различные её варианты могут включать проприетарные компоненты[1]).

Обе операционные системы предназначены как для персональных систем, так и для web-серверов, вычислительных кластеров и т. п.

WindowsNT удалось завоевать первенство на настольных и персональных системах (около 90 % настольных компьютеров)[2] тогда как Linuxпопулярна на web-серверах, вычислительных кластерах и в суперкомпьютерах (50-90 %)[3][4].

Эти системы разнятся в лежащей в основе их философии, стоимости, простоте использования, удобстве и стабильности. При их сравнении приходится принимать во внимание корни, исторические факторы и способ распространения.

Трудности в сравнении

Windows и Linux трудно сравнивать на равных из-за следующих факторов:

  • Linux — это не определенная ОС, их более 600[5], среди них есть те, которые отличаются друг от друга значительно, а некоторые совсем немного[6], кроме того, на популярные дистрибутивы может существовать до 100 версий[7].

  • Словом Linux могут обозначаться разные понятия. В некоторых случаях это просто ядро операционной системы, в других случаях — полноценные операционные системы в дистрибутиве с графическим интерфейсом (см. Linux).

  • Оба порядка систем поставляются в различных конфигурациях. Особенно Linux, для которой существует огромное количество вариантов, некоторые из них предназначены для узкого круга задач.

  • Цена и широта технической поддержки различаются у разных поставщиков, а также в зависимости от версии и дистрибутива[8].

  • Производители оборудования могут устанавливать дополнительное ПО с операционной системой, которое делает доступные функции системы разнообразнее. Иногда они даже спонсируют продавца, снижая цену продукта для пользователя.

  • Данные, полученные от маркетинговых подразделений, и результаты тестирования могут расходиться.

  • Microsoft распространяет Windows под разными лицензиями (закрытыми). Дистрибутивы Linux, со своей стороны, могут содержать проприетарные компоненты[1].

По удобству использования и наличию особых режимов

Windows

Linux

Единообразие интерфейса

В основном последовательна. Несоответствия проявляются там, где новые программы переписывают под старую версию системы. Например, IE7 и WindowsMediaPlayer 11, изначально существовавшие для Vista, были переписаны под XP.[38] Microsoft помогает независимым разработчикам сохранять единый стиль, выпуская руководства по разработке интерфейса (последняя версия — WindowsVistaUserExperienceguidelines.[39])

Они сосредоточены вокруг единообразия и удобства использования, а в последних версиях — ещё и на защищенности данных пользователя. Программы сторонних разработчиков могут следовать этим руководствам, а могут разрабатывать свои собственные, или же не следовать никаким руководствам вообще.

Качество графического интерфейса сильно варьирует в зависимости от дистрибутива и графической оболочки. Две главные оболочки — GNOME и KDE выработали единообразный подход к интерфейсу, который, как правило, четко соблюдается.[40][41].

Таким образом достигается последовательность интерфейсов, но при этом сохраняется и гибкость, позволяющая настраивать интерфейс в соответствии с пожеланиями пользователя. Наиболее популярные дистрибутивы сочетают это с высокой защищенностью (Ubuntu, SuSE,Fedora, Mandriva). Между программами, написанными для KDE и GNOME могут быть различия, но они не слишком существенны. Другие графические оболочки обладают меньшей графической мощью и, как правило, специализируются на минималистском оформлении (WindowMaker, Fluxbox/Openbox/Blackbox). Некоторым из них удается совместить минимализм с удобством и красотой (Enlightenment/E17, Xfce). Некоторые оболочки рассчитаны на применение главным образом мыши (Fluxbox, Xfce), другие — только клавиатуры (Ratpoison).

Единообразие между различными версиями

Между различными версиями сохраняется высокая степень сходства в интерфейсе. Но в случае WindowsServer 2008 появились значительные отличия в интерфейсе, особенно оснасток(snap-in) администрирования. Кроме того, имеются различия в интерфейсах WindowsXP и Vista, несколько затрудняющие переход между ними.

В зависимости от дистрибутива, его версии, графической оболочки и программ, работа интерфейса может быть разной. Тем не менее, доступно множество настроек, и пользователь может переносить их из версии в версию.

Единообразие между программами

Все программы, выпущенные Microsoft в один и тот же период, следуют единым принципам построения интерфейса. Перенос новых программ под старые версии системы, впрочем, может нарушать единообразие (например, IE7 или WMP11).

Программы, следующие принципам KDE и GNOME за определённый период, наследуют единые принципы. Однако, множество независимых программ может им не соответствовать. Предпринимаются попытки создать графические библиотеки, строящие интерфейс по единым принципам GTK+, Qt и т. д.

Единообразие процедуры обновления программ и ОС

Во всех последних версиях windows используется процедура автоматического получения обновлений и «заплаток» для самой ОС, драйверов и программ, выпущенных Microsoft. Сторонние программы должны сами поддерживать процедуру обновления. Есть несколько программ для общего управления обновлениями.

Системы управления пакетами содержат в себе средства для автоматического обновления программ (самой ОС и установленных пользователем). В качестве источников обновлений обычно служат репозитории дистрибутивов и отдельных проектов.

Настройка

Исходный код может быть приобретён для строго ограниченных целей, а, кроме того, программы сторонних разработчиков могут изменять системные настройки. Другими словами, возможно случайное нарушение лицензионного соглашения.

Весь код системы доступен для модификации. Большая часть сторонних программ также предоставляет исходный код.

Особые возможности

Обе системы позволяют настроить особые режимы управления компьютером, такие как укрупненные шрифты, чтение надписей вслух, медленное нажатие на клавиши и др

74.3 Количественная мера информации. Энтропия дискретных и непрерывных сообщений.

Важнейшим шагом на пути постижения природы и механизмов антиэнтропийных процессов следует введение количественной меры информации. Первоначально эта мера предназначалась лишь для решения сугубо прикладных задач техники связи. Однако последующие исследования в области физики и биологии позво­лили выявить универсальные меры, предложенные К. Шен­ноном, позволяющие установить взаимосвязь между количеством информации и физической энтропией и в конечном счете определить сущность новой научной интерпретации понятия "ин­формация" как меры структурной упорядоченности самых разнообразных по своей природе систем.

Количество информации.

Идея, что информация допускает количественную оценку, выдвинута Хартли в 1928 г., теорию разработал Клод Элвуд Шеннон в 1948 г. Эти идеи возникли из необходимости каналов связи, для определения характеристик устройств, преобразующих сигналы, выбора способа кодирования. Если отвлечься от смыслового содержания информации и ее ценности для получателя, то всякое сообщение можно рассматривать как сведение об определенном событии xi, ti, указывающим, в каком состоянии находилась среда в момент t. Рассмотрим дискретные сообщения. Они представляют собой последовательности символов, взятых из некоторого набора - алфавита. Каждый символ - это буква такого алфавита. С помощью любого алфавита можно передать данные о состоянии, выбранном из сколь угодно большого числа возможных состояний , известных получателю сообщения. Для этого достаточно передать число-номер выбранного состояния. Числа можно записывать в разных системах счисления (десятичная, римская, в древней Греции и др. местах буквами и словами обозначали числа). Наиболее широко используются позиционные системы счисления, среди них - десятичная. Пример: В качестве основания можно взять любое натуральное число (>1). Наиболее экономной по числу цифр является двоичная система 0, 1 Основание системы счисленияЧисло в двоичной системе может быть передано последовательностью сигналов, состоящих из импульсов тока и пауз между ними. Различных двоичных последовательностей длины m имеется, поэтому с помощью последовательностей такой длины можно передать сообщения оразличных событиях. Для передачи сообщения об одном из N событий необходимо сообщение длиной. Целесообразно считать, что максимальное количество информации, содержащееся в сообщении пропорционально его длине. За единицу информации принимается количество информации в сообщении единичной длины, т.е. в одном двоичном разряде. Эта единица называется бит (binary digit)(Хартли 1928 г.). Эта мера обладает двумя важными свойствами: монотонно растет с ростом N; аддитивна. Пусть сообщение a выбирается из N возможных, а независимое от него сообщение b из N возможных, тогда в сложном сообщении, составленном из a и b (которое может быть выбрано из различных сложных сообщений), может содержится информация:т.е. равна сумме количеств информации в каждом из сообщений. Hmax указывает верхнюю границу количества информации, которая может содержаться в сообщении. Действительное количество информации зависит не только от количества возможных сообщений, но и от их вероятностей. Пример: 1). Сообщение о том, что у Ваших знакомых родился мальчик или родилась девочка. Равновероятные сообщения p1=p2=1/2. 2). Сообщение о том, родилась двойня или нет.во втором сообщении в среднем информации будет меньше, т.к. рождение двойни - редкое событие. В сообщении о событии, вероятность которого велика, информации мало. В пределе, в сообщении о достоверном событии содержится нулевая информация. Формализацией этих интуитивных соображений является предложенная Шенноном формула для количественной меры информации. Пусть имеется N различных сообщений (различных исходов некоторого опыта). Вероятность сообщенияк. Количество информации в этом случае:если все исходы равновероятны, тоЕсли p=1 для какого-то i, то для остальных j<>i   p=0, тогда H=0. В нашем примере(бит)

Количество информации по Хартли и Шеннону 

Понятие количество информации отождествляется с понятием информация. Эти два понятия являются синонимами. Впервые дать меру количества информации попытался в 1928г. Р.Хартли. Он исходил из того, что количественная мера информации должна согласовываться с интуитивным представлением о содержании информации в сообщении (сигнале).  Что, например, чем длиннее телеграмма, тем больше информации она обычно содержит. Следовательно, мера информации должна монотонно возрастать с увеличением длительности сообщения (сигнала), которую естественно измерять числом символов в дискретном сообщении и временем передачи в непрерывном случае. Кроме того, на содержание количества информации должны влиять и статистические характеристики, так как сигнал должен рассматриваться как случайный процесс.

При этом Хартли наложил ряд ограничений:

1.     Рассматриваются только дискретные сообщения.

2.     Множество различных сообщений конечно.

3.     Символы, составляющие сообщения равновероятны и независимы. 

В этом простейшем случае число N различных сообщений длиною в k символов из алфавита содержащего m символов, равно mk. Пусть, например, алфавит состоит из трех символов: a, b, c,  а k=2. Тогда количество различных сообщений будет составлять N=32=9. Это будут aa, ab, ac, ba, bb, bc, ca, cb, cc. Если k=3 то мы уже получим N=33=27 различных сообщений. То есть с увеличением длительности сообщений растет и количество информации. И в этом случае, казалось бы, в качестве меры информации можно было бы взять число N различных сообщений. Но Хартли указал, что экспоненциальная зависимость N от k не позволяет использовать величину N в качестве меры информации. Хартли впервые предложил в качестве меры количества информации принять логарифм числа возможных последовательностей символов.

                                                  I=log mk=log N                                               (1.9) 

К.Шеннон попытался снять те ограничения, которые наложил Хартли. На самом деле в рассмотренном выше случае равной вероятности и независимости символов при любом k все возможные сообщения оказываются также равновероятными, вероятность каждого из таких сообщений равна P=1/N. Тогда количество информации можно выразить через вероятности появления сообщений   I=logP. Далее Шеннон рассуждал следующим образом.

Пусть вероятность i го символа (i=1,2,…,m) равна pi. Символы образуют полную группу событий, то есть, Чтобы сообщения были равновероятными, необходим чтобы  относительные частоты появления отдельных символов во всех возможных сообщениях были равны. При ограниченной длине сообщений  это условие не выполняется. Но при достаточно длинных сообщениях условие равной вероятности возможных сообщений будет, приближенно выполнятся.

В силу статистической независимости символов, вероятность сообщения длиной в k символов равна  . Еслиiй символ повторяется в данном сообщении ki раз, то  , так как при повторенииi символа ki раз kуменьшается до m. Из теории вероятностей известно, что, при достаточно длинных сообщениях (большое число символов k)  kik·pi  и тогда вероятность сообщений будет равняться  .  Тогда окончательно получим(1.10)

Данное выражение называется формулой Шеннона для определения количества информации. Формула Хартли является частным случаем формулы Шеннона. В самом деле, при равновероятных символах,    то есть при pi=1/m формула Шеннона переходит в формулу Хартли:                                                                                                    

Формула Шеннона для количества информации на отдельный символ сообщения совпадает с энтропией. Тогда количество информации сообщения состоящего из k символов будет равняться   I=k·H.

Энтропия E(A), как мы ее определили, показывает неопределенность исхода опыта A. Возможна ситуация, когда в результате некоторого опытаB, который независим отAи предшествует ему, неопределенностьAуменьшится.

Например, имеется три груза разной массы, и опыт состоит в определении наиболее тяжелого. Очевидно, неопределенность опыта уменьшится, если мы предварительно проведем вспомогательный опыт – сравним массы двух грузов и найдем более тяжелый из них. Энтропию нового опыта, который нужно будет произвести после опыта B, обозначим EB(A). Очевидно,E(A)EB(A). Знак «=» реализуется в том случае, если знание исхода опытаBникак не сказывается на неопределенности опытаA. В остальных случаях знание исхода опытаBпонижаетнеопределенность опытаA. РазностьE(A) и EB(A), очевидно, показывает, какие новые данные относительноAмы получаем, произведя опытB. Эта величина называетсяинформацией относительно опыта A, содержащейся в опыте B.

(0.1)

Это выражение открывает возможность численного измерения количества информации, поскольку оценивать энтропию мы уже умеем.

Из него легко получить ряд следствий:

Следствие 1. Поскольку единицей измерения неопределенности являетсябит, то в этих же единицах может быть измереноколичество информации.

Следствие 2. Пусть опытB=A, т.е. мы произвели опытA. Очевидно, что при этом полностью снимается неопределенность исхода опытаA, т.е. EA(A)=0. ТогдаH=E(A), т.е. можно считать, что

энтропия опыта равна информации относительно события A, которая содержится в самом опыте.

Или еще одно уточнение:

энтропия опыта равна той информации, которую мы получаем в результате его осуществления.

Последнее утверждение, а также выражение (1.4 п.1.3.1) позволяют записать:

(0.2)

Эта формула позволяет определить среднее количество информации, содержащейся в каком-либо исходе опытаA. Рассмотрим ряд примеров применения этой формулы.

Пример 1. Какое количество информации требуется, чтобы узнать исход броска монеты?

Решение: В данном случаеn=2 и события равновероятны, т.е.p1=p2=0,5. Согласно ( 0 .2):

H= –0,5log20,5 – 0,5log20,5 = 1 бит

Пример 2. Некто задумал целое число в интервале от 0 до 3. Наш опыт состоит в угадывании этого числа. На наши вопросы Некто может отвечать лишь «Да» или «Нет». Какое количество информации мы должны получить (сколько задать вопросов), чтобы узнать задуманное число (полностью снять начальную неопределенность).

Решение. Исходами в данном случае являются:

A1= «задуман 0»,A2= «задумано 1»,A3= «задумано 2»,A4= «задумано 3»,

Конечно, предполагается, что вероятности «быть задуманными» у всех чисел одинаковы. n=4, следовательно,p(Ai)=1/4,log2p(Ai)= –2 иH= 2 бит. Таким образом, для полного снятия неопределенности опыта (угадывания задуманного числа) нам необходимо 2 бит информации, т.е. ответы на 2 вопроса с двумя возможными вариантами ответов (да – нет).

Количество информации равно числу вопросов с бинарными вариантами ответов, которые необходимо задать, чтобы полностью снять неопределенность задачи.

Какие вопросы необходимо задать, чтобы процесс угадывания был оптимальным, т.е. содержал минимальное их число? Здесь удобно воспользоваться так называемым выборочным каскадом:

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]