Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
8
Добавлен:
18.06.2017
Размер:
811.52 Кб
Скачать

Билет 2

  1. Определение кибернетики. Определение информатики. Основные понятия информатики и кибернетики.

  2. Модель. Классификация моделей. Этапы создания модели нормы. Вектор состояния в норме.

1. Киберне́тика — наука об общих закономерностях процессов управления и передачи информации в различных системах, будь то машины, живые организмы или общество.

  1. Информа́тика --наука о способах получения, накопления, хранения, преобразования, передачи, защиты и использования информации. Она включает дисциплины, относящиеся к обработке информации в вычислительных машинах и вычислительных сетях: как абстрактные, вроде анализа алгоритмов, так и довольно конкретные, например, разработка языков программирования.

Основная цель кибернетики как науки об управлении-- добиваться построения на основе изучения структур и механизмов управления таких систем, такой организации их работы, такого взаимодействия элементов внутри этих систем и такого взаимодействия с внешней средой, чтобы результаты функционирования этих систем были наилучшими, т. е. приводили бы наиболее быстро к заданной цели функционирования при минимальных затратах тех или иных ресурсов (сырья, человеческого труда, машинного времени, горючего и т. д.). Все это можно определить кратко термином «оптимизация». Таким образом, основной целью кибернетики является оптимизация систем управления.

К главным задачам кибернетики относятся:

а) установление фактов, общих для всех управляемых систем или, по крайней мере, для некоторых их совокупностей;

б) выявление ограничений, свойственных управляемым системам, и установление их происхождения;

в) нахождение общих законов, которым подчиняются управляемые системы;

г) определение путей практического использования установленных фактов и найденных закономерностей.

Предмет информатики составляют такие понятия, как:

    средства вычислительной техники;

    программное обеспечение средств вычислительной техники;

    средства и методы взаимодействия человека со средствами вычислительной техники и установленными на них программными средствами (программным обеспечением);

    информационные ресурсы;

    методы и средства взаимодействия человека с информационными ресурсами на базе средств вычислительной техники с использованием соответствующего программного обеспечения.

2. Модель- — это упрощенное представление реального устройства и/или протекающих в нем процессов, явлений. Мысленно представляемая и материально реализованная система, которая, отображая и воспроизводя объект исследования, способна замещать его так, что её изучение дает новую информацию об этом объекте.

Виды моделей

  • Математическая

  • Компьютерная

  • Информационная

  • Имитационная

  • Физическая

  • Химическая

  • Биологическая

  • Эволюционная

  • Логическая и др

ВЕКТОР СОСТОЯНИЯ- основное понятиеквантовой механики, матем. объект, задание к-рого в определ. момент времени полностью определяет состояние квантовомеханич. системы и, при известных взаимодействиях, её дальнейшую эволюцию.

Билет 3

  1. Определение информации. Формула для количественного определения информации. Единицы измерения информации.

  2. Частота и относительная частота случайного события. Вероятность случайного события, как предел для относительной частоты. Свойства вероятности.

1. Информация

— значимые сведения о чём-либо, когда форма их представления также является информацией, то есть имеет форматирующую функцию в соответствии с собственной природой.

В современной науке рассматриваются два вида информации:

Объективная(первичная) информация — свойство материальных объектов и явлений (процессов) порождать многообразие состояний, которые посредством взаимодействий (фундаментальные взаимодействия) передаются другим объектам и запечатлеваются в их структуре[1].

Субъективная(семантическая,смысловая, вторичная) информация – смысловое содержание объективной информации об объектах и процессах материального мира, сформированное сознанием человека с помощью смысловых образов (слов, образов и ощущений) и зафиксированное на каком-либоматериальном носителе.

В бытовом смыслеинформация— сведения об окружающем мире и протекающих в нём процессах, воспринимаемые человеком или специальным устройством

Количественное определение информации

В основу измерения количества информации положены вероятностные характеристики передаваемых сообщений, которые не связаны с конкретным содержанием сообщений, а отражают степень их неопределенности. Естественно, что чем меньше вероятность сообщения, тем больше информации оно несет. Количество информациив отдельно взятом единичном сообщении определяется величиной, обратной вероятности появления сообщенияи вычисляется в логарифмических единицах [2]:

.

(4.1)

Логарифмическая мера, впервые предложенная в 1928 г. английским ученым Р. Хартли, обладает свойством аддитивности, что соответствует нашим интуитивным представлениям об информации. Кроме того, при количество информации, вычисленное по (4.1), равно нулю, что соответствует принятому определению информации.

Если источник выдает зависимые сообщения , то они характеризуются условными вероятностями. И в этом случае количество информации вычисляется по формуле (4.1) с подстановкой в нее условных вероятностей сообщений.

Единицы измерения информациислужат для измерения объёмаинформации— величины, исчисляемой логарифмически.[1]Это означает, что когда несколько объектов рассматриваются как один, количество возможных состоянийперемножается, а количество информации —складывается. Не важно, идёт речь ослучайных величинахв математике,регистрахцифровой памяти в технике или вквантовых системахв физике.

Единицы, производные от бита

Целые количества бит отвечают количеству состояний, равному степеням двойки.

Особое название имеет 4 бита — ниббл(полубайт,тетрада, четыре двоичных разряда), которые вмещают в себя количество информации, содержащейся в однойшестнадцатеричнойцифре.

Байт.Следующей по порядку популярной единицей информации является 8 бит, или байт(о терминологических тонкостяхнаписано ниже). Именно к байту (а не к биту) непосредственно приводятся все большие объёмы информации, исчисляемые в компьютерных технологиях.

Такие величины как машинное словои т. п., составляющие несколько байт, в качествеединиц измеренияпочти никогда не используются.

Килобайт. Для измерения больших количеств байтов служат единицы «килобайт» =1024байт.

Мегабайт. Единицы «мегабайт» = 1024.

Гигабайт

Единицы «гигабайт» = 1024 мегабайт

2. Чaстота́физическая величина, характеристикапериодического процесса, равная числу полных циклов процесса, совершённых за единицу времени. Стандартные обозначения в формулах —,,или. Единицей частоты вМеждународной системе единиц (СИ)в общем случае являетсягерц(Гц,Hz). Величина, обратная частоте, называетсяпериодом. Частота, как ивремя, является одной из наиболее точно измеряемых физических величин: до относительной точности 10−17

относительная частота случайного события.Возможность наступления случайного события А можно оценить, проведя серию из “n” независимых испытаний. Пусть число наступлений события составило “m”.

Относительной частотой события А в “n” независимых испытаний называют отношение числа “m” (наступлений А) к числу “n” (общее число испытаний):

.

Относительная частота – послеопытная характеристика возможности события А .

Случайными событияминазываются такие события, которые могут произойти или не произойти при осуществлении совокупности условий, связанных с возможностью появления данных событий.       Случайные события обозначают буквами A, B, C,... . Каждое осуществление рассматриваемой совокупности называетсяиспытанием. Число испытаний может неограниченно возрастать. Отношения числа m наступлений данного случайного события A в данной серии испытаний к общему числу n испытаний этой серии называетсячастотойпоявления события A в данной серии испытаний (или просто частотой события А) и обозначается Р*(А). Таким образом, P*(A)=m/n.       Частота случайного события всегда заключена между нулем и единицей: 0 ≤ P*(A) ≤ 1.       Массовые случайные события обладают свойством устойчивости частоты: наблюдаемые в различных сериях однородных испытаний (с достаточно большим числом испытаний в каждой серии) значения частоты данного случайного события колеблются от серии к серии в довольно тесных пределах.       Именно это обстоятельство позволяет при изучении случайных событий применять математические методы, приписывая каждому массовому случайному событию еговероятность, за которую принимается то (вообще говоря заранее неизвестное) число, около которого колеблется наблюдаемая частота события.       Вероятность случайного события А обозначается через Р(А). Вероятность случайного события, как и его частота, заключена между нулем и единицей: 0 ≤ P(A) ≤ 1.Достоверномусобытию (т.е. событию, которое должно произойти при каждом испытании) приписывают вероятность Р(А)=1.Невозможномусобытию (т.е. событие, которое не может произойти ни при одном испытании) приписывают вероятность Р(А)=0.

Свойства вероятностиСвойства вероятностей

Нормировка вероятности:

0 ≤ p (A) ≤ 1 для любого события A

Вероятность противоположного события:

Для независимых событий A и B:

p (A и B) = p (A) p (B)

p (A или B) = p (A) + p (B)

Условная вероятность:

p (AB) = p (B) · p (A | B)

Формула полной вероятности:

p (B) = p (B | A1) p (A1) + p (B | A2) p (A2) + p (B | A3) p (A3) +… + p (B | Ak) p (Ak)

Дискретные распределения

Математическое ожидание случайной величины, которая может принимать значения x1, x2, ..., xkс вероятностями p1, p2, ..., pk:

Дисперсия такой величины:

Среднеквадратичное отклонение:

Геометрическое распределение:

Биномиальное распределение:

M = N p

D = N p (1 – p)

Распределение Пуассона:

M = λ

D = λ

Непрерывные распределения

Плотность вероятности:

p (dx) = φ (x) dx

Вероятность попадания случайной величины в промежуток [x1; x2]:

Нормировка плотности вероятности:

Математическое ожидание:

Дисперсия:

Постоянное распределение:

Показательное распределение:

Нормальное распределение:

Mx= a

Dx= σ2

Логарифмически-нормальное распределение:

Билет 4

  1. Локальные сети с выделенным сервером и без выделенного сервера. Клиент-сервер технологии.

  2. Тяжесть состояния по отдельному параметру. Общая тяжесть состояния.

1. Лока́льная вычисли́тельная сетькомпьютерная сеть, покрывающая обычно относительно небольшую территорию или небольшую группу зданий (дом, офис, фирму, институт). Также существуют локальные сети, узлы которых разнесены географически на расстояния более 12 500 км (космические станции и орбитальные центры). Несмотря на такие расстояния, подобные сети всё равно относят к локальным.

Выделенный сервер— видхостинга, при котором клиенту целиком предоставляется отдельная физическая машина (в противоположностьвиртуальному хостингу). Обычно используется для запуска приложений, которые не могут сосуществовать на одном сервере с другими проектами или имеют повышенные требования к ресурсам.

Технология "клиент-сервер" описывает взаимодействие между двумя компьютерами, согласно которому клиент запрашивает у сервера некоторые услуги, а сервер обслуживает запрос.

Технология клиент-сервер широко используется, например, в банковской системе. Для того чтобы проверить счет пользователя в банке, его компьютер направляет запрос серверной программе, выполняющейся на банковской машине. Требуемая информация возвращается клиентской программе, которая отображает данные, предназначенные для пользователя.

В случае с WWW клиентами выступают хорошо вам знакомые программы Web-браузеры (например, Microsoft Internet Explorer). Серверами же являются так называемые Web-серверы, обрабатывающие запросы Web-браузеров и высылающие им требуемые Web-страницы.

2. Оценка тяжести состояния организма по функциональным параметрам

Отклонение описывающих состояние организма функциональных параметров от нормы позволяет определить степени нарушения функционирования

организма. Это дает возможность анализировать течение болезни в процесселечения, сравнивать эффективность способов лечения и таким образом оптимизировать процесс лечения.

Тяжесть состояния по отдельному функциональному параметру рассчитывается по формуле(фото в телефоне)

Общая тяжесть состояния-…

Билет 5

  1. Открытый и закрытый исходный код. Примеры ОС с открытым (ОПС) и закрытым исходным кодом. Перечень и характеристики достоинств и недостатков

  2. Нейросети. Задачи, решаемые нейросетями. Строение нейросетей (слои). Обучение. Нейроны и синапсы. Виды нейросетей.

  1. Закрытый исходный код — антоним открытого кода и относится к любой программе, лицензия которой не подходит под определение открытого ПО. Как правило, это означает, что распространяются только бинарные (откомпилированные) версии программы, и лицензия подразумевает отсутствие доступа к исходному коду программы; создание модификаций программы технически невозможно для практических целей. Доступ к исходному коду третьим лицам обычно предоставляется при подписании соглашения о неразглашении. Открытое программное обеспечение, то есть программное обеспечение с открытым исходным кодом (англ. open source software) — способ разработки ПО, при котором исходный код создаваемых программ открыт, то есть общедоступен для просмотра и изменения. Это позволяет всем желающим использовать уже созданный код для своих нужд и, возможно, помочь в разработке открытой программы. Windows с закрытым, Unix, Linux - с открытым

  2. Иску́сственные нейро́нные се́ти(ИНС) —математические модели, а также их программные или аппаратные реализации, построенные по принципу организации и функционированиябиологических нейронных сетей— сетейнервных клетокживого организма.

Билет 6

  1. Нормальный закон распределения. Распределения Бернулли, Пуассона. Математическая ожидание, дисперсия. Примеры.

2.Общая постановка задачи проверки гипотез. Проверка гипотез относительно средних. Интервальный метод

1.Нормальное распределение, также называемоегауссовым распределениемилираспределением Гауссараспределение вероятностей, которое задается функцией плотности распределения:

где параметр μ— среднее значение (математическое ожидание) случайной величины и указывает координату максимума кривойплотности распределения, аσ² —дисперсия.

Нормальное распределение играет важнейшую роль во многих областях знаний, особенно в статистической физике. Физическая величина, подверженная влиянию значительного числа независимых факторов, способных вносить с равной погрешностью положительные и отрицательные отклонения, вне зависимости от природы этих случайных факторов, часто подчиняется нормальному распределению, поэтому из всех распределений в природе чаще всего встречается нормальное (отсюда и произошло одно из названий этого распределения вероятностей).

Нормальное распределение зависит от двух параметров — смещенияимасштаба, то есть является с математической точки зрения не одним распределением, а целым их семейством. Значения параметров соответствуют значениям среднего (математического ожидания) и разброса (стандартного отклонения).

Стандартным нормальным распределениемназывается нормальное распределение с математическим ожиданием 0 и стандартным отклонением 1.

Распределе́ние Берну́ллимоделируетслучайный экспериментпроизвольной природы, когда заранее известнавероятностьуспеха или неудачи.Случайная величинаимеетраспределениеБернулли, если она принимает всего два значения:ис вероятностямиисоответственно. Таким образом:

,

.

Принято говорить, что событие соответствует «успеху», а«неудаче». Эти названия условные, и в зависимости от конкретной задачи могут быть заменены на противоположные.

Распределение Пуассонамоделируетслучайную величину, представляющую собой числособытий, произошедших за фиксированное время, при условии, что данные события происходят с некоторой фиксированной средней интенсивностью инезависимодруг от друга.

Распределение Пуассона играет ключевую роль в теории массового обслуживания.

Выберем фиксированное число и определимдискретное распределение, задаваемое следующейфункцией вероятности:

,

где

  • обозначаетфакториал,

  • основание натурального логарифма.

Тот факт, что случайная величина имеет распределение Пуассона с параметром, записывается:.

Математи́ческое ожида́ниесреднее значениеслучайной величины, распределение вероятностей случайной величины, рассматривается втеории вероятностей.

Диспе́рсия случа́йной величины́— мера разброса даннойслучайной величины, то есть её отклонения отматематического ожидания.

2. Общие понятия статистической проверки гипотез

Статистическая гипотеза обычно представляет собой некоторое предположение об одном или нескольких параметрах функции распределения случайной величины.

Пример статистической гипотезы: «генеральная совокупность распределена по нормальному закону», «различие между дисперсиями двух выборок незначимо» и т.д.

В теории статистического вывода обычно проверяются гипотезы на основе выборочной информации. В практике статистической работы чаще всего имеют дело с двумя конкурирующими гипотезами: нулевой гипотезой, обозначаемой H0; и альтернативной гипотезой, обозначаемой H1. Нулевая гипотеза используется при статистической проверке гипотез об отсутствии существующих различий между несколькими выборочными совокупностями, для суждения о близости фактического распределения к теоретическому (нормальному), об отсутствии зависимости между признаками. Суть нулевой гипотезы состоит в признании того, что выборки взяты из одной совокупности, фактическое распределение укладывается в теоретическое, зависимость между признаками отсутствует и т. д. Следовательно, нулевая гипотеза - это гипотеза, подлежащая проверке. И если отвергается нулевая гипотеза как неподходящая в каком-то статистическом смысле, то принимается альтернативная гипотеза.

Так как мы имеем дело с неизвестной генеральной совокупностью и выносим суждения о ней на основе выборочной информации, то мы можем и не прийти к правильному выводу. Мы сделаем неправильный вывод, если отвергнем нулевую гипотезу, когда она справедлива (ошибка I рода), или примем нулевую гипотезу, когда она ошибочна (ошибка II рода).

В большинстве случаев при проведении проверки гипотез в экономике задается некоторый допустимый уровень вероятности совершения ошибки I рода () и осуществляется проверка на основе выборочной информации. В классическом статистическом выводе существует два общих правила для определения величины :

чем больше степень уверенности в нулевой гипотезе, тем меньше должно быть значение .

чем больше цена отбрасывания справедливой нулевой гипотезы, тем меньше значение должно иметь .

Сформулируем общий алгоритм проверки статистических гипотез. Процедуру проверки можно описать следующими шагами:

1) формулировка гипотезы. Гипотеза формулируется в терминах различия величин. Например, есть случайная величина х и константа a. Они не равны (арифметически), но нужно установить, значимо ли статистически между ними различие. Существует два типа критериев:

а) двухсторонний критерий вида: х a;

б) односторонний критерий вида: х< a или х< a.

Необходимо отметить, что знаки >, <, = здесь используются не в арифметическом, а в «статистическом» смысле. Их необходимо читать «значимо больше», «значимо меньше», «различие незначимо».

2) Установка закона распределения. Далее необходимо установить или постулировать закон распределения. Существуют также критерии, которые не зависят от вида распределения - так называемые непараметрические критерии.

3) Вычисление тестовой статистики. Тестовая статистика - некоторая функция от рассматриваемых величин, закон распределения которой точно известен и ее можно сравнить с табличным значением.

4) Сравнение с табличным значением. Затем тестовая статистика сравнивается с табличным значением. Тестовая статистика всегда зависит от доверительной вероятности, и, в некоторых случаях, от дополнительных параметров. Так, в приведенном выше примере сравнения двух дисперсий тестовая статистика сравнивается с табличным значением критерия Фишера («критическим» значением), которое зависит от доверительной вероятности и числа степеней свободы дисперсий.

5) Вывод. На основании сравнения делается вывод о том, выполняется ли гипотеза (например, значимо ли различие и т.д.).

Билет 7

  1. Адреса в сетях Интернет. Протоколы v4. Доменная организация адресного пространства. Понятие о поддоменах и сверхдоменах.

  2. Стационарные и нестационарные временные ряды. Сглаживание нестационарных рядов. Тренд. Прогнозирование временных рядов.

Internet Protocol(IP) — межсетевойпротокол. Относится кмаршрутизируемымпротоколамсетевого уровнясемействаTCP/IP. Именно IP стал тем протоколом, который объединил отдельныеподсетиво всемирную сетьИнтернет. Неотъемлемой частью протокола являетсяадресациясети.

Адресное пространствосети Internet разделено на отдельные зоны - домены, образующие иерархическую систему. Каждый домен имеет собственное уникальное имя, доступное любому пользователю Сети независимо от его нахождения, например, www.mifp.ru. Составные части доменного имени, разделенные точками, соответствуют уровням доменов, где расположен сетевой адрес, начиная с верхнего (справа) и заканчивая нижним (слева). Первоначально было создано 250 доменов первого уровня, разделенных на две категории: 7 общих (generic top level domain- - gTLD) - com, .org, .net, .edu, .gov, .mil, .int. 243 национальных (country code top level domain- - ccTLD) - в качестве имен ccTLD- пользуется двухбуквенные коды стран, закрепленные в стандарте ISO 3136 Международной организации по стандартизации, например, .аи (Австралия), .fr (Франция), .za (Южная Африка), .ru (Россия). Домены .com, .org, .net, а также значительное число национальных доменов имеют статус открытых, то есть любой человек или организация может зарегистрироваться в них без ограничений. Тогда как регистрация в иных доменах возможна, если удовлетворяются те или иные условия, например, зона .edu предназначена только дляиспользованиявысшими учебными заведениями, .int - международными организациями, .gov и .mil - соответственно федеральными правительственными учреждениями и вооруженными силами США.

Поддомендомен, являющийся частью домена более высокого уровня.

Описание

Система DNSобладает древовидной иерархической системой, в которой каждая ветвь дерева является доменным именем. Поддомен — домен, являющийся частью домена более высокого уровня. Единственные домены, не являющиеся также поддоменами —корневые домены. Например, «mail.example.com» и «calendar.example.com» являются поддоменами «example.com», который в свою очередь является поддоменом домена верхнего уровня.com.

Понятие «поддомен» выражает относительную, а не абсолютную зависимость: например, «wikipedia.org» является поддоменом .org, а «en.wikipedia.org» — поддоменом «wikipedia.org». Максимальное количество уровней поддоменов — 127, и каждый из них может содержать 63 символа, пока общая длина доменного имени не достигнет длины в 255 символов. Некоторыерегистраторы доменных имёнустанавливают более жёсткие требования.

Использование

Поддомены обычно используются организациями для создания уникальных имён сайтов для своих подразделений или сервисов, связанных с организацией. Например, доменное имя «cs.example.edu» может использовать в университете для отдела вычислительной техники, и иметь несколько собственных поддоменов, таких как «mail.cs.example.edu» или «www.cs.example.edu».

Также поддомены могут использоваться для распределения клиентов по кластерам вычислительной техники, обеспечивающей функционирование сайта. Некоторые вебсайты используют разные поддомены для разных серверов. Например, «www.example.com» может направлять на первый кластер серверов в первом датацентре, «www2.example.com» — на второй кластер серверов во втором датацентре и так далее.

2. Временные ряды.

Под временным рядом понимается упорядоченная последовательность наблюдений значений некоторой переменной, сделанных через равные промежутки времени [1]. Наблюдения за курсом доллара в бизнесе и экономике, объем урожая в сельском хозяйстве, электрические сигналы в технических областях, температура воздуха в метеорологии – все это примеры временных рядов [2]. } ,...,1, {Nt y t

Типичные временные ряды в экономике и в других областях могут складываться из [1]:

– тренда или систематической составляющей;

– сезонной составляющей;

– случайной составляющей (шума).

Временные ряды могут быть стационарными и нестационарными [2]. Временной ряд называется стационарным, если его вероятностные характеристики (математическое ожидание, дисперсия) постоянны. Временной ряд называетсянестационарным, если хотя бы одна из вероятностных характеристик непостоянна. Многие часто встречающиеся на практике временные ряды являются нестационарными.

Сглаживание временных рядов

Сглаживание временного ряда используется для удаления из него высокочастотных компонент (которые обычно являются несущественными, так как вызваны случайными факторами). Один из простейших методов сглаживания - метод скользящих или подвижных средних (MA в англоязычной нотации), он является одним из наиболее старых и широко известных. Этот метод основан на переходе от начальных значений временного ряда к их средним значениям на некотором заданном интервале времени (длина которого называется шириной окна). Этот интервал времени как бы скользит вдоль ряда, с чем и связано название метода. В каждый момент этого скольжения мы видим только часть ряда, чем и вызвана “оконная” терминология. Полученный в результате такого сглаживания новый временной ряд обычно ведет себя более регулярно (гладко), что связано с удалением в процессе сглаживания резких случайных отклонений, попадающих в окно. Сглаживание полезно применять даже в самом начале исследования временного ряда, так как при этом часто удается прояснить вопрос о наличии и характере тренда, а также выявить сезонные колебания.

Тренд в сети интернет— увеличение количества поисковых запросов, сообщений, тем, статей по определенной тематике.

Билет 8

  1. Основные принципы, на которых организован Интернет. TCP/IP протокол.

  2. Понятие о диагностическом знаке (симптоме). Порог нормальных значений знака (симптома). Чувствительность, специфичность, Положительная и отрицательная предсказательная сила.

1. Основной

принцип состоял в том, что любой компьютер мог связаться как равный с равным

с любым другим компьютером.

Передача данных в сети была организована на основе протокола Internet – IP.

Протокол IP – это правила и описание работы сети. Этот свод включает правила

налаживания и поддержания связи в сети, правила обращения с IP-пакетами и их

обработки, описания сетевых пакетов семейства IP (их структура и т.п.). Сеть

задумывалась и проектировалась так, чтобы от пользователей не требовалось

никакой информации о конкретной структуре сети. Для того, чтобы послать

сообщение по сети, компьютер должен поместить данные в некий "конверт'',

называемый, например, IP, указать на этом "конверте'' конкретный адрес в сети

и передать получившиеся в результате этих процедур пакеты в сеть.

еть TCP/IP

Протокол TCP/IP (Transmission Control Protocol/Internet Proto-

col) является базовым транспортным сетевым протоколом в

UNIX'е. В заголовке TCP/IP пакета указывается:

IP-адрес отправителя

IP-адрес получателя

Номер порта (Фактически - номер прикладной программы,

которой этот пакет предназначен)

TCP/IP-ишные пакеты имеют интересную особенность: они способны

"добраться" до адресата, пройдя сквозь разнородные локальные

сети, используя разнообразные физические носители. "Маршрутиза-

цию" IP-пакета (переброску его в требуемую сеть) осуществляют

"на добровольных началах" компьютеры, входящие в TCP/IP сеть.

Всемирная сеть Internet.

Все компютеры мира, поддерживающие протокол TCP/IP и каким-либо

образом подключенные друг к другу, образуют глобальную

всемирную сеть TCP/IP "Internet". Темпы роста "Internet":

100000 IP-адресов в месяц. В настоящий момент (конец 1994 года)

к Internet'у подключено около:

20,000 сетей

4,000,000 компьютеров

35,000,000 пользователей

. IP-адрес.

Каждая машина в мире имеет свой уникальный IP-адрес.

IP-адрес - 32-битное число, которое принято записывать в сме-

шанном 16-рично-десятичном формате, в виде 4 чисел, разделенных

точками.

Билет 9

  1. Условная вероятность. Формула Байеса.

  2. Ресурсы Интернет (эл. почта, телеконференции, веб-серверы). Интранет (корпоративные сети). Поисковые системы. Перспективы развития Интернет.

Условная вероятность.фото в телефоне.

Теорема 9(формула Байеса(1)). Пустьполная группа событий, и— некоторое событие, вероятность которого положительна. Тогда условная вероятность того, что имело место событие, если в результате эксперимента наблюдалось событие, может быть вычислена по формуле:

2. Электро́нная по́чта

— технология и предоставляемые ею услуги по пересылке и получению электронных сообщений (называемых «письма» или «электронные письма») по распределённой (в том числе глобальной) компьютерной сети.

Электронная почта по составу элементов и принципу работы практически повторяет систему обычной (бумажной) почты, заимствуя как термины (почта, письмо, конверт, вложение, ящик, доставка и другие), так и характерные особенности — простоту использования, задержки передачи сообщений, достаточную надёжность и в то же время отсутствие гарантии доставки.

Телеконференция— совещание, участники которого территориально удалены друг от друга и которое осуществляется с использованием телекоммуникационных средств. Телеконференции подразделяются нааудиоконференции(с использованием средств передачи голоса) ивидеоконференции(с использованием средств видеосвязи). Чаще всего телеконференции используются органами правительства.

Веб-сервер— этосервер, принимающийHTTP-запросы от клиентов, обычновеб-браузеров, и выдающий имHTTP-ответы, обычно вместе сHTML-страницей, изображением,файлом, медиа-потоком или другими данными. Веб-серверы — основаВсемирной паутины.

Веб-сервером называют как программное обеспечение, выполняющее функции веб-сервера, так и непосредственнокомпьютер(см.:Сервер (аппаратное обеспечение)), на котором это программное обеспечение работает.

Клиент, которым обычно являетсявеб-браузер, передаёт веб-серверу запросы на получение ресурсов, обозначенныхURL-адресами. Ресурсы — этоHTML-страницы, изображения, файлы, медиа-потоки или другие данные, которые необходимы клиенту. В ответ веб-сервер передаёт клиенту запрошенные данные. Этот обмен происходит по протоколуHTTP.

Корпоративная сеть— коммуникационная система, принадлежащая и/или управляемая единой организацией в соответствии с правилами этой организации. Корпоративная сеть отличается от сети, например, интернетпровайдератем, что правила распределенияIP адресов, работы с интернет ресурсами и т. д. едины для всей корпоративной сети, в то время как провайдер контролирует только магистральный сегмент сети, позволяя своим клиентам самостоятельно управлять их сегментами сети, которые могут являться как частью адресного пространства провайдера, так и быть скрыты механизмомсетевой трансляции адресовза одним или несколькими адресами провайдера.

Поиско́вая систе́ма— программно-аппаратный комплекс свеб-интерфейсом, предоставляющий возможность поискаинформациивИнтернете. Под поисковой системой обычно подразумеваетсясайт, на котором размещён интерфейс (фронт-энд) системы. Программной частью поисковой системы являетсяпоисковая машина(поисковый движок) —комплекс программ, обеспечивающий функциональность поисковой системы и обычно являющийся коммерческой тайной компании-разработчика поисковой системы.

Большинство поисковых систем ищут информацию на сайтах Всемирной паутины, но существуют также системы, способные искатьфайлынаFTP-серверах, товары винтернет-магазинах, а также информацию в группах новостейUsenet.

Улучшение поиска — это одна из приоритетных задач современного Интернета

Билет 10

  1. Случайное событие. Испытание. Единственно возможные и равновозможные события. Ожидаемое событие.

  2. Интегрирование в состав МИС интеллектуальных модулей СППР. Примеры в том числе цифровые данные об улучшении результатов лечения при использовании МИС.

1. Случа́йное собы́тиеподмножествомножества исходовслучайного эксперимента; при многократном повторении случайного экспериментачастота наступления событияслужит оценкой еговероятности.

Случайное событие, которое никогда не реализуется в результате случайного эксперимента, называется невозможными обозначается символом. Случайное событие, которое всегда реализуется в результате случайного эксперимента, называетсядостоверными обозначается символом.

 События называют (практически) единственно возможными, если появление в результате испытания одного и только одного из них является практически достоверным событием.      Очевидно, что единственно возможные события являются попарно несовместными. Например, приобретены два билета денежно-вещевой лотереи (испытание). Единственно возможные события: «выигрыш выпал на первый билет и не выпал на второй», «выигрыш не выпал на первый билет и выпал на второй», «выигрыш выпал на оба билета» «выигрыш не выпал ни на первый, ни на второй билет».

2. информации нет!!!!

Билет 11

  1. Совместные и несовместные события. Зависимые и независимые события. Классическое и статистическое определение вероятности.

  2. Задачи решаемые СППР в медицине. Пассивные, полуактивные и активные СППР. Основные компоненты активных СППР. Примеры.

1.События А и В, связанные с некоторым опытом, называютсясовместными, если существует испытание, при котором реализуются оба события.

События А и В, связанные с некоторым опытом, называются несовместными, если не существует испытания, при котором реализуются оба события.

независимые события - когда кидаешь 2 кости - выпавшее число на одной не зависит от выпавшего числа на другой зависимые - цепь замкнули - лампочка включилась.

Основным понятием теории вероятностей является понятие случайного события. Случайным событиемназывается событие, которое при осуществлении некоторых условий может произойти или не произойти. Например, попадание в некоторый объект или промах при стрельбе по этому объекту из данного орудия является случайным событием.

Классическое определение вероятности

Вероятностьюсобытияназывается отношение числа исходов, благоприятствующих его наступлению к числу всех исходов(несовместных, единственно возможных и равновозможных):.

Будем различать достоверные и невозможные события. По определению, их вероятности соответственно равны 1 и 0.

Статистическое определение вероятностей

Относительной частотой события называют отношение числа испытаний, в которых событие появилось, к общему числу практически произведенных испытаний. Таким образом, относительная частота А определяется формулой:

(2)

где m-число появлений события, n-общее число испытаний.

Сопоставляя определение вероятности и относительной частоты, заключаем: определение вероятности не требует, чтобы испытания производились в действительности; определение же относительной частоты предполагает, что испытания были произведены фактически. Другими словами, вероятность вычисляют до опыта, а относительную частоту - после опыта.

Пример 2. Из 80 случайно выбранных сотрудников 3 человека имеют серьезные нарушения сердечной деятельности. Относительная частота появления людей с больным сердцем

В качестве статической вероятности принимают относительную частоту или число, близкое к ней.

ОПРЕДЕЛЕНИЕ (статистическим определением вероятности). Число, к которому стремится устойчивая относительная частота, называется статистической вероятностью этого события.

2.направления, где эффективно использование СППР:

торговля, как оптовая, так и розничная (прогноз продаж, сегментация клиентов, ассортиментная политика, анализ потребительской корзины, программы лояльности, оценка эффективности маркетинговых действий, анализ аномалий, пресечение мошеннических действий персонала и многое другое);

интернет-бизнес (построение рекомендательных систем для персонализации пользователей веб-сайтов, с целью повышения лояльности покупателей, и, как следствие, повышение продаж, выявление случаев мошенничества и т.д.);

телекоммуникационный бизнес (к примеру, анализ доходности и риска клиентов);

промышленное производство (прогнозирование качества производимого изделия в зависимости от замеряемых параметров технологического процесса, планирование ремонтов);

медицина (диагностика заболеваний, оценка диагностических тестов, выявление побочных эффектов);

банковская деятельность (наиболее распространенная задача — кредитный скоринг, прогноз остатков на счетах и др.);

энергетика (главная задача — прогноз потребления электроэнергии);

страховой бизнес;

государственные учреждения;

маркетинговые, исследовательские агентства - и многие другие компании.

DSS(Decision Support Systems) -система поддержки принятия решенийилиСППР— это компьютерная система, которая путем сбора и анализа большого количества информации может влиять на процесс принятия решений организационного плана в бизнесе и предпринимательстве.

Интерактивные системы позволяют руководителям получить полезную информацию из первоисточников, проанализировать ее, а также выявить существующие бизнес-модели для решения определенных задач. С помощью СППР можно проследить за всеми доступными информационными активами, получить сравнительные значения объемов продаж, спрогнозировать доход организации при гипотетическом внедрении новой технологии, а также рассмотреть все возможные альтернативные решения.

По взаимодействию с пользователем выделяют три вида СППР:

пассивные помогают в процессе принятия решений, но не могут выдвинуть конкретного предложения;

активные непосредственно участвуют в разработке правильного решения;

кооперативные предполагают взаимодействие СППР с пользователем. Выдвинутое системой предложение пользователь может доработать, усовершенствовать, а затем отправить обратно в систему для проверки. После этого предложение вновь представляется пользователю, и так до тех пор, пока он не одобрит решение.

По способу поддержки различают:

модельно-ориентированные СППР, используют в работе доступ к статистическим, финансовым или иным моделям;

СППР, основанные на коммуникациях, поддерживают работу двух и более пользователей, занимающихся общей задачей;

СППР, ориентированные на данные, имеют доступ к временным рядам организации. Они используют в работе не только внутренние, но и внешние данные;

СППР, ориентированные на документы, манипулируют неструктурированной информацией, заключенной в различных электронных форматах;

СППР, ориентированные на знания, предоставляют специализированные решения проблем, основанные на фактах.

Выделяют четыре основных компонента:

информационные хранилища данных;

средства и методы извлечения, обработки и загрузки данных;

многомерная база данных и средства анализа OLAP;

средства Data Mining.

СППР позволяет облегчить работу руководителям предприятий и повысить ее эффективность. Они значительно ускоряют решение проблем в бизнесе. СППР способствуют налаживанию межличностного контакта. На их основе можно проводить обучение и подготовку кадров. Данные информационные системы позволяют повысить контроль над деятельностью организации. Наличие четко функционирующей СППР дает большие преимущества по сравнению с конкурирующими структурами. Благодаря предложениям, выдвигаемым СППР, открываются новые подходы к решению повседневных и нестандартных задач.

Билет 12

  1. Случайные величины. Числовые характеристики дискретных и непрерывных случайных величин: математическое ожидание, дисперсия, среднее квадратическое отклонение.

  2. Условные вероятности результатов диагноза. Правильные и неправильные положительные и отрицательные исходы формальной диагностики.

1. Случайная величина— это величина, которая принимает в результате опыта одно из множества значений, причём появление того или иного значения этой величины до её измерения нельзя точно предсказать.

Формальное математическое определение следующее: пусть вероятностное пространство, тогда случайной величиной называется функция,измеримаяотносительноиборелевской σ-алгебрына. Вероятностное поведение отдельной (независимо от других) случайной величины полностью описывается еёраспределением.

ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН

Закон распределения случайной величины дает исчерпывающую информацию о случайной величине. Однако, иногда можно охарактеризо­вать достаточно ярко случайную величину с помощью всего одного или нескольких чисел. Например, можно указать закон распределения количества осадков выпадающих в данной местности за определенный месяц, но проще и нагляднее указать среднее количество осадков в данном месяце.

Числа, назначение которых в сжатом виде характеризовать основные особенности распределений случайных величин, называются числовыми характеристиками. Рассмотрим некоторые из числовых характеристик и их основные свойства.

Математическое ожидание и его свойства.

Математическим ожиданием (или средним значением) дискретнойслучайной величиныназываетсясумма произведений всех её возможных значение на соответствующие им вероятности.

X

P

 

 

 

Т.е., если сл. величина имеет закон распределения, то

называется её математическим ожиданием. Если сл. величина имеет бесконечное число значений, то математическое ожидание определяется суммой бесконечного ряда , при условии, что этот ряд абсолютно сходится (в противном случае говорят, что математическое ожидание не существует).

Для непрерывной сл. величины, заданной функцией плотности вероят­ности f(x), математическое ожидание определяется в виде интеграла

при условии, что этот интеграл существует (если интеграл расходится, то говорят, что математическое ожидание не существует).

Пример 1. Определим математическое ожидание случайной величины распределённой по закону Пуассона. По определению

или обозначим

,

Значит, параметр ,определяющий закон распределения пуассоновской случайной величины равен среднему значению этой величины.

Пример 2. Для случайной величины, имеющей показательный закон распределения , математическое ожидание равно

():

(в интеграле пределы взять, с учётов того. что  f(x) отлична от нуля только при положительных x).

Пример 3. Случайная величина, распределенная по закону распределения Коши, не имеет среднего значения. Действительно

Свойства математического ожидания.

Свойство 1. Математическое ожидание постоянной равно самой этой постоянной.

Постоянная С принимает это значение с вероятностью единица и по определению М(С)=С1=С

Свойство 2. Математическое ожидание алгебраической суммы случайных величин равно алгебраической суме их математических ожиданий.

Ограничимся доказательством этого свойства только для суммы двух дискретных случайных величин, т.е. докажем, что

Под суммой двух дискретных сл. Величин понимается сл. Величина, которая принимает значения с вероятностями

По определению

Но

где вероятность события , вычисленная при условии, что . В правой части последнего равенства перечислены все случаи появления события , поэтому равна полной вероятности появления события , т.е. . Аналогично . Окончательно имеем

Свойство 3. Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий.

У

Q

Х

 

Р

 

 

 

 

 

 

Приведем доказательства этого свойства только для дискретных величин. Для непрерывных случайных величин оно доказывается аналогично.

 

Пусть Х и У независимы и имеют законы распределения

 

Произведением этих случайных величин будет случайная величина, которая принимает значения  с вероятностями равными, в силу независимости случайных величин, . Тогда

Следствие. Постоянный множитель можно выносить за знак матема­тического ожидания. Так век постоянная С не зависит от того какое значение примет сл. величина X, то по   свойству 3. имеем

М(СХ)=М(С)М(Х)=СМ(Х)

Пример. Если a и b постоянные, то М(ах+b)=аМ(х)+b.

Математическое ожидание числа появления события в схеме независимых испытаний.  Пусть производится n независимых опытов, ве­роятность появления события в каждом из которых равна Р. Чис­ло появлений события в этих n опытах является случайной величиною Х распределённой по биномиальному закону. Однако, непосредственное вычисление её среднего значения громоздко. Для упрощения воспользуемся разложением, которым будем пользоваться в дальнейшем неоднократно:  Число   появления события в n опытахсостоит из числа появлений события в отдельных опытах, т.е.

где имеет закон распределения (принимает значение 1, если событие в данном опыте произошло, и значение 0, если событие в данном опыте не появилось).

0

1

Р

1-р

р

 

 

 

Поэтому

или

т.е. среднее число появлений события в nнезависимых опытах равно произведению числа опытов на вероятность появления события в одном опыте.

Например, если вероятность попадания в цель при одном выстреле равна 0,1, то среднее число попадания в 20 выстрелах равно 200,1=2.

 

Дисперсия и среднее квадратическое отклонение.

Названные числовые характеристики дают представление о разбросе случайных величин относительно их среднего значения.

Дисперсией(рассеянием) случайной величины называется математическое ожидание квадрата отклонения случайной величины от ее математического ожидания.

Для вычисления дисперсии можно использовать слегка преобразованную формулу

т.к. М(х), 2 и постоянные величины, то

.

Свойства дисперсии.

Свойство 1. Дисперсия постоянной равна нулю. По определению

Свойство 2. Постоянную можно выносить за знак дисперсии с возведением в квадрат.

Доказательство:

Центрированной случайной величиной называется отклонение случайной величины от ее математического ожидания.

Центрированная величина обладает двумя удобными для преобразования свойствами:

Свойство 3. Если случайные величины Х и У независимы, то

Доказательство. Обозначим . Тогда и . Поэтому

Во втором слагаемом в силу независимости случайных величин и свойств центрированных случайных величин

поэтому равенство можно продолжить

Пример. Если aиb– постоянные, тоD(ax+b)=D(ax)+D(b)=

Дисперсия, как характеристика разброса случайной величины, имеет один недостаток. Если, например, Х – ошибка измерения имеет размерность ММ, то дисперсия имеет размерность . Поэтому часто предпочитают пользоваться другой характеристикой разброса –средним квадратическим отклонением, которое равно корню квадратному из дисперсии.

Среднее квадратическое отклонение имеет ту же размерность, что и сама случайная величина.

Дисперсия числа появления события в схеме независимых испытаний.

 Производится nнезависимых испытаний и вероятность появления события в каждом испытании равна р. Выразим, как и прежде, число появления события Х через число появления события в отдельных опытах

Так как опыты независимы, то и связанные с опытами случайные величины независимы. А в силу независимости имеем

0

1

Р

1-р

р

 

 

 

Но каждая из случайных величин имеет закон распределения и , поэтому по определению дисперсии

,

где q=1-p

В итоге имеем ,

Среднее квадратическое отклонение числа появления событий в nнезависимых опытах равно .

 

Моменты случайных величин.

Помимо уже рассмотренных случайные величины имеют множество других числовых характеристик.

Начальным моментомk-го порядка случайной величины Х называется математическое ожиданиеk-ой степени этой случайной величины.

Центральным моментомk-го порядка случайной величины Х называется математическое ожиданиеk-ой степени соответствующей центрированной величины.

Легко видеть, что центральный момент первого порядка всегда равен нулю, центральный момент второго порядка равен дисперсии, т.к. .

Центральный момент третьего порядка дает представление об асимметрии распределения случайной величины. Моменты порядка выше второго употребляются сравнительно редко, поэтому мы ограничимся только самими понятиями о них.

Числовые характеристики системы случайных величин составляют числовые характеристики каждой из величин, входящих в систему, и числовые характеристики, дающие представление о характере связи между величинами. Числовые характеристики каждой из величин по отдельности определяются как числовые характеристики обычных случайных величин. Из числовых характеристик зависимости между величинами назовем лишь наиболее употребимую.

Корреляционным моментомиликовариациейслучайных величин Х и У называется математическое ожидание произведения соответствующих центрированных величин

Если случайные величины независимы, то их ковариация равна нулю. Обратное утверждение верно не всегда. Равенство нулю ковариации независимых случайных величин следует из теоремы о математическом ожидании произведения независимых случайных величин

часто силу зависимости между случайными величинами характеризуют безразмерным коэффициентом

2.

Билет 13

  1. Графические характеристики случайных величин: гистограмма, кумулята. Мода, медиана, квантили.

  2. Задачи решаемые СППР в медицине. Пассивные, полуактивные и активные СППР. Основные компоненты активных СППР.

Соседние файлы в папке Новая папка