- •Элементы теории вероятностей.
- •Сформулируйте теорему умножения вероятностей для независимых событий.
- •Формула полной вероятности
- •Случайные величины и законы их распределения
- •Случайные величины и законы их распределения
- •Математическая статистика
- •Сравнение 2-х статистических совокупностей
- •Сравнение 2-х статистических совокупностей
- •Коэффициент корреляции и его свойства. Уравнения регрессии
- •Элементы теории информации
- •Элементы теории информации.
- •Сенсорные системы
- •Физическая оптика
- •Геометрическая оптика
- •Геометрическая оптика
Коэффициент корреляции и его свойства. Уравнения регрессии
-
В каком интервале находятся значения коэффициента корреляции?
* От 0 до 1
-
Какие значения коэффициента корреляции указывают на слабую тесноту связи между исследуемыми величинами?
*-0.125 , 0.18
-
Какие значения коэффициента корреляции указывают на среднюю тесноту связи между исследуемыми величинами?
* -0.625 , 0.48
-
Какие значения коэффициента корреляции указывают на сильную тесноту связи между исследуемыми величинами?
* 0.95 , -0.84 , 0.72
-
Какую информацию можно получить, построив корреляционное поле?
* По виду корреляционного поля можно сделать вывод о наличии или отсутствии связи между исследуемыми величинами и определить тип этой связи
-
Экспериментатор сделал расчет коэффициента корреляции и получил значение г=0,15. Какой вывод можно сделать?
*
-
Экспериментатор сделал расчет коэффициента корреляции и получил значение г=-0,62. Какой вывод можно сделать?
* Связь между исследуемыми величинами обратная и средняя
-
Экспериментатор сделал расчет коэффициента корреляции и получил значение г=1,7. Какой вывод можно сделать?
* Экспериментатор ошибся в расчетах
-
Какую связь отражает уравнение регрессии?
* Зависимость среднего значения одной величины от конкретного значения другой величины
-
При каких значениях коэффициента корреляции целесообразно строить теоретическую линию регрессии?
* От 0.1 до 0.8
Элементы теории информации
-
Что называется информационной энтропией?
* Мера неопределенности в системе
-
Чему равна энтропия системы, которая может находится в n равновероятных состояниях?
*
-
По какой формуле рассчитывается энтропия системы, которая может находиться в n неравновероятных состояниях?
*
-
Дайте наиболее полное определение информации.
* Информация - это совокупность сведений, сообщений о явлениях, процессах, предметах, привносящие новые знания об этих явлениях, процессах, предметах
-
Дайте определение единицы информации 1 бит.
* Бит - это количество информации, заключенное в сообщении о том, что произошло одно из двух равновероятных событий
-
Что называется пропускной способностью канала связи?
* Максимальное количество информации, которое можно передать по каналу связи в единицу времени
-
В каком случае информационная энтропия системы принимает минимальное значение
* Если система может находиться только в одном состоянии
-
В каком случае информационная энтропия системы принимает максимальное значение?
* Если все состояния системы равновероятны