- •1. Система. Система управления. Система организационного управления
- •2.Принципиальная схема функционирования системы управления
- •3. Прямая и обратная связь.
- •4. Функция управления. Общие и специальные функции управления.
- •5. Замкнутый контур функций управления.
- •6. Декомпозиция систем организационного управления на подсистемы
- •7. Технология организационного управления. Задача управления
- •8. Организационная и информационная технология управления
- •9. Сущность понятия информационное общество
- •10. Сущность и причины информационного кризиса?
- •11. Сущность понятия информационная культура
- •12. Основные подходы к определению понятия информация
- •13. Соотношение «информация» и «данные».
- •14. Содержания понятия «информация» с философской точки зрения.
- •15.Понятие «внутренней» и «внешней» информационной модели.
- •16. Обобщенная схема реализации информационного процесса.
- •17. Основные этапы развития научных представлений об информации.
- •18. Сущность и содержание понятия энтропия.
- •Вероятности исходов опыта
- •19. Определение и сущность двоичной единицы изменения информации.
- •20. Единицы измерения информации
- •21. Условная и безусловная энтропия
- •Вероятности исходов опыта
- •Вероятности исходов опыта β
- •22. Оценка количества информации в соответствии с концепцией Шеннона
- •23.Сущность семантического подхода к оценке количества информации. Понятие тезауруса системы.
- •24. Прагматический подход к оценке количества информации
- •25. Сущность понятия «экономическая» информация
- •26. Сущность понятия «информационный ресурс»
- •27. Современные трактовки понятия «информационная технология»
- •28. Базовые компоненты информационной технологии.
- •29. Коммуникационные технологии.
- •30. Содержание понятия «знаковая система». Их классификация.
- •31. Естественный язык как знаковая система.
- •32. Основные этапы развития письменной информационной технологии.
- •33. Что такое математические знаковые системы.
- •34. Образные знаковые системы
- •35. Основные этапы эволюции информационных носителей.
- •36. Инструментарий информационных технологий.
- •37. Основные этапы развития инструментария для работы с текстами.
- •38. Развитие средств технологической поддержки математических расчетов.
- •39. Информационный инструментарий для работы с образными моделями.
- •40. Охарактеризуйте основные научно-технические достижения, послужившие основой появления первых компьютеров.
- •41. Основные особенности машин первого поколения.
- •42. Основные этапы развития компьютерных информационных технологий.
- •43. Сущность персональной компьютеризации.
- •44. Понятие модели объектов и процессов управления.
- •45. Общесистемное программное обеспечение.
- •46.Средства разработки компьютерных информационных технологий.
- •47. Классификация компьютерного инструментария общего применения.
- •48. Компьютерный инструментарий для работы с текстами.
- •49. Компьютерный инструментарий обработки экономической информации.
- •50. Коммуникационные технологии. Классификация и основные этапы развития.
- •51. Коммуникационные сети.
- •52.Гипертекстовое информационное пространство.
- •53. Государственная система документационного обеспечения управления.
- •55. Нормативно-методическая база делопроизводства
- •56 И 57 (это один вопрос). Понятие и применение информационных классификаторов в документационном обеспечении организационного управления.
- •58. История развития систем делопроизводства.
- •59. Документооборот учреждения.
- •60. Системы документации.
- •61. Функции документа
- •62. Формуляр документа
- •63.Документирование. Носители документной информации.
- •64. Документ. Юридическая сила документа.
- •66 . Понятие информационной системы организации
- •67. База данных. Структурирование данных.
- •68. Понятие информационного объекта. Запись, ключ записи, поле записи.
- •69. Системы управления базами данных. Основные компоненты.
- •70. Виды моделей данных в субд.
- •71. Понятие словаря данных в субд.
- •72. Доступ к данным бд посредством языка sql.
- •73. Языковые средства субд.
- •74. Понятие web-технологии.
- •75. Язык html.
- •76. Язык сценариев JavaScrip.
- •77. Каскадные таблицы стилей (Cascading Style Sheets — css).
- •78. Объектная моделью документа (dom).
- •79. Автоматизированные информационные системы организации, реализованные на принципах Web – технологии.
17. Основные этапы развития научных представлений об информации.
Считается, что одним из первых понятие информации в научный оборот было введено Р.Фишером в 1921 г. применительно к решению задач статистике.
Р.Фишером была предложена мера (среднего) количества информации, относительно неизвестного параметра, содержащейся в одном наблюдении. В круг интересов Р.Фишера входили и вопросы генетической теории эволюции, также непосредственно связанные с информацией .
Основы теории информации, как самостоятельного научного направления были изложены в статье «Математическая теория связи» (1948 г.) выдающегося американского ученого и инженера К.Шеннона (1916-2001). Эта статья дала толчок интенсивному развитию математической теории передачи информации, углубленным исследованиям вопросов ее количественного измерения. Методы данной теории позволили определять информационные характеристики конкретных видов сообщений (письменной и устной речи, фотографических и телевизионных изображений и пр.).
Необходимо отметить, что работа Шеннона базировалась на трудах многих ученых, работающих в этой и смежных областях.
Котельников работал над совершенствованием методов радиоприема, разработкой методов борьбы с помехами. Теорема Котельникова, на которой построен принцип действия электронных машин, телевидения, систем связи, была сформулирована еще в 1933 г., до возникновения современной теории информации. Согласно этой теоремы максимальное число различных элементарных сигналов, которые можно передать по линии связи за единицу времени, является некоторой технической характеристикой линии, которую нельзя изменить, не внося изменений в саму линию. Данный вывод играет основную роль во всех применениях теории информации к вопросу о передаче непрерывных сигналов. Клод Шеннон, ссылался на его работу.
А.Н.Колмогоров считается одним из крупнейших математиков ХХ столетия. Он был одним из первых российских ученых, осознавших значение работ К.Шеннона по теории информации. Он обобщил и применил понятие энтропии в ряде областей математики, создав несколько новых научных математических направлений. В последние годы своей творческой деятельности он работал над созданием алгоритмических основ теории информации и теории вероятностей.
Исторически первые шаги к введению понятия энтропии как меры степени неопределенности сообщений были сделаны в 1928 г. американским инженером-связистом Р.Хартли, предложившим за отправную точку для информационной оценки события принимать его неопределенность и количественно характеризовать степень неопределенности события с n различными исходами числом log n.
Существует особая, очень тесная связь между теорий информации и другой важнейшей наукой, сформировавшейся в ХХ в., – кибернетикой.
В том же 1948 г., когда была опубликована знаменитая статья Шеннона, вышла в свет книга американского ученого Норберта Винера (1894-1964) «Кибернетика, или связь в животном и машине», в которой он обобщил общие принципы построения и работы любых управляющих систем, показал ключевую роль информации в управлении .
Основная идея книги – подобие процессов управления и связи в технических, биологических и социальных (организационных) системах. Эти процессы по своей природе прежде всего являются процессами передачи, хранения и переработки информации, т.е. различных сигналов, сообщений, сведений. Отсюда мысль о возможности создания общей для систем любого класса теории управления.
Одной из главных задач теории информации является повышение помехоустойчивости передачи сообщений. Для этого разрабатываются специальные методы кодирования. Возникло даже новое большое направление – теория кодирования, которое некоторые специалисты считают самостоятельной научной дисциплиной. Другие же полагают, что к уже началу 70-х годов ХХ в. сама классическая теория информации свелась в первую очередь к теории кодирования.
Примерно в это время, в 40-50 гг. ХХ в., параллельно с кибернетикой и теорией информации начала формироваться и еще одна наука, получившая в англоязычных странах название computer science (наука о компьютерной технике).
Считается, что чуть позже, в 60-х гг. во Франции для обозначения области, занимающейся автоматизированной обработкой информации с помощью электронных вычислительных машин, стали использовать термин «информатика» (Informatique), образованный объединением слов Information и Automatique (информация и автоматизация) .
В некоторых учебниках можно прочитать, что слово «информатика» появилось в русском языке в 70-х годах ХХ в. и позаимствовано из французского. На наш взгляд это случилось несколько позже. Широкое распространение этот термин получил в период массового внедрения персональных компьютеров в 80-х гг. Решение об организации нового отделения информатики, вычислительной техники и автоматизации в Академии наук СССР было принято в 1983 году. Вскоре были введены одноименные предметы в школьные и вузовские программы (кафедра информатики ГУУ начала работать в самом конце 80-х). Примерно в это же время абитуриенты начали сдавать вступительный экзамен по информатике.