Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
voprosy_analiz_dannykh.doc
Скачиваний:
8
Добавлен:
16.08.2019
Размер:
948.74 Кб
Скачать

1. Особливості інформаційних технологій. 2. Особливості і задачі обробки інформації. 3. Представлення інформації даними. 4. Класифікація даних. 5. Особливості збирання даних. 6. Основні методи та підходи до аналізу даних. 7. Складність автоматизованого аналізу. 8. Стаціонарні стохастичні дані. 9. Числові параметри вибірок. 10. Описові статистики.  11. Точкові та інтервальні оцінки. 12. Точна та приблизна побудова довірчих інтервалів. 13. Важливість задачі визначення закону розподілу. 14. Моментний метод. 15. Графічні методи. Побудова гістограм та полігонів. 16. Метод Хі-квадрат. 17. Побудова емпіричних законів розподілу. 18. Метод Колмогорова-Смірнова. 19. Перевірка гіпотез про однорідність даних. 20. Розщеплення бімодальних розподілів. 21. Дані з нестаціонарним математичним сподіванням. 22. Необхідність виділення тренда. 23. Задачі апроксимації. 24. Інтерполяція. 25. Метод найменших квадратів для поліноміальних моделей. 26. Оцінювання параметрів моделей. 27. Проблеми наближення поліномами. 28. Ортогональність базисних функцій.  29. Особливості МНК з ортогональними базисами. 30. Перетворення Фур’є. Гармоніки. Спектр. 31. Дані з нестаціонарною дисперсією та математичним сподіванням. 32. Зважений МНК. 33. Дані з нестаціонарною кореляцією. 34. Узагальнений МНК. 35. Сплайни, їх переваги над поліноміальними моделями. 36. Види сплайнів. Способи побудови. 37. Інтерполяція сплайнами. 38. Поняття B-сплайн функції. 39. Засоби управління B-сплайн функції: вузловий вектор та вагові коефіцієнти. 40. Визначення стиковочної функції за допомогою рекурсії. 41. Застосування B-сплайнів для моделювання поверхонь. 42. Поняття автокореляційної функції. 43. Оцінювання автокореляційної функції. 44. Автокореляційна функція ергодичних випадкових процесів. 45. Автокореляційна функція та енергетичний спектр. 46. Поняття, розрахунок та застосування часткової автокореляційної функції. 47. Проблема отримання статистично стійких оцінок спектрів даних. 48. Швидке перетворення Фур’є. 49. Прямі методи оцінювання спектру. 50. Періодограмний метод. Роль вікон. 51. Корелограмний метод. 52. Непрямі методи оцінювання з допомогою авторегресійних та ковзкового середнього моделей. 53. Сплайн-метод оцінювання спектру. 54. Порівняння середніх. T-критерій Стьюдента. 55. Значення нормальності. 56. Порівняння дисперсій F-критерію Фішера. 57. Непараметричні критерії. 58. Зонування та виявлення змін в процесах. 59. Особливості аналізу багатовимірних даних. 60. Оцінка взаємної кореляції та оцінювання її достовірності. 61. Задачі та проблеми, що вирішуються методами кореляційного аналізу. 62. Поняття про відстань між даними в різних метриках. 63. Евклідова відстань. 64. Узагальнена Евклідова відстань, відстань Махалонобіса, інші метрики. 65. Ідея кластерної класифікації. 66. Методи кластерної класифікації

Особливості інформаційних технологій.

До середини двадцятого сторіччя людство знало лише виробничі (матеріально-енергетичні) технології, що з’явилися в епоху першої промислової революції на базі використання парових машин. У наш час людство переживає науково-технічну революцію, матеріальною основою якої є електронно-обчислювальна техніка. На базі цієї техніки з’явився новий вид технологій - інформаційні. До них відносяться процеси, де “початковим матеріалом“ і “продукцією“ (виходом) стала інформація. Зрозуміло, що інформація пов’язана з визначеними матеріальними носіями і, отже, процеси її обробки охоплюють також переробку речовини і перетворення енергії. Але останнє не має істотного значення для інформаційних технологій. Головну роль тут відіграє інформація, а не її носій., як виробничі, так і інформаційні технології виникають не спонтанно, а в результаті технологізації того або іншого соціального процесу, тобто цілеспрямованого активного впливу людини на ту або іншу галузь виробництва (соціальної практики) і її перетворення на базі обчислювальної техніки. Чим ширше застосування знаходить обчислювальна техніка, чим вищий інтелектуальний рівень програмного забезпечення, тим більше виникає видів інформаційних технологій, до яких відносяться технології планування і управління, наукових досліджень і розробок, експериментів, проектування, грошово-касових операцій, криміналістики, медицини, навчання та інші. Найпоширенішою інформаційною технологією, що відіграє винятково важливу роль у життєдіяльності суспільства, є технологія управління.

Кожній, у тому числі інформаційній, технології в її повному (розвинутому) вигляді притаманні такі властивості:

1. Розчленованість процесу на стадії (фази), що відкриває нові можливості для його раціоналізації і виконання за допомогою машин. Це - найважливіша характеристика машинізованого технологічного процесу.

2. Системна повнота (цілісність) процесу, що включає весь набір елементів, що забезпечують необхідну завершеність дій людини при досягненні поставленої цілі. Потрібна також визначена пропорційність у співвідношенні різноманітних ланок технологічного ланцюжка та у рівні їхнього розвитку. Досвід показує, що покращення окремих елементів інформаційно-обробного процесу на базі електронно-обчислювальних машин, ще не створює цілісну технологію і не забезпечує потрібного ефекту.

3. Регулярність процесу й однозначність його фаз, що дозволяє застосування середніх показників їх характеристик, і, отже, допускає їх стандартизацію й уніфікацію. В результаті з’являється можливість обліку, планування, диспетчеризації інформаційних процесів.

Для нової технології переробки інформації, що пов’язана з фіксацією даних на машинних носіях і активно впливає на середовище застосування, потрібно радикальна перебудова сформованих інформаційно-комунікаційних процесів. При цьому виникають такі проблеми. Системно строга математично регламентована і складна інженерна технологія опрацювання даних “вклинюється“ у нетехнологізоване, слабко структуроване середовище, життєдіяльність якого заснована на емпірично сформованих “людино-паперових“ процедурах і операціях, дуже гнучка природа яких лише маскує структурні “слабкості“ середовища і зайві витрати часу і ресурсів. Більше того, виникає протиріччя між вимогами машинізованих систем, в основі яких лежать алгоритми інформаційного обміну, формалізовані моделі прийняття рішень, і внутрішньою логікою функціонування самого середовища, природою конкретного соціального процесу (управління, наукові дослідження, виробництво або медицина). Зазначене протиріччя знімається в результаті технологізації інформаційно-комунікаційних процесів, що означає з одного боку вдосконалення і розвиток самих обчислювальних технологій (засобів опрацювання даних), а з іншого - раціоналізацію середовища, у якому впроваджуються обчислювальні технології.

2. Особливості і задачі обробки інформації.

Обро́блення інформа́ції — вся сукупність операцій (збирання, введення, записування, перетворення, зчитування, зберігання, знищення, реєстрація), що здійснюються за допомогою технічних і програмних засобів, включаючи обмін по каналах передачі даних.

За ДСТУ 2938-94[1]:

Обро́блення інформа́ції — систематичне виконання операцій над інформацією.

Система оброблення інформації — система, що складається з сукупності технічних і програмних засобів, а також робочого персоналу, які забезпечують оброблення інформації[1].

Зібрана інформація в процесі наукового дослідження підлягає ретельній обробці. Обробці підлягає весь зібраний матеріал від першої до останньої сторінки, - це і є первинна суцільна обробка матеріалу. Вона повинна передувати написанню тексту. З її допомогою можна уявити загальну картину всієї роботи, створюючи тим самим сприятливі умови для написання тексту на відповідному науковому рівні.

Цей важливий етап науково-дослідної роботи складається з декількох стадій:

1) систематизація матеріалу;

2) оцінка придатності інформації;

3) перевірка достовірності і значущості інформації;

4) співставлення інформації;

5) побудова попередніх і остаточних висновків.

Спочатку слід систематизувати зібрану інформацію, тобто упорядкувати розрізнені факти, створити їх струнку систему відповідно до мети дослідження. Методичними прийомами систематизації є класифікація та типологія.Класифікація - це групування фактів у сукупності за кількісними ознаками, а типологія - за якісними ознаками. В процесі збирання інформації теж слід постійно здійснювати її систематизацію, тобто завжди перечитувати та розкладати матеріал відповідно до плану розробки теми. При цьому по мірі надходження інформації, вона повинна знаходити своє місце у певному параграфі роботи.

Первинна інформація економічного характеру після суцільного опрацювання підлягає статистичній або вторинній обробці. Сутність цієї обробки полягає у складанні таблиць, рядів, схем, графіків (кривих, діаграм, картограм), розрахунку середніх і відносних величин, показників варіації та дисперсії, кореляційних зв´язків при факторному аналізі. Таким чином, створюється нова інформація.

В процесі систематизації слід очистити інформацію від непотрібних і дублюючих та, особливо, помилкових матеріалів, тобто, оцінити придатність інформації з точки зору мети науково-дослідної роботи. При необхідності матеріал слід доповнити додатковими даними.

Вся нагромаджена і систематизована інформація повинна перевірятися за її достовірністю і значущістю. Оцінка достовірності інформації - особливо відповідальна стадія її обробки, яка вимагає високої кваліфікації дослідника. Одним із способів визначення достовірності зібраної інформації є її математична оцінка, яка може обмежуватися вибірковою перевіркою найвідповідальніших елементів - методик, формул, логічних міркувань. Всю недостатньо достовірну інформацію слід вилучити.

Основним методом побудови наукових висновків в процесі обробки інформації є співставлення даних. Дослідник в пошуках вирішення проблеми повинен порівнювати відомі факти в різних поєднаннях, доки якась комбінація не стане можливим рішенням. Таке рішення є попереднім висновком, який слід критично розглянути, щоб уникнути неправильного розв´язання проблеми. У зв´язку з цим, для отримання достовірних наукових висновків слід максимально зосереджуватись на досліджуваній темі і залучати максимальну кількість фактів та ідей, бути допитливим і зацікавленим, ефективно використовувати результати колективного обговорення зібраної інформації.

Наприкінці дослідник на підставі попередніх висновків, які часто значно розширюють джерела інформації чи, навпаки, відсікають непотрібні дані, підводить підсумок роботи і формулює остаточні висновки. їх рекомендується формулювати ретельно, точно, не перевантажуючи обґрунтування цифровими даними. Остаточні висновки повинні бути стислими та змістовними. З їх допомогою читач повинен легко оцінити роботу, дослідник - ще раз її перевірити.

З метою удосконалення наукових досліджень відповідно до вимог ринку важливо використовувати АСУ обробки інформації на ЕОМ. АСУ обробки інформації - це людино-машинні системи, за допомогою яких • інформація автоматизовано збирається та обробляється. Технічною базою для її здійснення є персональні, універсальні і малі ЕОМ; обладнання для збирання, підготовки та попередньої обробки інформації; засоби зв´язку і попередньої обробки інформації; пристрої тиражування, комплектування і остаточної обробки документів, автоматизованого видавання документів та їх збереження.

Основними етапами обробки інформації на ЕОМ в АСУ виступають:

  • збирання, передавання та підготовка до введення в ЕОМ

  • первинної інформації;

  • введення, нагромадження та обробка інформації;

  • виведення та передавання результатів обробки інформації людині (досліднику).

Ефективність обробки інформації залежить від якості комплексу експлуатаційних програм та проектування усього циклу робіт з обробки інформації на ЕОМ. Так, зокрема за методом пакетної обробки певна кількість інформації об´єднується в пакет за ознакою дослідження і передається по каналах зв´язку за один сеанс. Дослідник ставить відповідні завдання, ЕОМ їх розв´язує і записує на запам´ятовуючому пристрої. Після повного розв´язання завдання або за спеціальним запитом дослідника (науковця) ЕОМ видає відповідь. Процедура обробки інформації здійснюється стандартними засобами операційної системи, що значно її спрощує, прискорює та дає можливість науково обгрунтувати висновки та пропозиції.

Деякою специфікою відрізняється АСУ обробки інформації на ЕОМ у наукових дослідженнях. Послідовність її обробки включає такі етапи:

1. постановка завдань та складання алгоритму їх розв´язання, що повинен здійснювати науковець (дослідник);

2. розв´язання завдань і видавання обробленої інформації, за допомогою якої створюються можливості для доказу гіпотез стосовно конкретної ситуації;

3. виявлення причин недоліків та розробка рекомендацій щодо їх усунення;

4. написання та узагальнення висновків.

Виконання дослідником зазначених етапів обробки наукової інформації вимагає від нього доброго володіння методикою алгоритмізації та постановки завдань для їх наступного програмування та розв´язання на ЕОМ програмістами, системотехніками та іншими спеціалістами у цій галузі. Дослідник повинен глибоко вивчити інформаційне забезпечення АСУ обробки інформації, тобто усю наявну сукупність засобів, методів, пакетів прикладних програм побудови та обробки інформаційного фонду.

3. Представлення інформації даними.

Дані (від лат. data, множина від лат. datum від лат. dare — давати, щось дане):

  • 1) Інформація, відомості, показники, необхідні для ознайомлення з ким-, чим-небудь, для характеристики когось, чогось або для прийняття певних висновків, рішень.

  • 2) Здібності, якості, необхідні для чого-небудь.

  • 3) Форма представлення знань, інформації. Тексти, таблиці, інструкції, відомості про факти, явища і таке інше, представлені у буквено-цифровій, числовій, текстовій, звуковій або графічній формі. Дані можуть зберігатися на різних носіях, в тому числі в ЕОМ та пересилатися і піддаватися обробці.

У інформатиці дані символізують інформацію, що представлена у вигляді необхідному для її опрацювання автоматичними засобами. Для цього інформацію кодують за допомогою знаків (алфавіт) відповідно до правил певного синтаксису. У сучасних машинах використовується двійковий метод запису даних за допомогою 0 та 1 (алфавіт з двох цифр). Для полегшення роботи для людини двійковий код перекодовується у більш зрозумілі числа, букви тощо.

Дані є інформацією лише тоді, коли вони несуть значення у заданому контексті. Наприклад: кодом міжнародного телефонного зв'язку є набір знаків +38, тобто це дані, про інформацію ми можемо говорити лише за наявності відомості про назву країни, що відповідає цьому коду.

Дані розрізняють на:

  • структуровані (наприклад: база даних, XML-документ),

  • не структуровані (наприклад: текстовий документ),

  • тимчасові.

Структуровані дані відносно легко піддаються машинній обробці, на відміну від них автоматична обробка неструктурованих даних не завжди можлива або можлива лише неточна.

Важливими проблемами у інформатиці, особливо у розподілених системах,— є синхронізація даних, а в управлінні даними — стрімке зростання кількості даних.

  • 4) Низка суджень, що відображають реальність. Велику групу практично важливих суджень складають вимірювання та спостереження за змінними. Ці судження охоплюють числа, слова та зображення. Дані отримуються в результаті якоїсь дії (вимірювання, обчислення)

  • 5) У семіотиці дані визначені як потенційна інформація. Вони розміщені на рівні сигматики, тобто між синтаксисом та семантикою.

4.Класифікація даних.

Інформацію, що використовується в управлінні, класифікують за різними ознаками:

1) за формою відображення - візуальна (графіки, таблиці, табло та ін.), аудіо інформація (сприймається на слух завдяки звукозапису), аудіовізуальна (поєднує інформацію у формі зображення і звуку);

2) за формою подання - цифрова, буквена і кодована;

3) за порядком виникнення - первинна і похідна;

4) за характером носіїв інформації - документована і недокументована;

5) за призначенням - директивна (розпорядча), звітна і довідково-нормативна;

6) за напрямом руху - вхідна і вихідна;

7) за стабільністю - умовно-перемінна, умовно-постійна;

8) за способом відображення - текстова (алфавітна, алфавітно-цифрова) і графічна (креслення, діаграми, схеми, графіки);

9) за способом обробки - що піддається і що не піддається механізованій обробці.

5. Особливості збирання даних.  методи збирання та аналізу соціологічної інформації 1. Організаційна структура соціологічної діяльності в Україні. 2. УСА, її склад і напрями роботи. 3. Служба соціального розвитку підприємства (установи), її струк­тура і функції. 4. Сутність соціологічного дослідження: види та стан проведення. 5. Програма соціологічного дослідження, зміст методологічного та методичного розділів. Тема соціологічного практикуму Розробка програми соціологічного дослідження. Література 1. Гречихин В. Г. Лекции по методике и технике социологического исследования. — М., 1988. 2. Здравомыслов А. Г. Методология и процедура социологических исследований. — М., 1969. 3. Как провести социологическое исследование? В помощь идеологическому активу / Под ред. М. К. Горшкова и Ф. Э. Шереги. — М., 1990. 4. Рабочая книга социолога. 2-е изд. — М., 1983. 5. Ядов В. А. Социологические исследования: методология, программа, методы. — М., 1987. Методи збирання первинної соціологічної інформації 1. Аналіз документів як джерело первинної соціологічної інфор­мації. 2. Спостереження, його призначення. 3. Соціологічний експеримент, його особливості. 4. Опитування, його види. 5. Шкалування, його призначення. Види і порядок розробки шкал.

На першому етапі процесу маркетингового дослідження відбувається виявлення проблеми і визначення цілей дослідження. Дослідження може бути пошуковим, описовим або причинним. Другий етап пов'язаний з розробкою плану дослідження для збирання інформації з первинних і вторинних джерел. На третьому етапі дослідники і маркетологи реалізують його план, збираючи, обробляючи і аналізуючи інформацію. Четвертий етап полягає в обробці і наданні одержаних результатів менеджерам. Щоб привести одержану інформацію в зручнішу для менеджерів з маркетингу форму, виконується додатковий статистичний аналіз. У ході цього аналізу використовуються спеціальні статистичні методи і моделі, що дає змогу одержати точніші та об'єктивніші дані.

6. Основні методи та підходи до аналізу даних. Аналіз даних — це розділ математики, що займається розробкою методів обробки даних незалежно від їх природи.

Можна виділити такі етапи аналізу даних: отримання даних, обробка, аналіз та інтерпретація результатів обробки. Отримати самі дані не так важливо, як зробити на їх основі правильні висновки.

Аналіз даних можна вважати прикладним розділом математичної статистики, проте потрібно підкреслити, що аналіз даних охоплює обробку як кількісних, так і якісних даних. При чому, не обов'язково використовуються імовірністні моделі при описі об'єктів, явищ та процесів що досліджуються.

  1. Попередня обробка даних. Включає розвідувальний аналіз.

  2. Кореляційний аналіз

  3. Дисперсійний аналіз

  4. Регресійний аналіз

  5. Коваріаційний аналіз

  6. Дискримінантний аналіз

  7. Кластерний аналіз

  8. Аналіз часових рядів

Методи аналізу даних

Для обробки та аналізу результатів опитування використовуються спеціальні пакети комп’ютерних програм. Глибина аналітики досягається нами за рахунок використання широкого спектру методів аналізу даних:

1) Побудова та аналіз частотних таблиць (таблиць одномірного розподілу),  які несуть інформацію про процентний та частотний розподіл відповідей респондентів на запитання анкети. На основі отриманої інформації робляться висновки про наявність тих, чи інших мотивів діяльності, ціннісних орієнтацій, ціннісних суджень та ін. у працівників компанії.

2) Підрахунок статистичних характеристик розподілу ознак характеристик (аналіз описових статистик) використовуються для визначення центральної тенденції (збігу) та варіації (розбіжностей) у відповідях учасників опитування. Результати підрахунку дають можливість сформулювати висновки про домінування у учасників опитування тих, чи інших думок, оцінок.

3) Двомірний аналіз даних використовується для з’ясування взаємозв’язку між різними характеристиками учасників опитування. Оброблені результати виводяться у вигляді таблиць двомірного розподілу (таблиць спів залежності) та коефіцієнтів кореляції.  Отримані результати є основою для інтерпретації взаємозв’язку між ціннісно-мотиваційними, афективними та поведінковими особливостями діяльності. Статистична значимість виявлених зв’язків перевіряється за допомогою спеціальних методів статистичного висновку (перевірка статистичних гіпотез), після чого для подальшої інтерпретації відбираються лише ті зв’язки, існування яких достовірно встановлене в результаті математичного аналізу.

4) Регресійний аналіз використовується для вивчення причино-наслідкових зв’язків між різними характеристиками учасників опитування. Даний метод є логічним продовженням двомірного аналізу (п.3) і може використовуватися у випадку необхідності (у вигляді рівнянь регресії), які дозволяють оцінити форму зв’язку та дають можливість прогнозування значень однієї (залежної) характеристики, виходячи із значення іншої (незалежної) характеристики. В залежності від особливостей характеристик, які розглядаються в обробці даних, можуть використовуватись методи побудови простої лінійної регресії або логистичної регресії.

5) Для виявлення розбіжностей між кількома групами респондентів (наприклад, працівниками, керівниками та топ-менеджерами) використовуються методи дисперсійного та дискримінантного анализу. Отримані результати дають можливість виділити з усього різноманіття особливостей характеристик респондентів  тільки найбільш важливі, тобто, обумовлені його входженням (представництвом) в ту чи іншу групу. Для побудови групувань респондентів за найбільш важливими ознаками (котрі будуть виявлені під час обробки даних, або будуть спеціально визначені Замовником) можливо використання кластерного аналізу.

6) Багатомірний аналіз даних здійснюється із застосуванням факторного аналізу та багатомірного шкалюванням. На основі факторного аналізу виявляються комплексні фактори, які найбільш повно описують зв’язок між різними характеристиками респондентів. Указані комплексні методи латентні – вони не можуть бути виміряні безпосередньо за допомогою окремих питань анкети, а їх генерування відбувається шляхом виявлення багатьох зв’язків між характеристиками, які описуються за допомогою деякого набору анкетних питань. Використання методів багатомірного шкалювання  також дає можливість комплексних змінних (факторів) з подальшим графічним представленням об’єктів,  що вивчаються (наприклад, образ реального та ідеального керівника) в просторі цих змінних.

7) Застосування методів мережевого аналізу в маркетингових дослідженнях також дозволяє вирішити ряд додаткових завдань, пов’язаних із: • аналізом маркетингових комунікацій, • управлінням капіталом торгової марки (насамперед, соціальним капіталом), • аналізом процесів засвоєння нововведень, аналізом конкурентного ринкового середовища, • аналізом когнітивних карт споживачів. Використання та застосування в аналізі та підготовці звіту складних методів аналізу дозволяє нам забезпечити більш глибокий рівень аналізу та інтерпретації даних. Відзначимо, що на сьогодні дуже небагато компаній можуть запропонувати та якісно реалізувати факторний та кластерний аналіз, дисперсійний та дискримінантний аналіз, регресійний аналіз і, тим більш, метод мережевого аналізу. Як правило, аналіз завершується розглядом одномірних та двомірних розподілів. У тих випадках, коли дослідницькі компанії пропонують дані методи, їх використання передбачає істотну додаткову оплату. Підхід нашої компанії відрізняється прагненням забезпечити Замовнику глибоку аналітику. Він реалізується за рахунок використання під час аналізу всіх методів, які можливо та доцільно використовувати в даному дослідницькому проекті. При проведенні комплексу кількісних та якісних досліджень як додаткову послугу може бути запропонований порівняльний аналіз отриманої інформації та підготовка підсумкових висновків та рекомендацій.

7. Складність автоматизованого аналізу

8. Стаціонарні стохастичні дані.

Слово стохастический (от греч. στοχαστικός — «умеющий угадывать») используется во многих терминах из разных областей науки, и в общем означает неопределённость, случайность чего-либо.

  • В теории вероятностей итог стохастического процесса не может быть определен по изначальному состоянию системы.

  • В математике стохастическая матрица — это матрица, в которой все столбцы и/или строки — ряды неотрицательных действительных чисел, дающих 1 в сумме.

  • В физике, стохастический резонанс — это проявление эффекта допорогового периодического сигнала, из-за добавления беспорядочного (шумового) воздействия, имеющего определённую оптимальную амплитуду, при которой проявление наиболее сильно́.

  • В музыке. Стохастическая музыка — по Хиллеру — это название такого вида композиционной техники, при котором законы теории вероятности определяют факт появления тех или иных элементов композиции при заранее обусловленных общих формальных предпосылках. В 1956 году, Янис Ксенакис ввел свой термин «стохастическая музыка», для описания музыки, основанной на законах вероятностей и законах больших чисел.

Стохастические системы это системы, изменение в которых носит случайный характер. При случайных воздействиях данных о состоянии системы, недостаточно для предсказания в последующий момент времени.

Стохастический: Определение процесса, определяемого рядом наблюдений.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]