Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Кафедра - Методичка для магистров

.pdf
Скачиваний:
14
Добавлен:
03.03.2015
Размер:
873.27 Кб
Скачать

времени, чтобы родиться, и быстро возвращают занятую энергию, чтобы тут же исчезнуть. Когда же вакуум по какой-то причине в некоторой исходной точке (сингулярности) возбудился и вышел из состояния равновесия, то виртуальные частицы стали захватывать энергию без отдачи и превратились в реальные частицы.

Поэтому к концу фазы раздувания Вселенной образовалось огромное множество реальных частиц вместе со связанной ими энергией. Когда возбужденный вакуум разрушился, то высвободилась гигантская энергия излучения, а суперсила сжала частицы в сверхплотную материю. Все это произошло в период от 10-43с до 10-35с. В момент Большого взрыва огромная тепловая энергия компенсируется отрицательной гравитационной энергией масс, их разлетом. Иначе говоря, Вселенная рождается без нарушения закона сохранения энергии.

2.Еще в Древней Греции Левкипп (500-440 до н.э.) и Демокрит (460-370 до н.э.) создали учение, объясняющее происхождение и устройство Вселенной с помощью мельчайших невидимых и неделимых частиц – атомов, лежащих в основании всего сущего. Учение это было настолько убедительным, что даже церковь, несмотря на свое господство в средние века не смогла запретить его, , а потому была вынуждена лишь присовокупить к нему, что атомы создал Бог в первый день творения мира. Но подлинного триумфа данная теория достигла в ХIХ веке, когда получила экспериментальное подтверждение. Так, выдающийся отечественный химик Д.И.Менделеев создал периодическую таблицу химических элементов, в которой расположил элементы в зависимости от их атомного веса.

К началу 30-х годов ХХ столетия было установлено существование трех фундаментальных частиц, из которых слагается материя – протоны, нейтроны, электроны. Наряду с фотонами, квантами электромагнитного поля, они были названы элементарными частицами. В 1932 году в составе космических лучей был открыт позитрон (е+) с такой же массой, как у электрона (е-), но с противоположным значением электрического заряда. В этом смысле позитрон является античастицей электрона.

В 1936 году были обнаружены частицы, названные мюонами, с положительным и отрицательным зарядами, то есть частица и античастица. Мюоны по своим свойствам похожи на электроны и позитроны, но только в двести раз тяжелее их. А так как к строению вещества мюоны прямого отношения не имеют, то они показались ученым «лишними». Затем обнаружилось, что таких «лишних», подобно мюонам, частиц существует довольно много. Так, в 1947 году были открыты

положительно и отрицательно заряженные пи-мезоны, а в 1950 - нейтральные пи-мезоны, которые в 280 раз тяжелее электрона. А в период с 1949 по 1952 год открываются заряженные и нейтральные К-мезоны с массой в тысячу раз большей электрона. Таким образом, к концу 90-х годов число открытых частиц и античастиц значительно возросло.

Возникла проблема, как соотнести все эти открытые микрочастицы с нуклонами (протонами, электронами и нейтронами), из которых непосредственно образована материя? Принимали ли они участие в образовании вещества в качестве элементарных образований?

Ученые решили разделить частицы, принимавшие участие в структуре атома, от частиц, возникших примерно в одно и то же время, но не принимавших в нем участие, на «ядерные» и «субъядерные». Субъядерные, такие как мюоны, мезоны, гипероны и т.д. также возникли на ранней стадии эволюции Вселенной, когда материя была достаточно плотной и горячей, а потому образование ядер атомов еще не происходило. Соответственно, субъядерные частицы существовали не только в момент образования материи, но существуют и в настоящее время. Их отнесли к так называемому «реликтовому фоновому излучению».

Возросшее количество открытых новых частиц, вызвало необходимость в их классификации. В качестве отличительного признака деления был принят вид, или тип, взаимодействия – сильный и слабый. Сильное взаимодействие обусловлено очень сильным сцеплением нуклонов (протонов и нейтронов) в ядрах атомов, поэтому порождаемые ими процессы протекают с большой интенсивностью, из-за чего и получили название «сильного взаимодействия». Частицы, обладающие сильным взаимодействием стали называть адронами (на древнегреческом языке «адрос» означает большой, сильный). Подавляющее число субъядерных частиц относят к адронам. Частицы слабого взаимодействия, к которым относятся электроны, мюоны, тау-частицы и все нейтрино, назвали лептонами (от древнегреческого «лептос» - мелкий, тонкий).

Все элементарные частицы обладают очень маленькой массой и размерами. Так размеры протона, нейтрона, пи-мезона и др. адронов порядка 10-13см, а размеры электрона и мюона точно не определены, но они меньше 10-16см. Микроскопические массы и размеры элементарных частиц сравнимы с длинами волн де Бройля и даже меньше их, поэтому поведение элементарных частиц подчиняется законам квантовой и волновой механики, а понятие элементарной частицы связывают с их энергией и импульсом.

32

Элементарная частица – это квант поля, то есть плоская, возможно сферическая или другой формы, единичная волна. Представить её в качестве бесструктурного дискретного (прерывистого) образования, наподобие песчинки, крайне сложно, да и практически невозможно, прежде всего, потому что это сгусток энергии, находящийся в непрерывном движении. Но и абсолютизировать волновую характеристику элементарных частиц, также нельзя, поскольку идея «состоит из…» продолжает служить науке и приносить плоды. Так, благодаря ней были открыты новые частицы – кварки.

Идею кварков выдвинули в 1964 году Г.Цвейг и независимо от него М. Гелл-Ман, США. Вначале кварки трактовались как гипотетические прачастицы, из которых образовались адроны. Позже проводились эксперименты, в ходе которых потоками электронов стали бомбардировать протоны и обнаружили, что взаимодействие электронов с протоном не отвечает представлениям о протоне как целостном объекте размером 10- 13см. Рассеяние происходило так, как если бы электроны взаимодействовали с некими точечными объектами внутри протона, но которые при этом существовали независимо друг от друга. Так гипотеза Цвейга - Гелл-Мана нашла подтверждение и из гипотезы превратилась в теорию кварков. Согласно данной теории адроны образованы из кварков подобно тому, как ядра атомов образованы из протонов и нейтронов.

Современные физики, как и античные атомисты исходят из того, что всякий объект представляет собой целое, состоящее из частей, поэтому, чтобы понять природу целого, необходимо раскрыть и познать части, из которых оно состоит. Этот метод конструктивного анализа был воспринят вначале классической физикой, а затем релятивистской физикой и квантовой механикой, и продолжает работать по настоящее время. Но этот метод стал давать сбои, когда было открыто достаточно большое количество новых частиц и античастиц. Положение стало выглядеть сложным и запутанным. Ситуация изменилась лишь с открытием кварков, когда было установлено, что все адроны состоят из них как прачастиц вещества.

К настоящему времени известны 6 кварков, которых обозначили буквами u, d, c, s, t, b. Им соответствуют антикварки с отрицательными значениями образующие шесть пар кварков и антикварков. Наряду с кварками, пары лептонов и антилептонов составили фундаментальные частицы или первокирпичики, из которых произошла вся материя. В дальнейшем было также установлено, что природа кварков несколько сложнее, чем казалось прежде. Выяснилось, что каждый кварк может

выступать в одной из трех разновидностей, в зависимости от «заряда» сильного ядерного взаимодействия. «Заряд» сильного ядерного взаимодействия назвали «цветом», так как каждый кварк обладает «зарядом» синего, зеленого или красного цвета. Соответственно, каждый антикварк может иметь антицвет – антикрасный, антисиний, антизеленый «заряд» сильного взаимодействия. Это «заряды» основных цветов, но могут быть и неосновные цветовые «заряды».

При объединении кварков их цвета («заряды» сильного взаимодействия) соединяются так же, как в оптике, где сложение красного, синего и зеленого дает белый цвет. Поэтому тяжелые частицы (протоны и нейтроны) образуются соединением трех кварков основных цветов, чтобы в сумме получался белый цвет. Белый цвет может получиться и от сложения двух цветов, например, зеленого и пурпурного. Поэтому более легкие адроны, такие как мезоны, образуются соединением двух кварков. Из цветовых особенностей зарядов кварков вытекает особенность теории кварков, которую именуют хромодинамикой.

Таким образом, 6 кварков, каждый из которых может находиться в дном из трех состояний, в итоге дают 18 типов кварков. Существует столько же типов антикварков. Лептоны, как и кварки, тоже бесструктурные образования и обладают свойством симметрии: каждому лептону соответствует антилептон, кроме того, кварки одного поколения сопоставляются с лептонами того же поколения. Тогда общее количество фундаментальных прачастиц определяется суммой всех кварков и антикварков, лептонов и антилептонов.

Следует отметить, что современные физики, в отличие от античных атомистов, признававших бесконечное множество атомов самой разной формы, боятся стремительно нарастающего количества бесструктурных прачастиц, так как это все более противоречит принципу строения вещества из какого-либо ограниченного числа частиц. Желание объяснить всю сложность устройства Вселенной сведением к нескольким фундаментальным частицам, заставило некоторых ученых выдвинуть предположение, что и кварки и лептоны, в свою очередь, так же состоят из более мелких частиц - прекварков. Мысль о том, что последовательность все более мелких строительных кирпичиков неисчерпаема и конечных элементарных частиц не существует, все более укрепляется в сознании некоторых ученых и философов.

Косвенно об этом свидетельствует тот факт, что шесть вышеуказанных кварков отчетливо подразделяются и образуют как бы три поколения. К первому поколению относятся кварки u и d, ко второму – c и s, к третьему

33

– t и b. Выяснилось также, что квантовые параметры всех трех пар аналогичны, то есть природа как бы дублирует эти строительные блоки – второе и третье дублируют первое. Причем дублирование наблюдается и у соответствующих пар лептонов. Поэтому для объяснения всего вещества Вселенной достаточно только первой пары кварков (u и d) и первой пары лептонов (электрона е- и электронного нейтрино vс).

Кварки второго и третьего поколений последовательно тяжелее предыдущих, то есть кварки первого поколения самые легкие, энергетически выгодные для природы. Время существования микрочастиц, образованных из кварков второго и третьего поколений, очень мало, и они быстро превращаются в частицы, образованные из кварков первого поколения. Только микрочастицы, образованные из кварков первого поколения (u и d) и лептонов первого поколения (е-и vс) оказываются стабильными. Еще нужно учесть античастицы этих двух кварков и двух лептонов. Таким образом, из восьми фундаментальных прачастиц можно приблизительно объяснить строение всего вещества Вселенной.

3. Наличие определенного числа частиц формирующих вещество, а также происхождение Вселенной из точки сингулярности материи, так или иначе, наталкивает на мысль о существовании некоего «единого плана», по которому она как бы создавалась. Идея всеобщей предопределенности еще более укрепляется, когда начинаешь выяснять роль фундаментальных постоянных, лежащих в основании Вселенной.

Необходимо различать простые постоянные величины, от фундаментальных универсальных констант. Например, Земля имеет постоянную массу, но масса других планет значительно отличается от неё, следовательно, земная масса не может служить универсальной постоянной.

К фундаментальным постоянным относятся такие величины, которые остаются неизменными во всех точках Вселенной. Так масса электрона или протона всюду во вселенной одинакова, это – универсальные постоянные. Точно так же существуют системы, свойства которых зависят от тех или иных законов движения и различных начальных условий. Однако такие параметры любых систем как размер, масса, время жизни и другие, с точностью до порядка величины часто определяются исключительно значениями таких фундаментальных постоянных, как гравитационная постоянная, постоянная Планка, скорость света, масса электрона, масса протона и др.

Общее число универсальных постоянных невелико, но оказывается, что для довольно полного описания природы таких параметров требуется не так уж много. Чтобы лучше усвоить роль мировых констант в структуре

Вселенной рассмотрим несколько примеров. Вещество, из которого первоначально образовались звезды и галактики, состояло из водорода (3/4) и гелия (1/4). Все остальные более тяжелые химические элементы возникли в недрах звезд путем синтеза. Когда массивная звезда исчерпает запасы ядерного топлива (водорода), то дальнейшее гравитационное сжатие ядра становится невозможным, так как внутри него энергия сопротивления достигает максимальной плотности, и она взрывается. При этом выделяется огромное количество гравитационной энергии, большая часть которого уносится мельчайшими частицами нейтрино. Такая грандиозная вспышка называется сверхновой звездой. Взрыв сверхновой звезды разбрасывает по галактике обогащенное тяжелыми металлами вещество проэволюционировавшей звезды. Данное вещество становится строительным материалом для образования планет и новых звезд.

Весь этот процесс прямо связан и зависит от мировых констант. Только при существующем значении постоянной слабого взаимодействия (g ) нейтрино способны вызвать взрыв сверхновой и разбросать её оболочку в пространстве. Если бы значение этой величины было бы чуть меньше существующего, то потоки нейтрино не были бы столь мощными, чтобы взорвать звезду. А если бы значение этой постоянной было бы чуть больше, то потоки нейтрино вступили бы во взаимодействие с ядром звезды и были бы захвачены им, и тоже не смогли бы привести к взрыву.

В аналогичной зависимости от мировых констант находятся и другие структуры Вселенной. Например, Солнце и другие звезды светят благодаря определенной последовательности ядерных реакций, которые начинаются со слияния двух протонов и образования дейтерия, позитрона и нейтрино. Если бы значение постоянной сильного взаимодействия (gs) было бы меньше на 5% от существующего, то дейтерий не мог бы существовать, так как его кинетическая энергия превышала бы энергию связи протонов. Но если бы gs превышало существующее значение всего на 2%, то возникли бы более серьезные последствия, чем при ослабленном значении. В таком случае происходил бы катастрофически быстрый расход водорода в звезде, и она эволюционировала бы в 1018 раз быстрее. А тогда бы весь водород Вселенной был бы выжжен еще на стадии ранней (горячей) Вселенной со всеми вытекающими отсюда последствиями. В частности, живая материя не смогла бы возникнуть.

К числу универсальных постоянных относится космическое отношение числа фотонов на один протон: S = 109/1, то сеть на один протон приходится один миллиард фотонов. Это отношение возникло уже в первые секунды от начала расширения Вселенной и сохраняется до сих

34

пор. Оно характеризует меру энтропии во Вселенной на один протон и также определяет её важные свойства. В частности – существование галактик и указанное выше отношение по массе между водородом (3/4) и гелием (1/4). В свою очередь данное соотношение играет важную роль для нашей Вселенной.

Большое значение для устройства Вселенной имеет еще одна постоянная возникшая в первые секунды от начала расширения Вселенной, – это число протонов (N) находящихся в радиусе Хаббла. Количеством этих частиц выражается плотность вещества, от которой зависит геометрия Вселенной и её судьба. Если бы N = 1086, (а не существующее 1080), то космологическое расширение Вселенной длилось бы только 108 лет и тогда наша Вселенная давно бы коллапсировала. А если бы N = 1077, то Вселенная расширялась бы более быстрыми темпами, чем сейчас, что значительно затормозило бы образование галактик. Тогда бы структура Вселенной была бы совсем иной.

Гравитационная постоянная очень мала, поэтому гравитационные взаимодействия очень слабы. Так гравитационное взаимодействие между двумя атомами примерно на 40 порядков слабее электромагнитных взаимодействий. Но будь гравитация значительно сильнее, структура Вселенной коренным образом изменилась бы. Например, все звезды были бы только голубыми гигантами, возле которых жизнь невозможна. Еще хуже то, что Вселенная в целом была бы неустойчива к гравитационному коллапсу и, вероятно, сколлапсировала бы задолго до современной эпохи. А если бы гравитационная постоянная была бы чуть больше, то её существование было бы невозможно. Таким образом, все это доказывает, что фундаментальные постоянные чуть ли не однозначно определяют строение и свойства физических объектов Вселенной. А поскольку все эти мировые константы возникли еще на ранних этапах формирования Вселенной, когда всех этих объектов еще не было, то есть все основания утверждать, что они предопределяют структуру нашей Вселенной.

Вопрос о происхождении Вселенной, хотим мы того или нет, имеет большое мировоззренческое значение. Поэтому часто проводимые аналогии между современными научными теориями и старыми философскими решениями данного вопроса вполне уместны и не лишены смысла. Это объясняется тем, что современная наука не обладает достаточными фактами, чтобы в полной мере осветить процесс происхождения Вселенной, а потому вынуждена компенсировать их умозрительными построениями, которые являются сугубо гипотетическими. Особенно это очевидно в вопросе начала, когда

искусственно конструируется некий физический вакуум, наполненный виртуальными частицами. Понятно, что виртуальные частицы, находящиеся в охлажденном вакууме – это научная гипотеза, а не экспериментально установленный и доказанный факт. Более того, такая теория мало чем отличается от древних философских и религиозных представлений, возникших еще в глубокой древности.

Так в древнекитайской «Книге перемен» говорится, что все во Вселенной происходит из дао. Дао бестелесно, туманно и неопределенно. Однако в его туманности и неопределенности содержатся образы и вещи. Различие лишь в том, что в ней Бога заменил физический вакуум, который по непонятным причинам в определенный момент возбуждается, а частицы начинают взаимодействовать.

Аналогичные идеи сформировались и в древнеиндийской, и древнегреческой философии. В комментариях к ведическим текстам «Араньяки» вводится важнейшее для древнеиндийской философии понятие «атман» в качестве универсального исходного начала, из которого возникает весь мир, включая человека. В древнегреческой философии Анаксагор и Эмпедокл также считали, что весь мир произошел из хаоса. И, наконец, пожалуй, одним из самых известных источников, в которых постулируется сотворение мира из ничего, является Библия.

Все это свидетельствует о том, что проблема происхождения Вселенной не может быть решена частнонаучными средствами, поскольку здесь речь идет о событии, которое в принципе невозможно полностью реконструировать с помощью эмпирических данных, так как они всегда будут охватывать и освещать лишь отдельные стороны и факты. А это значит, что без помощи философии современной космологии в решении данного вопроса обойтись никак нельзя.

Не удивительно, что французский ученый, философ Тейяр де Шарден пришел к аналогичному выводу в своей книге «Феномен человека», что Вселенная возникла из некой точки вселенной, которую он определяет как некое существо Альфа, положившее начало всему миру. Идеи космоцентризма также высказывались отечественными учеными В.И.Вернадским, Э.К.Циолковским, А.Л.Чижевским. Согласно космоцентризму, все сущее, включая человека, объединяется единым космическим целым, поскольку все существующее имеет космическое происхождение. Именно необходимость включения человека в научную картину мира, в конечном счете, привело к утверждению в науке антропного принципа.

35

4. Начиная с ХVII века в науке утвердилось понятие объективности, согласно которому внешний мир существует независимо от человека. Данное обстоятельство в естествознании воспринималось как доказательство строгости и точности научных законов, которые не подчиняются прихоти субъекта. Однако в ХХ веке ряд ученых подвергли сомнению данное положение, считая, что строение физического мира неотделимо от обитателей, наблюдающих его, и неотделимо в самом фундаментальном смысле.

Они утверждают, что действительно существует некий принцип, осуществляющий невероятно тонкую подстройку Вселенной, но это не физический, а антропный принцип. Такую мысль развивали А.Эддингтон, П.Дирак, Дж. Барроу, Р.Дикке, Б.Картер и др.

Р.Дикке одним из первых привлек биологию для объяснения непонятной особенности Вселенной, которая весьма специфична. В 1961 году он заявил об ошибочности поисков физического объяснения особенностей Вселенной. Очевидно, что существование человека напрямую зависит от возраста Вселенной. Поэтому современный её возраст можно взять в качестве характерной эпохи t now .Согласно Р.Дикке, жизнь во Вселенной не может возникнуть раньше, чем проэволюционирует хотя бы одно поколение звезд и рассеется по галактике вещество, содержащее углерод, кислород и другие химические элементы, необходимые для возникновения живой материи. После образования обычной звезды второго поколения начнется звездное время(t*), когда возникает возможность зарождения жизни. Это значит, что для зарождения жизни на земле должно было произойти достаточно много изменений во Вселенной и совпасть множество факторов, которые сделали возможным её возникновение, поскольку вопрос о становлении человека напрямую зависит от универсальных фундаментальных величин. Рассуждения Р.Дикке были научно доказаны и подтверждены установлением связи между обратной величиной гравитационной постоянной тонкой структуры и возрастом современной Вселенной (выраженным в единицах ядерного комптоновского времени).

Аргументы Р.Дикке обосновывают, что гравитационная постоянная тонкой структуры в качестве мировой константы детерминирует эволюцию Вселенной в направлении, ведущем к возникновению человека. И что возникновение человека становится возможным тогда, когда возраст Вселенной (tnow) сравняется с числовым значением аG-1. В общем виде антропный принцип Дикке можно сформулировать так: наше существование как наблюдателей, состоящих из соединений углерода,

доказывает, что появление человека стало возможным лишь тогда, когда Вселенная достигла определенного уровня развития.

Характеристику антропного принципа, предложенную Р.Дикке, Б.Картер обозначил как слабый антропный принцип. Взамен Картер предложил свою, назвав её сильным антропным принципом. В его формулировке принцип звучит так: «Вселенная (и, следовательно, фундаментальные параметры, от которых она зависит), должна быть такой, чтобы в ней на некотором этаже эволюции допускалось существование наблюдателя».

Подводя итог, можно сказать, что антропный принцип в науке с необходимостью требует учитывать тот факт, что научные знания в той или иной мере зависят от человека. Не учитывать данного обстоятельства нельзя. С этой точки зрения антропный принцип не вызывает больших споров и возражений. Спорным остается вопрос, как и насколько с ним следует считаться. С одной стороны, его безоговорочное признание плохо согласуется с идеей объективного и независимого от человека познания, а с другой, здесь легко впасть в иную крайность и поставить все знание в полную зависимость от человека, чего также допускать нельзя, так как это стирает грань между научным знанием и ненаучным. Следует отметить, что данный вопрос в философии и в науке до сих пор не получил должного решения и остается дискуссионным.

КОНТРОЛЬНЫЕ ВОПРОСЫ

10.Теория инфляционной (раздувающейся) Вселенной.

11.Элементарные частицы и устройство материи.

12.Четыре вида взаимодействия.

13.Роль фундаментальных постоянных в структуре Вселенной.

14.Соотношение философских концепций происхождения и устройства Вселенной и современные научные представления.

15.Роль философии в формировании современной научной картины мира.

16.Философия и наука: взаимодействие, проблемы и противоречия.

ЛИТЕРАТУРА

1. Идлис Г.М. От антропного принципа к разумному первоначалу. / В кн.: Глобальный эволюционизм. – М. 1994. С. 124-139 .

36

2.Концепции современного естествознания. Лавриненко В.Н., Ратников В.П., Баранов Г.В. Под ред. В.Н. Лавриненко. М. 1999. - 303 с.

3.Концепции современного естествознания. Мотылева Л.С., Скоробогатов В.А., Судариков А.М. СПб, 2000. - 318 с.

5.Концепции современного естествознания. Под ред. С.И.Самыгина. Ростов-на-Дону. 2002. - 344 с.

6.Современное естествознание. Энциклопедия в 10 т. М. 2000. Т. 4. - 280 с.

ГЛАВА 4. СТРУКТУРА И МЕТОДЫ НАУЧНОГО ПОЗНАНИЯ.

1.Формы и уровни развития научного знания.

2.Верификация и фальсификация как критерии научного знания.

3.Место и роль метода в научном познании.

4.Общая классификация методов.

1.Структура научного знания. Современное научное знание представляет собой сложноорганизованную и многоуровневую систему, в структуре которой необходимо различать четыре уровня развития: всеобщий, общий, частный, индивидуальный, и две формы организации – общенаучную и частнонаучную. Общенаучная форма организации связана

свнешней интеграцией научного знания, а частнонаучная – с внутренней дифференциацией науки на частнонаучные дисциплины. Общенаучной форме организации соответствуют всеобщий и общий уровни интеграции научного знания.

Общенаучная форма организации знания представляет собой два уровня интеграции научного знания - всеобщий и общенаучный. На всеобщем уровне человек предстает как единый «субъект познания», как носитель мышления, чистая индифферентная познавательная способность, которой противостоит мир как всеобщий и пока еще внутренне недифференцированный объект познания, как все то, на что направлено научное познание. С этой точки зрения весь мир в своей целостности и неделимости выступает, как всеобщий объект познания и является выражением всего того, что познается наукой или может быть объектом познания. Соответственно, понятие «всеобщий объект» включает в себя все объекты познания, которые пока еще никак не дифференцированы. Обладая предельно широким объемом, оно в то же время имеет минимум конкретного содержания. На этом уровне понятия субъект, объект, наука, познание выступают как предельно абстрактные категории, потому что в

них не указывается конкретно о каком субъекте или объекте идет речь, но подразумевается любой субъект, объект или наука.

На второй ступени всеобщий объект как чистый объект познания наполняется более конкретным содержанием и дифференцируется на общие объекты, входящие в его структуру в качестве подсистем. Они обладают меньшей универсальностью, но зато большей конкретностью. Такими общими объектами познания являются – природа, общество, человек, техника. Каждый из них представляет собой относительно самостоятельную подсистему и выступает в качестве общего объекта познания целого комплекса наук. В зависимости от общих объектов познания все науки дифференцируются и образуют три больших комплекса: естественные, социально-гуманитарные и технические. Соответственно, общим объектом познания естественных наук является природа, социально-гуманитарных – человек и общество, технических – технические конструкции и изобретения.

К общенаучной форме организации научного знания относятся различные образовательные учреждения – институты, университеты, академии, а также международные конгрессы, конференции, симпозиумы, в ходе которых представители различных наук из разных стран обмениваются мнениями по разным вопросам и проблемам. Средства накопления и передачи знания – библиотеки, журналы, интернет. Все это создает возможность для относительно равномерного развития науки на мировом уровне. В то же время каждая наука, входящая в комплекс наук, какой бы развитой она ни была, является частной, поскольку изучает лишь часть, отдельную сторону общего объекта как единого целого. Что непосредственно связано с переходом с общенаучной формы организации знания на частнонаучный.

Частнонаучная форма организации знания. На этом уровне происходит дальнейшая конкретизация и дифференциация наук, которые рассматриваются в качестве частных наук: физика, химия, медицина, экономика и т.д. Все науки являются частными, потому что изучают лишь некоторую часть или отдельный аспект общего объекта. Так медицина изучает болезнетворные процессы, происходящие в живом организме, физика законы природы, биология законы развития живых организмов и т.д., то есть каждая из них изучает отдельные стороны природы как общего объекта познания. Соответственно, та сторона, которая изучается отдельной наукой и составляет её собственный предмет исследования. Благодаря собственным предметам познания все науки отличаются друг от

37

друга. У двух разных наук не может быть одного и того же предмета исследования.

Между тем, каждая фундаментальная наука, в свою очередь, также представляет собой сложноорганизованный комплекс частнонаучных дисциплин, изучающих общий предмет науки, а входящие в неё дисциплины образуют единую структуру. Поэтому необходимо различать общий объект познания от общего предмета – это две разных формы организации научного знания.

Соответственно, внутри науки также происходит дифференциация на ряд частнонаучных дисциплин, каждая из которых имеет свой частный предмет познания. Так, каждая медицинская дисциплина изучает не весь организм, а отдельные части и заболевания конкретного органа, который является её частнодисциплинарным предметом познания. Частнонаучные дисциплины с их частными предметами познания формируют самый нижний уровень развития научного знания – индивидуальный. На этом уровне происходит непосредственный контакт с познаваемым предметом, накапливаются отдельные факты, собирается информация, изучаются свойства и признаки предмета. Поэтому его принято характеризовать как эмпирический или практический, прикладной. Важно понять, что все четыре уровня развития научного знания представляют собой, с одной стороны, уровни обобщения и систематизации, а с другой, - конкретизации

идифференциации.

2.Одной из сложнейших проблем научного познания является проблема демаркации (разграничения) научного знания и ненаучного. Первыми попытку выработки критерия научного знания предприняли представители третьей волны позитивизма: Г.Фреге, Б.Рассел и «ранний» Л.Витгенштейн. В статье «Смысл и значение» Фреге разводит понятия смысла и значения, доказывая, что смыслом могут обладать лишь предложения, а слова – значением. Он также сформулировал задачу разработки искусственного языка науки, который должен был принципиально отличаться от обыденного, естественного языка. Главным недостатком естественного языка, по мнению Фреге, была его многозначность, которая неизбежно порождала двусмысленность и, как следствие, вела к ошибкам и противоречиям. Поэтому необходимо было создать такой язык, в котором каждое высказывание обладало бы строго определенным, однозначным смыслом.

Эту идею подхватили и развили Рассел и «ранний» Витгенштейн. Они разграничили все высказывания на осмысленные и бессмысленные. К осмысленным высказываниям отнесли те, смысл которых очевиден и

выражен недвусмысленно. Те же высказывания, как например, в философских учениях, в которых смысл недоступен и непонятен, были объявлены бессмысленными. Соответственно, все научные высказывания стали считаться осмысленными, а ненаучные – бессмысленными. Такое разграничение, как казалось, должно было упростить задачу построения искусственного языка науки.

Истинность научного высказывания гарантировалась эмпирическими фактами, поскольку оно опирается на знание об окружающем мире. Например, высказывание «Волга впадает в Каспийское море» является истинным и, следовательно, научным, поскольку оно соответствует реальности. Если же высказывание не опирается на эмпирические факты, то в отношении него нельзя точно сказать, является ли оно истинным или ложным, тогда оно бессмысленно и не может считаться научным. Следует отметить, что в основании подобных рассуждений лежит традиционное, восходящее еще к Аристотелю, представление об истине как соответствии внешнему миру, которое также называют истиной-соответствием или истиной-корреспонденцией. Таким образом, каждое научное высказывание должно опираться на эмпирический факт, служащий его верификатором. В случае нашего высказывания сам факт, что Волга впадает в Каспийское море, служит доказательством или верификатором его истинности.

Вдохновленные таким подходом Рассел и Витгенштейн пришли к выводу, что можно создать искусственный язык науки, в котором каждое высказывание будет описывать или опираться на какой-либо факт, подтверждающий его истинность или, наоборот, ложность, а тогда и весь язык в целом можно будет считать научным. А так как искусственный язык науки опирался на эмпирические факты, служившие его фундаментом, то вся программа по своей сути была индуктивистской, поскольку исходила из единичных точных данных и стремилась путем их обобщения, возвести здание единого универсального языка науки. Однако чем дальше продвигался Витгенштейн в решении данной проблемы, тем больше он убеждался в том, что создание подобного универсального языка науки невозможно. И это связано, прежде всего, с традиционным представлением об истине как соответствии внешнему миру, что составляет основу эмпирической концепции истины. Выяснилось, что не все, что находит себе подтверждение во внешнем мире, является истинным.

Дело в том, что не все факты можно проверить опытным путем, поэтому там, где это невозможно остается полагаться на веру и верить, что это так и есть на самом деле. Например, опыт говорит нам о том, что

38

Солнце вращается вокруг Земли, причем в этом может убедиться каждый человек, достаточно просто встать рано утром и увидеть это своими глазами. И наоборот, мы не видим, что именно Земля вращается вокруг Солнца, но верим этому, так как это доказана наукой. А тогда получается, что опыт вовсе не является таким надежным критерием, как это казалось прежде, и в языке имеется множество понятий и высказываний, которые с помощью опыта верифицировать невозможно, несмотря на это, в их истинности никто не сомневается.

Принцип верификации и концепция истины-конвенции.

Задача разработки искусственного языка науки была во многом поддержана и развита в дальнейшем представителями знаменитого Венского кружка (М. Шлик, Р. Карнап, О. Нейрат и др.). Они расширяют понятие верификации, не ограничивая его понятием опыта. Научные факты, а наряду с ними все законы, теории и правила также становятся верификаторами фактуальных высказываний. Так, правило инерциального движения гласит, что тело может двигаться равномерно и прямолинейно до бесконечности, если на него не оказывают никакого воздействия извне. Проверить истинность этого правила на опыте невозможно, тем не менее, мы верим в его истинность, так же как верим в истинность большинства научных законов, несмотря на то, что не всегда имеем возможности их проверить. Следовательно, на первый план выходит уже не столько опытная проверка знания, сколько вера в истинность тех или иных научных высказываний.

Принцип верификации в этой связи приобрел новое звучание, согласно которому истинность всякого небессмысленного высказывания может быть надежно установлена сведением к «протокольным предложениям», опирающимся на фактуальные научные высказывания, подкрепленные законом или правилом, либо описывающим эмпирические данные (sensdata). Такое расширение привело к переосмыслению понятия истины, так как уже невозможно было далее опираться на концепцию истиныкорреспонденции, отсылающую к внешней эмпирической реальности. Истина-корреспонденция была дополнена теорией истины как результата конвенции или соглашения научного сообщества, поскольку стало ясно, что истинность того или иного высказывания уже невозможно как прежде напрямую связывать с внешним миром и ставить в зависимость от него. Истина-конвенция в науке впервые была выдвинута А.Пуанкаре и П.Дюгемом, а в философии и методологии науки представителями венского кружка Р.Карнапом, О.Нейратом и др. Казалось, что такое расширение должно было, наконец, привести к успешному решению

поставленной задачи. Однако подобное расширение понятия верификации тут же привело к прямо противоположному эффекту, спрашивается, чем в таком случае, научные законы отличаются от религиозных постулатов, которые также зиждутся на вере. К тому же в такой ситуации роль научного авторитета становится такой же, как и в церкви роль пастыря. Очевидно, что с таким же успехом можно в равной мере верить как в истинность научных законов, так и религиозных догматов, полагаясь на авторитет ученого.

Все это поставило под сомнение правильность и надежность предложенного принципа, в качестве критерия демаркации научного знания и сразу же подверглось критике научной общественностью. С мощной критикой принципа верификации выступил К.Поппер, предложивший взамен ему принцип фальсификации.

Принцип фальсификации.

Существенным недостатком принципа верификации Поппер считал то, что при желании можно верифицировать все что угодно, ведь люди в равной степени верят, как в истинность научных законов, так и в существование Бога. Например, богословие считает себя строгой наукой, поскольку располагает, как логическими аргументами, так и достаточным эмпирическим материалом, свидетельствующим об истинности большинства его постулатов и догм. Многочисленные чудеса, описания очевидцев, вещи, подтверждающие события многовековой давности – все это убедительно доказывает существование Бога. А тогда получается, что между наукой и религией, откровенно говоря, принципиального отличия с помощью принципа верификации установить невозможно.

В противоположность верификации Поппер выдвинул принцип фальсификации. Суть его заключается в следующем: лишь то высказывание может считаться научным, которое поддается опровержению и, наоборот, нефальсифицируемые (то есть те, для которых нельзя указать метод опровержения) утверждения ненаучны. По мнению, Поппера, принцип верификации изначально ориентирован лишь на подтверждение истинности тех или иных утверждений и не способен противостоять ложным высказываниям, которые зачастую просто навязываются научному сообществу без предварительной проверки. Так, классическая картина мира на протяжении столетий считалась абсолютной в немалой степени потому, что держалась на плечах великих ученых, авторитет которых для многих поколений ученых считался непререкаемым, и они просто верили им, не подвергая сомнению выдвинутые ими постулаты. Понадобилось произвести подлинную

39

революцию, не только в науке, но и в сознании, чтобы сменить её релятивистской космологией.

Исходя из этого, Поппер делает вывод, что какого-либо абсолютного знания не существует и быть не может, для чего использует понятие Ч.Пирса фаллибилизм, которое означает принципиальную погрешимость научного знания. Но в отличие от Пирса, который использовал его в отношении обыденного знания, Поппер распространил его также и на научное знание, утверждая, что нет, и не может быть, такого знания, выраженного в законах, теориях или правилах, которое было бы застраховано от критической проверки и опровержения. Поэтому свое учение он определил как «критический рационализм».

Под критической проверкой и опровержением он имел в виду выявление в теории логических противоречий, слабых мест и несостыковок, которые вскрывают его ограниченность. После чего проводится, так называемый «решающий фальсифицирующий эксперимент», который окончательно опровергает теорию, как ложную, доказывая её несостоятельность. Поэтому история науки представляется ему как история взлетов и падений, триумфов и катастроф. Соответственно, задача науки заключается не в том, чтобы копить доказательства и факты, подкрепляя ими устаревшие истины, а наоборот, честно и бескомпромиссно критиковать и опровергать их. И лишь то знание имеет право считаться научным, которое пройдет сквозь горнило подобной проверки.

Допустим, выдвигается некая теория, которая претендует на универсальность. Тогда она должна уметь объяснять не только те факты, которые с ней согласуются, но и вскрывать такие, которые она объяснить не в состоянии. Как правило, ученый, выдвинувший теорию, либо не видит в ней недостатков, либо не хочет видеть, что, собственно, одно и то же. Чтобы избежать искусственной подгонки фактов под теорию, её необходимо подвергнуть критическому анализу. Первый путь – эмпирический, связан с экспериментальной проверкой теории. Например, обнаруживается факт, который противоречит постулатам выдвигаемой теории, что дает повод усомниться в её истинности. Тогда для проверки проводится эксперимент, который должен дать ответ о её истинности. Второй – рациональный, основан на логической проверке выдвигаемой теорией аргументации. Не всегда бывает так, что новую теорию можно проверить экспериментально. В таком случае её можно подвергнуть логическому анализу с целью обнаружения внутренних противоречий. А так как всякая теория представляет собой логическую конструкцию,

состоящую из множества взаимосвязанных умозаключений, опирающихся на какие-либо факты, то их всегда можно фальсифицировать и подвергнуть логической проверке на противоречивость. Фальсификация хотя бы одного постулируемого теорией факта способна поставить под сомнение её истинность. Таким образом, проверка с целью выявления логических противоречий во всякой теории, подкрепленная экспериментом, становится главным требованием и сутью метода фальсификации.

В то же время, сама постановка вопроса и требование признания принципиальной погрешимости научного знания вызвали мощную критику и неприятие в научном сообществе. Если признать, что лишь то знание является научным, которое поддается опровержению и изначально обладает погрешностью, то это ставит под сомнение сам факт существования научного знания, потому что тогда в принципе невозможно будет отличить научное знание от ненаучного. Между тем, именно законы, теории и правила составляют основу научного знания. В пылу полемики Поппер явно переоценил необходимость опровержимости научного знания, строя свою концепцию в пику верификации, он оказался слишком зависим от неё, переставив оценки со знака плюс на знак минус. Если у позитивистов опыт служит средством подтверждения истинности, то у него – опровержения, если у них теория есть результат конвенции, соглашения, то у него, наоборот, она должна изначально быть признана погрешимой и подвергнута критической проверке, чтобы её можно было бы опровергнуть. Несмотря на это, идеи Поппера вызвали широкий резонанс в обществе и были продолжены и развиты его учениками и последователями: И.Лакатосом, Т.Куном, П.Фейерабендом.

3. Впервые методы возникли еще в древности. Уже в Древней Греции проводили различие между «докса» мнением, опирающимся на обыденное знание и «эпистеме» как истинным знанием, использующим приемы рационального доказательства. На этой почве Аристотелем впервые была создана логика как доказательная наука. Соответственно, первые логические методы познания также были созданы в Древней Греции, но поскольку они носили исключительно рациональный характер, то к действительности практически не применялись. В связи с чем, логика (а вместе с ней и рациональные методы познания) на протяжении тысячелетий была символом схоластического, т.е. отвлеченного от реальной жизни, мышления.

Подлинное значение и роль методов в процессе научного познания стало раскрываться с формированием естествознания в Новое время, когда

40

метод был объявлен орудием познания природы. Но даже после этого методы так и не стали предметом самостоятельного научного и философского познания, поэтому методология как учение о методе, возникла только в ХХ веке. Во многом это было обусловлено стремительным развитием науки и техники, что привело к возникновению практики научного познания. Методы выступили связующим звеном между теорией и практикой, с одной стороны, они разрабатывались на общенаучном, теоретическом уровне, а с другой, - с их помощью теоретические положения находили реализацию на практике. Поэтому в настоящее время между теорией и практикой нет непреодолимой пропасти, наоборот, они представляют собой две стороны одной медали. Если теория не находит себе выхода на практику, то она утрачивает научную ценность и постепенно отходит на второй план, уступая более дееспособным и эффективным теориям. И наоборот, практика, не опирающаяся на развитую научную теорию – не имеет ничего общего с наукой и является скорее продуктом обыденного знания.

В науке познание осуществляется с помощью методов. Метод – это система упорядоченных приемов и операций, ведущих к познанию существенных свойств и признаков изучаемого предмета. Таким образом, метод всегда направлен на познание какого-либо объекта или предмета.

4. Все методы различаются по степени охвата и универсальности применения, поэтому их можно распределить на три группы: универсальные (общенаучные), теоретические и прикладные. Общенаучными являются универсальные философские методы, которые используются во всех сферах научного познания. Без них научное познание невозможно. В отличие от универсальных общенаучных методов, теоретические методы могут быть ограничены какой-либо конкретной сферой научного познания и не всегда распространяются на другие области науки. Так математические методы используются преимущественно в естественных и технических науках, а в гуманитарной сфере их применение ограничено. И наконец, прикладные методы имеют большую точность, так как применяются в локальной сфере и к конкретному предмету, что в то же время ограничивает их соответствующими условиями.

Анализ – это разложение целого на составные части, с целью изучения каждой части в отдельности. Анализ может осуществляться как мысленно, так и практически. Например, для изучения внутреннего строения организма его делят на части. Но есть вещи, которые невозможно разделить на части практически, поэтому их делят на части мысленно.

Синтез – это противоположная анализу процедура. Здесь разрозненные части объединяют в единое целое. Синтез также может быть как реальным, так и мысленным.

Абстрагирование – это всецело мыслительная операция, в ходе которой в изучаемом предмете выделяют какие-либо одни свойства и признаки, и одновременно отвлекаются от других. Например, в высказывании «круглый стол» выделяют форму стола, и в то же время отвлекаются от остальных его свойств: материала или предназначения. Абстрагирование подготавливает почву для обобщения.

Обобщение - это такая процедура, в ходе которой полученные факты, объединяются и систематизируются по какому-либо признаку. Например, обобщая, столы можно объединить по форме на три вида: круглые, прямоугольные и треугольные. Главным недостатком обобщения является то, что оно может строиться по произвольно выбранному признаку.

Индукция – это логическая операция, в ходе которой мысль движется от частных фактов к общему выводу. В отличие от обобщения, индукция более строгий метод познания, поскольку здесь объединение происходит на основании только существенных признаков. Например, электропроводность существенный признак металла, после проверки всех металлов пришли к общему выводу, что все металлы электропроводны. Различают два вида индукции – полную и неполную. Пример с металлами - это вывод полной индукции, так как были изучены все известные металлы. При неполной индукции обобщающий вывод строится на базе изучения некоторой части предметов определенного класса. Поэтому только полная индукция имеет характер истинностного знания, в то время как выводы неполной индукции являются вероятностными и требуют дополнительной проверки.

Дедукция – противоположная индукции операция, в ходе которой мысль движется от общего к частному. Выводы дедукции являются истинностными, поскольку их истинность обусловлена истинностью общих положений и законов, из которых она исходит. Например, «все металлы электропроводны, – никель металл, следовательно, он электропроводен». В то же время недостатком дедукции является то, что она не приводит к рождению нового знания, так как исходит из уже известных положений. Только индукция ведет к рождению нового знания, но сам процесс порождения нового знания до сих пор остается не раскрытым.

Идеализация – это мыслительная процедура, в ходе которой в изучаемом предмете определенные свойства и признаки возводятся до

41