Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

0857

.pdf
Скачиваний:
22
Добавлен:
04.03.2016
Размер:
1.18 Mб
Скачать

высказал японский физик Нагаока в 1904 году. Согласно такой «планетарной модели» электроны вращаются вокруг положительно заряженного ядра. Но такой атом получается очень неустойчивым, что противоречит фактам. Поэтому «планетарная модель» поначалу не привлекла к себе должного внимания. Но в результате опытов, проведенных в лаборатории английского физика Э. Резерфорда (1871 - 1937) в 1909-1910 годах «планетарная модель» атома получила подтверждение.

Модель атома Резерфорда была следующей: в центре расположено положительно заряженное ядро размером порядка 10-13 см., вокруг которого вращаются электроны, число которых таково, что общий заряд атома равен 0, и это число соответствует порядковому номеру элемента в периодической системе Менделеева. Однако модель Резерфорда также не объясняла, почему атом устойчив. Ведь согласно электродинамике, вращающиеся электроны должны терять энергию и падать на ядро.

Для того чтобы объяснить, почему этого не происходит, пришлось выйти за рамки классической физики и вступить на почву квантовой теории.

В 1913 году датский физик Нильс Х.Д. Бор (1885 - 1962) внес в планетарную модель атома принципиально новые идеи, получившие название «постулатов Бора».

Первый постулат. Каждый электрон может совершать устойчивое движение по определенной стационарной орбите, не испуская и не поглощая электромагнитного излучения.

Второй постулат. Если электрон переходит с одной орбиты на другую, то он испускает или поглощает определенную порцию энергии, величина которой будет кратной кванту энергии ħv:

En- Em = ħv

En и Em обозначают значения энергий стационарных орбит, ħv – энергию фотона, или квант энергии.

Дискретность и непрерывность

В самом начале 20 века немецкий физик Макс Планк (1858 - 1947) пришел к идее дискретного характера излучения и поглощения энергии. Это значит, что энергия излучается и поглощается не в каких угодно количествах, а определенными порциями. В 1905 году к такому же выводу пришел А. Эйнштейн, исследуя явление фотоэлектрического эффекта (когда свет падает на определенные металлы, выделяются заряженные частицы). Энергия распределяется строго определенными порциями, которые Планк назвал «квантами» (от лат. quantum - сколько). Это похоже на магазин, где вы не можете купить сахар или муку в тех количествах, в каких вам захочется, но только в расфасовке по полкило. Физик Георгий Гамов заметил по поводу дискретности энергии волн: это подобно тому, как если бы природа разрешала нам либо пить целый литр пива, либо не пить вовсе, не допуская промежуточных доз.

Энергия излучения стала определяться по формуле

E = n ħ v

где n – число испущенных квантов, ħ - та самая строго определенная порция энергии, высчитанная Планком и названная «постоянной Планка», v – частота излучения. Поскольку Планк полагал, что распределение энергии на дискретные части является лишь вспомогательным математическим приемом, смысл «постоянной Планка» был поначалу неясен ему самому. Но устранить эту величину не удалось. Получается, что Лейбниц был неправ, утверждая, что «природа не делает скачков». Оказывается, что на уровне микромира природа скачет, и очень активно. По убеждению Планка, амплитуда скачков энергии растет по мере увеличения частоты волны (то есть уменьшения ее длины). Но нам эти скачки практически незаметны, так как «постоянная Планка» - это ничтожно малая величина. Если бы она была больше, то квантовые скачки стали бы обычным явлением макромира, а значит

41

и нашей повседневной жизни. Жить в таком мире было бы крайне неудобно, если вообще возможно. Но поскольку энергия расфасована очень маленькими порциями, мы можем, слушая музыку, ублажать себя иллюзией, что энергия звуковой волны изменяется непрерывно, хотя на самом деле переход от одного уровня громкости к другому происходит скачкообразно.

«Постоянная Планка» наводит на мысль, что существуют своеобразные «атомы энергии». Эту идею и воспринял Эйнштейн, когда стал утверждать, что свет испускается строго определенными пакетами, или в виде дискретных микроскопических объектов – квантов света, которые и были названы Гильбертом Льюисом «фотонами». Таким образом, Эйнштейн показал, что гипотеза Планка отражает фундаментальное свойство электромагнитных волн: эти волны состоят из частиц – фотонов. Дискретность энергии объясняется тем, что электромагнитные волны состоят из дискретных объектов. Получается, что свет обладает как волновыми, так и корпускулярными свойствами, что очень странно, ибо в привычном нам мире эти свойства считаются взаимоисключающими. Такой подход, идеи которого были впервые высказаны Эйнштейном в 1909 году, получил название корпускулярно-волнового дуализма, и в нем дискретность неожиданным образом оказывается связанной с непрерывностью.

В 1922 году французский физик (и аристократ) Луи де Бройль (1892 - 1987) распространил гипотезу корпускулярно-волнового дуализма и на строение вещества. Он исходил из формулы Эйнштейна, связывающей массу с энергией, дополнив ее связью энергии с частотой волн. Получается, что масса должна иметь волновое воплощение, и длина волны в каждом конкретном случае вычисляется по следующей формуле:

γ = ħ /mv

где γ – длинна волны, ħ – постоянная Планка, mv – импульс тела. Эйнштейн сразу принял идею де Бройля, и вскоре она получила экспериментальное подтверждение в опытах Клинтона Дэвиссона и Лестера Джермера.

Разрыв с классической физикой

Мы уже говорили о том, что термодинамика, электродинамика, и тем более теория относительности Эйнштейна выходят за рамки классической механики Галилея и Ньютона, и даже вступают с ней в противоречие. Но, тем не менее, даже ОТО Эйнштейна оставалась классической теорией, поскольку она не включала в себя принцип неопределенности. Вселенная представлялась гигантским исправно работающим механизмом, объекты которого, приведенные в движение в какой-то момент прошлого, покорно следовали к неизбежному, единственным образом определяемому пункту назначения. Представление о такой покорности своей физической судьбе носит название «лапласовского детерминизма». Если Пьер Симон Лаплас был прав, то физические законы позволят нам по известному сегодняшнему состоянию Вселенной определить ее состояния в прошлом и будущем.

Квантовая механика предлагает нам распрощаться с таким взглядом на мир. Согласно ее положениям, Вселенная действительно развивается в соответствии со строгими и точными математическими законами, но эти законы определяют только вероятность того, что может то или иное конкретное будущее, и ничего не говорят о том, какое будущее наступит в действительности. Так что принципиальное отличие квантовой механики от классических физических теорий состоит, прежде всего, в том, что ее законы являются статистическими, а предсказания носят вероятностный характер. Многие сочли неприемлемым для физики отдавать Вселенную на волю случая. Альберт Эйнштейн выразил свое чувство протеста против квантовой механики в знаменитой фразе: «Бог не играет в кости со Вселенной». Но прав оказался не Эйнштейн, а американский физик Ричард Фейнман, заметивший, что абсолютно точное предсказание нам не просто недоступно, оно немыслимо. Как выразился один из ведущих современных физиков Стивен Хокинг, Бог, похоже, весьма заядлый игрок. Наличие у материи волновых свойств было подтверждено

42

многочисленными экспериментами, а это значит, что фундаментальное описание материи должно иметь вероятностный характер.

Для понимания сути квантовой механики, необходимо усвоить два ее базовых принципа: принцип неопределенности и принцип дополнительности.

Принцип неопределенности.

Опыты Джермера и Дэвиссона продемонстрировали, что электроны подобны волнам. Но тут напрашивается вопрос: волнам чего? Австрийский физик Эрвин Шредингер высказал по этому поводу идею, что эти волны представляют собой «размазанный электрон». Однако никому не приходилось иметь дела с третью или одной пятой электрона. В 1926 году немецкий физик Марк Борн уточнил предложенную Шредингером интерпретацию электронной волны. Согласно Борну, электронная волна должна интерпретироваться с точки зрения вероятности: в тех областях, где амплитуда (вернее, ее квадрат) волны больше, обнаружение электрона более вероятно, чем там, где амплитуда мала.

Ричард Фейнман, в отличие от Борна и Шредингера, объяснил квантовые эффекты, не приписывая каждому электрону волновую функцию. Вместо этого, он предположил, что электрон, перемещаясь из одной точки в другую, движется одновременно по всем возможным траекториям, причем сразу. Если каждой траектории присвоить некоторое число, то общее среднее этих чисел даст ту же вероятность, что и расчет с использованием волновой функции. Такой подход известен как фенмановское «суммирование по путям». Как заметил сам Фейнман, квантовая механика дает совершенно абсурдное с точки зрения здравого смысла описание Природы. И оно полностью согласуется с экспериментальными данными.

Следующий шаг был сделан Вернером Гейзенбергом (1901 - 1976), открывшим в 1927 году соотношение неопределенностей. Гейзенберг выразил его в виде математического соотношения между точностью измерения положения электрона и точностью определения его скорости. Он установил, что эти величины обратно пропорциональны друг другу: большая точность в определении положения неизбежно ведет к большей погрешности в определении скорости, и наоборот.

 

 

 

x

 

p = ħ

x

неопределенность

измерения

 

Их произведение должно примерно

 

координаты

 

 

равняться постоянной Планка

p

неопределенность

измерения

 

 

импульса

 

 

 

 

 

 

 

 

 

 

И этот компромисс между точностью определения положения и скорости является фундаментальным, то есть он не зависит от используемого оборудования и метода измерения. Источник неопределенности, согласно Гейзенбергу, – в корпускулярно-волновом дуализме свойств материи. Между неопределенностью и хаосом существует фундаментальная связь, а значит микромир изначально хаотичен.

Если мы вернемся к Фейнману, который обошелся без приписывания частицам волновых функций, то неопределенность все равно никуда не денется. «Суммирование по путям» говорит нам о том, что система не имеет одной единственной предыстории в пространстве-времени. Вместо этого нам приходится суммировать все возможные предыстории, которые имеет система.

Принцип дополнительности.

Этот принцип, выдвинутый Нильсом Бором в 1927 году, представляет собой реакцию на соотношение неопределенностей. Если мы рассматриваем микромир с позиции

43

корпускулярно-волнового дуализма, то возможна ситуация взаимоисключения, так как объект не может быть одновременно и частицей, и волной. Поэтому лучше всего определить сферы компетенции корпускулярного и волнового подхода: первый хорош, когда налицо стационарные состояния, а второй – когда речь идет об излучении. Оба подхода дополняют друг друга, однако отношения между ними можно определить через понятие контингентности. При переходе ученого от одного подхода к другому путеводителем выступает принцип неопределенности. Фактически же квантовая механика основана на совершенно новом математическом аппарате, который не описывает реальный мир ни в терминах частиц, ни в терминах волн. Просто для некоторых целей удобнее рассматривать волну как частицу, а для других – частицу как волну.

Синергетика

Синергетика является наследницей таких междисциплинарных подходов, как теории систем Людвига Фон Берталанфи (1901 - 1972) и кибернетики Норберта Винера (1884 - 1964), а также тех разделов естественных и технических наук, которые занимаются эволюцией сложных систем. На становление методов синергетики огромное влияние оказал французский математик Анри Пуанкаре, заложивший основы методов нелинейной динамики

икачественной теории дифференциальных уравнений.

В1963 году произошло эпохальное открытие динамического хаоса. Э. Лоренц разрабатывает глобальную компьютерную модель для предсказания погоды и приходит к удивительному выводу: используя ту же самую систему уравнений с почти одинаковыми начальными условиями, можно прийти к разным результатам. Такая неустойчивость решения по начальным данным получает название «эффекта бабочки»: такая мелочь, как взмах крыла бабочки, может радикально изменить ход событий в отдаленной перспективе.

В70-х годах 20 века, благодаря трудам Германа Хакена (немец) и Ильи Пригожина (бельгиец) по исследованию физики неравновесных состояний, в научный оборот входит термин «синергетика». Синергетика определяется как научная область, занимающаяся изучением сложных неравновесных систем. Сложные системы, характеризующиеся открытостью и нелинейностью своих процессов, способны к замечательной вещи – самоорганизации. Если организация возникает под воздействием внешних причин, то самоорганизация – это процесс упорядочивания системы, происходящий в силу внутренних факторов самой системы.

Любой эволюционный процесс представляет собой смену состояний порядка и хаоса, которые соединены фазами перехода: от порядка к хаосу (гибель структуры) и от хаоса к порядку (самоорганизация). Стабильная, упорядоченная фаза обычно оказывается самой протяженной во времени. Для этой стабильной фазы характерны два принципа: гомеостатичность и иерархичность.

Гомеостатичность. Гомеостаз – это поддержание программы функционирования системы в некоторых рамках, позволяющих ей следовать к своей цели. Согласно Н. Винеру, всякая система имеет цель существования, от которой система получает корректирующие сигналы, позволяющие «не сбиться с курса». Эта корректировка осуществляется за счет отрицательной обратной связи, подавляющей любое отклонение в программе, возникшее под действием внешних сил. Такую цель-программу поведения системы в состоянии гомеостаза называют аттрактором (притягивателем). Аттракторы существуют только в открытых диссипативных системах, т. е. системах, способных рассеивать энергию, вещество

иинформацию. Аттракторы описывают финальное поведение системы.

Иерархичность. Наш мир иерархизирован по многим признакам, например, по масштабам длин, времени и энергий. Основным смыслом структурной иерархии является составная природа вышестоящих уровней по отношению к нижестоящим. То, что для нижнего уровня является структурой-порядком, для высшего есть бесструктурный элемент хаоса, строительный материал. Элементы, связываясь в структуру, передают ей часть своих функций, которые начинают выражаться как бы от «коллектива всей системы». Эти

44

«коллективные переменные» возникают и существуют на более высоком иерархическом уровне, нежели элементы системы. Именно они и представляют собой цели-аттракторы системы. Здесь срабатывает «принцип подчинения»: изменение на коллективные переменные как бы «дирижируют» поведением элементов низшего уровня. Но такой принцип подчинение справедлив не всегда и его не стоит абсолютизировать.

Для «переходно-хаотической» фазы можно выделить пять базовых принципов: Нелинейность. Это то качество системы, которое мы, как правило, не готовы принять.

В средней и высшей школе нас учат решать линейные задачи, так как линейные колебания характерны для гомеостаза системы. Линейность экономит наши интеллектуальные усилия, но в то же время создает иллюзию простоты этого мира. Определяющее свойство линейных систем можно описать как принцип суперпозиции:

Результат суммарного воздействия на систему = сумме результатов

Другими словами: линейный отклик системы всегда прямо пропорционален воздействию.

Увы, в таком мире эволюция была бы просто невозможной! Нелинейность есть нарушение принципа суперпозиции:

Результат суммы причин ≠ сумме результатов этих причин

Результат суммы воздействий на систему не равен сумме результатов этих воздействий. Другими словами это можно описать так: результат не пропорционален усилиям (иначе, как говорят, игра бы не стоила свеч). Целое не есть сумма его частей. Качество суммы не равно качеству слагаемых.

Что этот принцип нелинейности означает на практике? Когда мы строим прогнозы, мы линейно экстраполируем в будущее происходящее сейчас или бывшее в прошлом. Это основной стандарт нашего мышления. Но, как нам прекрасно известно, такие прогнозы не всегда оправдываются. Классическая наука по этому поводу заметила бы, что такие ошибки есть результат того, что мы учли не все причины, поэтому промахнулись со следствием. Синергетика как раздел неклассической науки утверждает: даже если учтем абсолютно все причины (все исходные данные начальных условий), все равно можем промахнуться с прогнозом, так как в мире существуют нелинейные эффекты. Но эти нелинейные эффекты проявляются не всегда и не везде (иначе мир для нас действительно стал бы непрогнозируемым хаосом). Они возникают на границах системы, при переходе от одного гомеостаза к другому.

Незамкнутость (открытость). Этот принцип означает, что мы не можем пренебрегать взаимодействием системы с ее окружением. Любую систему можно считать замкнутой, но лишь какое-то время. Для замкнутой физической системы справедливы фундаментальные законы сохранения материи, энергии, импульса. В замкнутых системах с большим числом частиц справедлив второй закон термодинамики, гласящий, что энтропия (мера хаоса, обозначаемая S) или нарастает, или остается постоянной.

S ≥ O

Второй закон термодинамики дает нам весьма грустный прогноз в отношении Вселенной: тепловая смерть. Порядок замкнутой системы не может увеличиваться, поэтому если где-то идет нарастание порядка (например, строится цивилизация), то это может происходить лишь за счет увеличения беспорядка в окружающей среде (кризис экологии, энтропия планеты и окружающего космоса).

Однако для открытых систем, каковыми являются все живые и социальные системы, второй закон термодинамики неприменим, и в них может возрастать порядок (то есть уменьшаться энтропия). Открытость позволяет системам эволюционировать. В неживой природе также можно говорить об открытых системах, о чем свидетельствует эволюция Солнечной системы. Если при переходе от одного гомеостаза к другому система становится нелинейной, то она в этих фазах должна рассматриваться как открытая система.

Неустойчивость. Состояние, траектория или программа системы неустойчивы, если любые сколь угодно малые отклонения от них со временем увеличиваются. В точке

45

неустойчивости любая система становится открытой, что делает ее чувствительной к воздействиям других иерархических уровней. Например, перевернутый маятник может упасть вправо или влево от случайных тепловых колебаний материала маятника – параметров, ранее, в устойчивом состоянии, совершенно несущественных. Кажется, что неустойчивость – это не очень хорошее свойство. Но надо иметь в виду, что в состоянии неустойчивости система получает доступ к информации, ранее для нее недоступной.

Такие состояния неустойчивости, когда исход выбора может быть решен самыми случайными факторами, называют точками бифуркации. Точка бифуркации – это рубеж между новым и старым, поэтому она непременно возникает при рождении нового качества. Существуют системы, в которых точки бифуркации почти повсеместны, например, развитая турбулентность.

Всвоей Нобелевской лекции Илья Пригожин так определил синергетическое представление о бифуркации: «Обнаружение феномена бифуркации ввело в физику элемент исторического подхода… Любое описание системы, претерпевшей бифуркацию, требует включения как вероятностных представлений, так и детерминизма. Находясь между двумя точками бифуркации, система развивается закономерно, тогда как вблизи точек бифуркации

существенную роль играют флуктуации, которые и определяют, какой из ветвей кривой будет далее определяться поведение системы»2.

Вточке бифуркации возникает несколько ветвей потенциально возможных продолжений развития системы. Выбор одной из ветвей определяется воздействием на систему одной из возникающих в этот же период времени флуктуаций – случайных отклонений системы от некоторого среднего положения.

Выход из точки бифуркации, или кризисного состояния материальной системы, может быть деструктивным и конструктивным. Деструктивный выход реализуется благодаря механизмам достижения равновесных состояний, но это состояние достигается на более низком уровне организованности, чем был у данной системы. При деструктивном выходе нередко наблюдается однозначность перехода. Например, когда в недрах звезды вырабатывается все ядерное горючее, то ее переход в новое состояние однозначно определяется ее исходной массой. Смерть живого многоклеточного организма тоже есть пример такого выхода при достижении равновесного состояния с окружающей средой.

Конструктивные выходы из кризисных состояний стали изучаться наукой сравнительно недавно. Такой тип выхода реализуется благодаря механизмам самоорганизации. Основное условие для проявления самоорганизации состоит в том, чтобы поступающая извне энергия превышала потери энергии внутри системы. Но одного этого условия недостаточно. Выход считается конструктивным, если система приобретает качественно новое состояние с более высоким уровнем организации, чем до ее вступления в этап бифуркации.

Динамическая иерархичность (эмерджентность). Этот принцип описывает возникновение нового качества системы по горизонтали, т.е. на одном уровне, когда медленное изменение управляющих параметров на вышестоящем уровне (мегауровне) приводит в бифуркации на нижестоящем уровне (макроуровне) Но тут возникает необходимость включить еще один уровень – уровень микромира, принципы существования которого были осмыслены в науке лишь во второй половине 20 века. Возникновение нового качества можно описать следующей креативной триадой:

«управляющие сверхмедленные параметры верхнего мегауровня» + «короткоживущие переменные низшего микроуровня» = «новые структурообразующие долгоживущие коллективные переменные нового макроуровня»

или

МЕГА + МИКРО = МАКРО new

Но как возможен непосредственный контакт мега- и микроуровней? Дело в том, что в точке бифуркации прежний макроуровень исчезает, что и дает возможность такого контакта.

2 Пригожин И. Время, структура и флуктуации (Нобелевская лекция) // Успехи физических наук. 1980.

Т. 131. с. 185

46

В результате контакта возникает новый макроуровень с иными качествами. Процесс рождения нового порядка может ощущаться нами как беспорядок в силу повышения сложности и непредсказуемости системы.

Наблюдаемость. Этот принцип подчеркивает ограниченность и относительность наших представлений о системе в конечном эксперименте. Например, в теории относительности у каждого движущегося наблюдателя свои метры и секунды. В квантовой механике, если мы точно измерили положение частицы, то остались в неведении относительно ее импульса, и, наоборот (о чем говорит нам принцип дополнительности Н. Бора).

В синергетике это означает относительность интерпретаций к масштабу наблюдений и начальному ожидаемому результату. Так, то, что было хаосом с позиции макроуровня, превращается в структуру при переходе к масштабам микроуровня. Это значит, что сами понятия порядка и хаоса оказываются относительными к масштабу наблюдения. Принцип наблюдаемости говорит нам еще и о том, что проблема интерпретации в науке часто бывает сродни проблеме распознавания образов: мы видим в первую очередь то, что хотим и готовы увидеть. Мы приводим аргументы и объяснения из арсенала культурно-исторических доминант, в которых воспитаны, научных парадигм, которым следуем, и авторитетов, которым верим.

47

РАЗДЕЛ 2. ПРИРОДА И СТРУКТУРА НАУЧНОГО ЗНАНИЯ

Синтетическая природа научного знания

Согласно И. Канту, все виды знания можно разделить на эмпирические и априорные. Эмпирический тип знания следует, по-видимому, определить как знание, содержащее некие фактологические констатации, но не содержащие их трактовок. Примером априорного знания являются неевклидовы геометрии. Если возникновение классической евклидовой геометрии можно, по-видимому, связать с эмпирическими наблюдениями за свойствами геометрических фигур в процессе различных видов практической деятельности (раздел земельных участков, строительство и т. п.), то неевклидовы геометрии, по крайней мере, в момент их возникновения, представляли собой чистый продукт ума, не имеющий никаких аналогов в эмпирической действительности. Попытка физиков применить концептуальный аппарат неевклидовых геометрий к описанию физических объектов микро- и макромира были предприняты десятилетия спустя после смерти создателей этих априорных схем.

Все научные дисциплины, а также входящие в их состав частные научные направления, можно расположить на идеально-типической шкале, на одном полюсе которой будут располагаться науки чисто или в значительной степени априорные, а на другом - чисто или в значительной степени эмпирические. Примером первых, как уже говорилось, можно считать неевклидовы геометрии и некоторые другие отрасли математики. К числу вторых можно отнести, в частности, фармакологию, науку о лекарствах. Известно, что до настоящего времени поиск новых лекарств ведется в значительной степени эмпирическим путем, т. е. методом проб и ошибок. Науки, находящиеся в промежутке между априорным и эмпирическим полюсами, следуя терминологии И. Канта, должны быть охарактеризованы как синтетические. К их числу относится основной массив научных дисциплин, включая естественные и социальные науки.

Современная философия науки сохраняет представление о научном знании как о синтетическом, хотя трактовки этого термина со времен Канта во многом изменились. Если для Канта источником априорного компонента были априорные формы чувственности (пространство и время) и рассудка (причина, необходимость и т.д.), то современный взгляд на эту проблему берет начало в работах Карла Мангейма. Априорным началом в индивидуальном сознании выступает предшествующий социальный опыт. В научном знании роль этого начала выполняют научные труды предшественников, т. е. выработанный соответствующей научной субкультурой концептуальный и понятийный аппарат. Научные достижения рассматриваются, таким образом, не как продукт познавательной деятельности отдельного субъекта, а как элемент интеллектуальной традиции, априорной для каждого конкретного индивида и для каждого последующего поколения ученых.

Существование в науке фактора интеллектуальной преемственности означает, что ни один ученый никогда не работает как чистый эмпирик, но всегда рассматривает изучаемую действительность сквозь призму выработанного его предшественниками теоретического и понятийного аппарата. В естествознании игнорирование теории и следование чистой эмпирии заведомо обречено на провал. В социологии же такой путь хоть и имеет относительный шанс дать значимый научный результат, но все же является крайне неэффективным. При этом на успех здесь можно рассчитывать лишь при использовании гибких качественных методов как самостоятельных или в сочетании с количественными, но практически невозможно при использовании только количественных методов.

Итак, научное знание по своей природе является синтетическим и представляет собой своего рода сплав эмпирических данных и понятийно-дедуктивных логических конструкций. Согласно К. Попперу, научное знание следует называть синтетическим, в частности, потому, что наблюдаемая эмпирическая действительность всегда сложна, многозначна и вместе с тем неполна. Уже по одной этой причине научная теория не может рассматриваться как детерминированное отображение эмпирических данных. Такое понимание познавательного

48

процесса получило название гештальт-эпистемологии, уподобляющей механизм создания научной теории формированию целостного когнитивного образа в условиях неполной информации.

Иллюстрацией такого механизма может служить теория биологической эволюции Ч.Дарвина. Эту теорию нельзя назвать чисто эмпирической хотя бы потому, что Дарвин не жил в предшествующие геологические эпохи и лично не наблюдал процесс эволюции. То, что он реально наблюдал, есть своего рода «проекция» результатов эволюции на сегодняшнее многообразие биологических видов. Суть теории заключается, следовательно, в попытке, глядя на эмпирическую проекцию явления, силой воображения реконструировать само явление, которое в данном случае в принципе не наблюдаемо. Этот пример демонстрирует, по-видимому, универсальный механизм формирования научных теорий, будь то теория относительности А. Эйнштейна или же общая теория неврозов 3. Фрейда и др.

Для дальнейшего важно подчеркнуть, что взятая нами в качестве примера теория Дарвина строго формальна и базируется всего на трех отвлеченных понятиях: изменчивости, закреплении признаков и отборе. Таким образом, хотя в основе теории лежат эмпирические наблюдения, сама она является дедуктивно-аксиоматической, и в качестве таковой не имеет принципиальных отличий от априорных математических построений.

Наука и не-наука: критерий демаркации

Проблема критериев, на основании которых можно отделить истинное, надежное, обоснованное знание от субъективного мнения, является классической философской проблемой. В современной философии науки эта проблема приобретает вид вопроса о критерии демаркации. В общем виде критерий демаркации — это «разделительная черта» между научным и ненаучным знанием.

Здесь сразу же нужно сделать несколько уточнений. Прежде всего, критерий демаркации направлен не только на то, чтобы показать особые черты научного знания, которые отличают науку от ненауки. В идеале, данный критерий должен показать, является ли определенная теория научной или же ее нельзя признать таковой. Для этого критерий демаркации должен быть дискретным, то есть давать возможность однозначно отнести ту или иную теорию к науке/ненауке, а также он должен сделать из процесса анализа теории на степень ее научности алгоритмически разрешимую процедуру. Именно таким представляли себе критерий демаркации логические позитивисты, однако в ходе исследований оказалось, что демаркационная граница является достаточно нечеткой и исторически изменчивой.

Второе уточнение связано с вопросом о том, теории в какой области научного знания можно подвергнуть проверке на соответствие критерию научности. Карл Поппер указывал, что демаркационную линию можно проводить только в отношении естественных наук, опирающихся на эмпирический базис. Следовательно, остальные области научного знания, например, формальные науки, такие, как логика и математика, под этот критерий принципиальное не подпадают. Также достаточно спорным является и вопрос о том, возможно ли применение критерия демаркации к социальным и гуманитарным наукам. В то же время известно, что сам Поппер применял критерий демаркации к психоанализу и марксистской теории с неутешительными выводами для них.

Необходимо также определить, от чего именно должна быть отделена наука демаркационной границей. Критерий демаркации разграничивает, с одной стороны, науку и другие формы освоения реальности, такие как миф и религия. С другой стороны, критерий демаркации должен отделить науку от псевдо-науки, то есть однозначно показать, является ли определенная теория действительно научной или только «мимикрирует» под науку. В этом случае критерий демаркации становится оружием борьбы с различного рода «научными фриками».

49

Верифицируемость как критерий демаркации

Один из первых критериев демаркации был предложен логическими позитивистами (или неопозтивистами). Радикальный эмпиризм неопозитивистов предполагал, что всякое научное, обладающее смыслом суждение можно редуцировать к совокупности так «протокольных предложений». Протокольные предложения фиксируют данные опыта, который и является основой любого знания. Поскольку протокольные предложения фиксируют «чистый опыт», сами они в проверке не нуждаются.

Научность и осмысленность всех прочих суждений проверяется тем, что они редуцируются к протокольным предложениям. Таким образом, предложение научно и осмысленно только в том случае, если оно верифицируемо, то есть опирается на эмпирические данные. Протокольные предложения являются основой для верификации всех других предложений.

Согласно критерию верифицируетмости, если какое-либо суждение невозможно редуцировать к данным опыта, то оно не только является ненаучным, но также бессмысленным. Соответственно, основной принципа верифицируемости является экстенсиональная логика, которая определяет для суждений совокупность эмпирически наблюдаемых референтов. С этой точки зрения неверифицируемые суждения не только эпистемологически, но и лингвистически бессмысленны.

Получается, что, с точки зрения неопозитивистского критерия демаркации, суждения математики и логики будут бессмысленными, поскольку они не требуют редукции к эмпирическим данным. Неопозитивистам пришлось признать математику и логику необходимым инструментом для построения научных суждений, которые могли бы выдержать проверку на верифицируемость.

Принцип верифицируемости в качестве критерия демаркации подвергался критике прежде всего за то, что он утверждает научность только такого знания, которое подлежит полной эмпирической проверки. В то же время, как показал К. Поппер, такая проверка не возможна, поскольку даже большое число подтверждающих фактов, которые получены с помощью индукции, делает суждение лишь вероятностно обоснованным.

Фальсифициуемость как критерий демаркации

В качестве альтернативы принципу верифицируемости в качестве критерия демаркации Поппер предложил принцип фальсифицируемости. Поппер противопоставляет теорию эмпирическим предложениям, теория выражается с помощью общих утверждений типа «Все лебеди белые». Утверждения такого типа эквивалентны отрицательным экзистенциальным утверждениям, например «Неверно, что существует небелый лебедь». Таким образом, любая теория не только устанавливает определенные факты, но также запрещает существование других фактов.

Этот запрет и является основной фальсифицируемости теории. Факты, «запрещенные» определенной теорией, являются ее потенциальными фальсификаторами. Теория признается научной в том случае, если она содержит в себе такие фальсификаторы. Их наличие говорит о том, что теоретическая система способна столкнуться с эмпирическими фактами, которые будут ей противоречить, а значит, она не выходит за пределы эмпирической науки. Соответствие критерию фальсифицируемости делает какую-либо теорию научной, но не делает ее истинной. Если эмпирические данные фальсифицируют научную теорию, она становится ложной, но не перестает от этого быть научной. Сфальсифицированная теория, согласно Попперу, должна быть отброшена, поскольку была обнаружена ее ложность. Развитие научного знания возможно только в том случае, если отказаться от сохранения сфальсифицированных теорий.

Утонченный фальсификационизм И. Лакатоса

Опираясь на фальсификационизм Поппера, И. Лакатос разработал концепцию развития научного знания и связанный с ней критерий демаркации. Представление о том, что в процессе научного исследования ложные теории немедленно отбрасываются И. Лакатос

50

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]