Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Юзвишин И.И. - Основы информациологии - 2000

.pdf
Скачиваний:
1034
Добавлен:
15.09.2017
Размер:
6.53 Mб
Скачать

0

fx(z-y)fy(y)dy,(6.44)

где z<m- верхний предел интервала интегрирования.

Рассмотрим четырехмерную случайную величину M(X,Y,Z,t), заданную в прямоугольной системе координат Qxyz в виде точки N(X,Y,Z) в трехмерном пространстве, и вектором t(0,N) в качестве четвертой ординаты. Запишем закон распределения четырехмерной дискретной случайной величины, определяемый вероятностями ее проявлений и выражающий соотношения тетрадных возможных значений этой величины (xi, уj, zk tl) и их вероятностей p(xi, уj,zk tl) при i,k = 1, 2, 3, ..., п и j,l = 1, 2, 3, ..., т. Ввиду того, что величины (Х= xi, Y=yj, Z=zk, Т= tl) при указанных i,j, k, l образуют полную группу событий, то сумма их вероятностей, записанных в каждой клетке приведенной таблицы 6.2, выражающей закон распределения четырехмерной величины, является нормированной (контрольной) и равна единице, т.е.

P=

n

l,k=1

m

j,l=1

p(x i ,y j ,zk,t l) = l (6.45)

Зная функцию распределения n-мерной случайной величины F(x1,y2,z3,...,nn), определяющую для каждого k-гo набора случайных чисел (x, у, z,...n) вероятность Р(Х<х, Y<y, Z<z, ..., N<n), можно определить плотность совместного распределения вероятностей (непрерывной) n-мерной случайной величины:

f(x1,y2,z3,...nn) =

nF(x1,y2,z3,...nn)

∂x1∂y2∂z3...∂nn

Из (6.53) по известной плотности распределения находится функция распределения случайной n-мерной величины:

F(x1,y2,z3,....,nn)=

nn

-∞

...

z3

-∞ y2

-∞

x1

-∞

f(x1,y2,z3...,nndx1dy2dz3...dnn. (6.47)

181

Таблица 6.2

182

В информациологии, как и в физике, астрономии и космологии, в информационных процессах и технологиях важную роль играют условные отношения, связи, зависимости, проявления, распределения объектов или величин, описывающих их и определяемых их условными вероятностями:

p(xi|y1) =

p(xiy1)

p(y1)

,(6.48)

где xi - неизвестное и возможное i-oe значение величины X; y1 – известное значение величины Y; p(xi|y1) - условная вероятность того, что величина X примет, например, значение x i = x3 при условии, что Y=y1; i = 1, n. Условная вероятность p(x3|y1) не равна безусловной вероятности р(х3) так как Х = х3 при условии, что имеет место Y = у1 .

Условное математическое ожидание случайной величины X при уже известном Y = у можно записать в виде регрессии X на Y и наоборот - в виде функции регрессии У на Х при Х=х:

M(X|y)=f(y),(6.49)

M(Y|x) =φ(x).(6.50)

Если функции f(y) и φ(x:) - линейные, то Х и Y связаны линейной корреляционной зависимостью.

В ядерной физике часто рассматриваются элементарные частицы, которые имеют определенные отношения и зависимости между собой. Их можно описать зависимыми и независимыми случайными величинами. При независимых случайных величинах X и Y функция совместного распределения этих случайных величин (X, Y) равна произведению функций распределения их составляющих:

F(x,y)=F1 (x)F2 (y). (6.51)

Соответственно при независимых непрерывных случайных величинах X и Y плотность совместного распределения (X, Y) определяется из выражения:

f(x,y)=f1(x)f2(y).(6.52)

Рассмотрим корреляцию между двумя или несколькими информационными объектами или величинами их описывающими. Корреляция представляет собой взаимоотношение, взаимосвязь, соотношение или связь между объектами или их величинами. Корреляция может быть прямая, если между двумя или несколькими величинами отношение таково, что обе или несколько величин увеличиваются или уменьшаются. Обратная корреляция имеет место, когда одна величина увеличивается по мере уменьшения другой (или других). Корреляция может быть более или менее тесной, если отношение двух (или нескольких) величин более или менее жестко, ясно или точно выраженное. Число, показывающее степень тесноты (силы) корреляции (отношения, связи) между величинами, называется коэффициентом корреляции (К), который при прямой корреляции выражается положительной величиной, а при обратной - отрицательной величиной,

183

абсолютное значение которой находится между 0 и 1. Важной характеристикой отношения между двумя случайными величинами Х и Y является корреляционный момент, который определяется из отклонения математического ожидания произведения этих величин:

т= M(XY) - M(X)M(Y). (6.53)

Если Х и Y независимы, то mxy = 0. Если Х и Y зависимы, mxy≠ 0.

Коэффициент корреляции двух случайных величин определяется из выражения: kxy =

mxy

σxσ y

DxDy, (6.54)

где σ x= D(X) , σ y = D(Y) - средние квадратические отклонения случайных величин X и Y. σ x изменяется в тех же единицах, что и X, σy имеет размерность величины Y; Dx, Dy - дисперсии соответственно величин X и Y. Если тxy = 0, то две случайные величины Х и Y будут некоррелированными. При тxy≠0 X и У - коррелированны и зависимы. Зависимость в этом случае неоднозначна, ибо величины могут быть коррелированны и

некоррелированны. Независимые величины всегда некоррелированны, а некоррелированность не всегда вызывает независимость.

Если изучаются и рассматриваются отношения между несколькими величинами, то будем иметь дело с множественной корреляцией. Рассмотрим случай простой множественной корреляции, когда заданы три величины X, Y, Z, для которых определяется общая теснота (сила) отношений между ними через выборочный совокупный коэффициент множественной корреляции:

Kxyz =

k2 xz-2kxykxzkyz+k2 yz

1-k2 xy

,(6.55)

где kxy kxz, kyz - коэффициенты корреляции соответственно между величинами X и Y,X и Z,Y и X.

Чтобы определить силу отношений между любыми двумя величинами, задается условие постоянства третьей величины. Например, сила отношения между Z и Y при постоянной определяется условным выборочным коэффициентом множественной корреляции:

kyz|x=

kyz-kxykxz

(1-k2 xy)(1-k2 xz)

.(6.56)

Сила отношения между Z и X при постоянной Y оценивается из выражения:

184

kxz|y , =

kxz-kxykyz

(1-k2 xy)(1-k2yz)

. (6.57)

где k xz|y - условный выборочный коэффициент множественной корреляции величин.

185

180 :: 181 :: 182 :: 183 :: 184 :: 185 :: Содержание 185 :: 186 :: 187 :: 188 :: 189 :: Содержание

6.5. Графоаналитическая интерпретация информации

Графическую интерпретацию информационных процессов и технологий в микро- и макроструктурах вакуума и пространства Вселенной представим следующей концепцией.

Пусть будут заданы две материальные точки (в абсолютном вакууме) так, что на них не влияют никакие внешние отношениядействия и они имеют отношение только между собой, как показано на рис. 6.1 .

Рис.6.1

Указанное графическое изображение двух точек можно представить в виде следующего логико-символьного отношения:

1R2 → 2R1 . (6.58)

Количественное значение информации этого отношения, изображенного на рис. 6.1, запишем в виде величины I121.

Рассмотрим возможные графические представления информации (рис. 6. 2), которые можно толковать следующим образом: а) точка 1 излучает (за счет нуль-сингулярных автоколебаний) на себя информацию I11; точка 2 - безотносительная (мнимая) точка - не излучает (излучает во внутрь) информацию; б) точка 1 излучает информацию на самую себя и на безотносительную точку 2; в) точки 1 и 2 имеют самоотношения I11,I22 и взаимоотношения, определяемые информацией I121 .

Рис.6.2

Величина потока информации в любой точке равняется разности величин информации, втекающей в точку и вытекающей из нее. При положительной разности точка становится источником (передатчиком), а при отрицательной - приемником информации. Для источников и приемников, изображенных на рис. 6.2, представим следующие выражения информации:

185

I11→(I11-I11)=0,

(I12-I21)≥0 I,

(I12-I21)<0 P,(6.59)

где Iij - потоки информации; I- источник информации; Р - приемник информации.

При п источниках (или приемниках) общее выражение определения информации можно записать следующим образом :

n

 

≥0 Iij при i<j,1<i<n

 

< Iji<I ji при j<I,1<j<n-1. (6.60)

i=1

{

i n при1<i<n.

I ij -

 

n-1

 

j=1

 

 

I ji=

 

 

Если кроме автоотношения (сингулярно-нулевых излучений внутрь и во вне) источник излучает информацию в одностороннем направлении, например, в абсолютный вакуум, как показано на рис. 6.3, то в этом случае информация будет иметь информационно-симплексную характеристику IИС11.

Рис.6.3

Если источники излучают информацию (соотносятся), как показано на рис.6.2,в, то имеет место информационно-дуплексный характер (отношения) информации, которую можно представить в виде следующей системы уравнений:

1I ИД1122=I11+I22,

2I ИД1122=I11-I22,

3I ИД1122=I22-I11,

4I ИД1122=I11∙I22,

5I ИД1122=I11-I22,

6I ИД1122=I22 I 11,

7I ИД1122=I11 I 22,

8I ИД1122=I11∩I22.

(6-61)

186

Информационно-мультиплексный характер (информационных) отношений представлен на рис.6.4 и аналитически может быть записан следующим образом:

RI

им

1,n

RI

им

1,n

, (6.62)

где R - символ множественных отношений между источниками (приемниками) или соответствующими величинами информации;

- логико-математический знак одновременного производства всех математических операций над множеством отношений R между множеством величин информации.

Рис.6.4

Рассмотрим информационно-мультиплексную среду информационных отношений, представленную на рис.6.5, на котором точки обозначают источники или приемники, а линии между ними - каналы информации.

Рис.6.5

Количество источников (приемников) и каналов в такой информационной среде (сети) можно представить в виде следующей системы уравнений:

187

CIP={ci}={c1,c2...c5},i=1,5, (6.63)

KIP={kγ}={k1,k2,...k7},γ=1,7

Характеристики потоков информации в таких средах можно задавать матрицами источников (приемников) или матрицами каналов информации. Матрица источников в данном случае (рис.6.5) имеет вид:

 

с1 c2 c3 c4 c5

 

c1

0

1

1

0

0

 

c2

0

0

0

0

1

 

CI P=[cij]= c3

0

1

0

1

1

,(6.64)

c4

0

0

0

0

1

 

c5

0

0

0

0

0

 

 

 

 

 

 

 

 

 

{

1, если i C,j C (I,j) KIP

где сij- =

0 в противном случае.

 

 

 

Запишем матрицу информационных каналов:

KI P=[k ]=

 

 

 

k1 k2 k3 k4 k5 k6 k7

c1

 

 

+1 +1 0 0 0 0 0

 

c2

-1 0 -1 0 +1 0 0

 

CI P=[cij]= c3

0 +1 -1 +1 0 -1 0

,(6.65)

c4

0 -1 0 0 +1 +1 +1

 

c5

0 0 0 0 0 0 -1

 

1, если i С я являет начальным источником канала k КI ,

где k =

{ σ I P

-1если i С я являет конечным приемником канала kσ K P,

0 в противном случае (нн начальным, ни конечным).

Следовательно, информация – это фундаментальная первопричинная сущность (источник и носитель) всех явлений и процессов природы.

Таким образом, изложена концепция графоаналитической интерпретации фундаментальной сущности информации. Впервые показано, что информация -это, с одной стороны, нульсингулярные отношения любых нулевых, сингулярных и полимерных субстанций самих с собой и между собой, а с другой стороны, - это безначально-бесконечный законопроцесс соотражения этих микро- и макромерных отношений в единстве всех форм энергии, движения и массы в

188

пространстве и времени. В связи с этим можно сказать, что информациология -это учение, признающее отношения (информацию) фундаментальной основой мироздания.

Известный канадский ученый математик-экономист, профессор Мак Гильского университета в Монреале, кандидат физико-математических и доктор экономических наук, академик А. Вартанян впервые в мире, применив информационную математику, разработал информационные экономикоматематические модели консалтинга и инвестиций и реализовал их в России и странах СНГ. Эти модели явились в рыночной экономике своего рода связующим мостом между Востоком и Западом.

За эти выдающиеся разработки и их внедрение Международная Академия Информатизации наградила академика А. Вартаняна высшим международным орденом "За выдающиеся заслуги в информациологии".

189

185 :: 186 :: 187 :: 188 :: 189 :: Содержание 190 :: 191 :: 192 :: 193 :: 194 :: Содержание

Глава VII

Информациология Вселенной

7.1. Информациологические основы Вселенной

Информация - единая общевселенская сущность с собирательными и объединяющими автокорреляционными свойствами, обеспечивающими генерализационное единство материзованного и дематеризованного (материального и вакуумного) в микро- и макроструктурах безначально-бесконечного пространства Вселенной.

В настоящее время человечество зашло в тупик своими исключительно материальнонаучными разработками, приведшими к апокалипсическому барьеру техносферы, преодолеть который возможно, если направить усилия на изучение космических явлений и процессов, раскодируя которые, можно получить ценнейшую информацию, способную расширить знания об информациологии вакуума и таким образом - мироздания.

Информациология - это наука, которая, с одной стороны, способствует раскрытию совершенно новых горизонтов и высот обеспечения широких слоев населения всеми видами и формами информации и, с другой, является фундаментально-прикладной базой всех без исключения областей знаний для ученых, специалистов, государственных и общественных деятелей единого мирового распределенно-локального информационно-сотового сообщества. Она представляет в целом гарантированную основу небывалого уровня развития информационно-космической цивилизации и освоения Вселенной.

Информатизация Вселенной представляет собой информациологическую сущность автокорреляционного процесса отношений и ковалентных связей. Она в равной мере может трактоваться, как трактуются понятия пространство, время, движение, энергия, масса и материя. Если исходить из понятий метрики земной топологии и земных точек отсчета, то информатизация, как и другие земные видимые макродинамические процессы, определяется условиями трехмерной метрики и действительно может пониматься и обеспечиваться человеком точно так же, как реализуются понятия автоматизации, механизации, химизации и т.д.

Информация, будучи безначально-бесконечным множественно-корреляционным автоисточником мироздания, как генерализационная субстанция Вселенной, является абсолютной (естественноединой) первоосновой и первопричиной всех ее микро- и макродинамических процессов, технологий, сред, структур,

190

полей и их следов. С энергобиологической точки зрения информация, с одной стороны, есть естественная субстанция внутри нас, между нами, вокруг нас и вне нас, а с другой, она - искусственно создаваемый человеком атрибут. Естественная информация обеспечивает автокорреляционный процесс самоинформатизации Вселенной, независящий от информационно-энергобиологического потенциала человека. Искусственная информация, создаваемая человеком, и используемая им естественная информация являются основой

для энергобиологической информатизации Вселенной в плане изучения, исследования и познания планет, их систем и галактик, создания на них информационных биосфер с целью переселения человеческой цивилизации на другие планеты и освоения последних.

Таким образом, можно рассматривать два аспекта информатизации: естественная информатизация (автоинформатизация Вселенной) - независимый от нас объект исследований и познания; и искусственная информатизация - предмет преобразований объективных данных для использования их во всех сферах человеческой деятельности. Следовательно, автоинформатизация Вселенной -это естественная первооснова безначально-бесконечного автокорреляционного функционирования светоносных сред и объектов Вселенной, благодаря которой и обеспечивается автоинформгенезисное равновесие пространства и его структур. Искусственная информатизация на нашей планете представляет частицу естественной информатизации Вселенной, поскольку она охватывает все сферы деятельности мирового сообщества в рамках Земли и за ее пределами с помощью космических аппаратов, оптических приборов, радиотелескопов и другой телеметрической аппаратуры.

Невозможно отыскать область естественных явлений или искусственных технологий, где бы отсутствовали процессы информационных отношений и взаимосвязей внутри объектов и между ними.

Таким образом, информация - это безначально-бесконечные авторегенерационные множественнокорреляционные отношения полей, их следов, спинов, релятивистских частиц, античастиц, атомов, молекул, клеток, органов, организмов, органических и неорганических объектов, вакуума и пространства Вселенной. Информатизация - это автокорреляционные взаимодействия отношений информационных потоков микро- и макроструктур Вселенной. Если, например, между искусственной и естественной радиоактивностью нет существенной разницы, то между искусственной и естественной информацией и информатизацией она значительна. Естественная информацизация представляет собой автоинформгенезис пространства Вселенной. Искусственная информатизация обеспечивается информационно-энергобиологическим потенциалом человека, использующего современные радиотехнические средства связи и космические аппараты.

Единое мировое информационно-сотовое сообщество - это информационная цивилизация с децентрализованными распределенно-функциональными административно-территориальными и социально-экономическими сотами, адекватно отражающими сотовую структуру пространства Вселенной. Информационная цивилизация – это качественно новая общественно-политическая формация, идущая на смену материальной цивилизации и прогрессивно обеспечивающая

191

освоение процессов информатизации как неизбежного и всеобщего периода развития общества, познания и освоения информационной модели мироздания, а также всеобщего осознания и приятия единства законов информации в природе и в обществе.

Информационная модель Вселенной, являясь глубинной сущностью реальной картины мира, отражает ее всеобщую информационную действительность, а также обобщает материальные, логические, гипотетические и другие модели мироздания.

Все гипотезы о начале и конце Вселенной, ее стационарности и нестационарности, расширении и сжатии, циклической сингулярности и квантовости больших взрывов, однородности и неоднородности и т.д. заставляют многих ученых проводить исследования возможно протекавших процессов в периоды "очень-очень ранней Вселенной" и нуклеосинтеза, т.е. от 10-40с до 10 млрд. лет. Такие исследования, с одной стороны, ведут к неоправданным затратам и неточным гипотетическим результатам, а с другой - позволяют расширять область знаний, если не о тех гипотетических процессах, которые, возможно, имели место спустя 10-40 с после рождения Вселенной, то, по крайней мере, о непосредственных процессах и технологиях, протекающих в пространстве Вселенной в настоящее время.