В·П·КУЗНЕЦОВ ИНТЕРВАJIЬНЬIЕ СWИСТИЧЕСКИЕ МОАЕПИ ® Москва « Радио и связь» 1991 УДК 621.391 Кузнецов В. П. Интервальные -М.: Радио и связь, 1991.-352 с.: ил. JSBN 5-256-00726-2. На базе новой аксиоматики развивается аппарат размытых математических моделей случайных явлений. Эти модели охватывают множественные, интервальные, нечеткие, и вообще любые статистические описания характеристик явления, подходя к вероятностей как пределу изобилия данных. Сфера действия от неустойчивых, уникальных явлений до статистически устойчивых к повторам. В этих широких пределах освещаются и интерпретируются понятия интервальной вероятности ие анализируются причинные вводятся критерии и Применительно к новым моделям разрабатываютсяе 2303020000-040 1( 96-90 046(01)-91 ISBN 5-256-00726-2 © Кузнецов В. П., 1991 Кузнецовой Екатерины Иван.овны посвящается ВВЕДЕНИЕ Теор,ия вероятностей есть не что иное, как математический язык описания случайных явлений. Привычка, навык к этому языку мешают задуматься над ,существованием других, быть может бо•лее удобных форм и описаний, ,не входящих в словарь общеупотребительного языка, ·но делающих простыми ситуации, столь трудные в современном «произношении». Разработка нoBOtI'O •математичес1к-ого языка шире ,общепр,изнанно,го и ·его и,спользо,ва,ние -составляет суть предлагаемой книги. Символыный язык -средство описания и . способ общения, но в то же время это и�нструмент, с помощью которого можно что-то исследовать, •создавать, обрабатывать, конструировать, а для вероят,ностно-статистических методов -получать решающие правила, алгоритмы, оценки. Последние реализуются работающим•и устройствами. Критерием жизненности, приемлемости нового символьного а•ппарата служит его надежность, адекватность, способность делать то, чего ранее не было, обрабатывать то, что не обрабатывалось, упрощать то, что было сложным. Именно эта цель преследовалась при введении интервальных моделей и старательно претворялась при разработке методов. Базу книги закладывают интервалыные вероятностно-статистические категории, дающие универсалыный способ описания как имеющихся зна,ний, так 'И их отсутствия, т. е. незнания; под эти категории подвод,ится аксиоматика. Получается новая теория, непривычная, ,наверно, с первого взгляда, но охватывающая огромное разнообразие явлеНlий как устойчивых, определяемых вероятностями, так и ,неустойчивых, •невероятностных, с iНебольшим числом неполно исследованных закоiНомерностей, наконец и вовсе с неизвестными свойствами. Покажем, ·что зер-но интервального подхода уже скрыто лежит в ,недрах современJНых вероятностных построений, задача -взрастить его (первая часть К'НИ['И) и «собрать урожай» (вторая часть). П р и м е р 1. Пусть модель случайной величины с исходами на числовой uрямой liВ описывается плотностью распределения вероятностей. Интегрирование по ней дает вероятности Р(А) отрезков AeliВ и их объединен•ий (сумм) вплоть до счетных, составляющих набор .st-измеримых событий. В st, не могут войти все события, как бы не размельчапось оно до борелевских и далее лебеrовских. множеств -[1]. Всегда так называемые неизмеримые собы тия B�.st-, дпя которых вероятности уже будут интервальные �(В), Р(В), оп•, _ з� ределеииые как внутренняя и внешняя меры формупами: !(В)= sup Р(А),А:В::>АеЛР(В)= inf Р(А). Точно так же и :е 1Математичеокими ,ожиданиями (сред А: ВсАеЛ ними статистическими) от спучайных вепичии -функций g(x), xel!C. Они оказываются точными Mg на кпассе fR.sf, измеримых ,(интегрируемых) функций и станут иllтерваJП;иыми, опредепенными формупами Mf= sup Mg, lйf= -g: f�gezл ·= inf Mg для остапьных, неизмеримых f, -которых, в общем, великое мно g: f�ge;t.A,жество. Пример позволяет раскрыть следующую конструкцию современных вероя11ностных построений. На ядре d,, представляющем набор событий пространства исходов ?JJ, первичными заданы точ-ные вероятност.и, образующие распределение верояmостей. Стремятся закладывать в .s4, как можно большее число событий, чтобы при продолжении вероятностей, а оно осуществляется интегрированием по вероятност.ному распределению, получались точные :м:атематич,еские ожидания (•сре�ние) Mg у ·всех обозримых случайных величи�н. Последние определяются как измер1Имые фу;нкции g(x), xE?lJ (обыч·но <Кусочно-непре рыв1ные с возмож'Ными скачками первого рода) на исходах явления. Но вопреки стараниями сделать точными вероятности и средние для абсолют но всех событий 'И функций f(x) не удается (кроме я·влений с �конечным и счетным числом исходов), так как все раsно остаются называемые неизмеримыми события и функции, их много и из-за них при продолжении возникают интервальные вероят·ности и интервальные средние Mf, Mf. Эrо первое. А второе, чтое интервалы Mf, Mf определены формально на всех Vf, а точныеезначения Mg есть частный случай интервальных при Mg=lИg и их часть. практически бессмыслен Можно возразить, зачем затрагивать знать много вероят-ностей, существенно расширяет класс неизме римых функций, делая средние ,неточными. А если допустить, чтое вероя'Dности на .s4, ,неточные, т. е. ·интервальные, то всюду какевероятности, так и средние станут ,интервальными. Проиллюс�рируем их на примере семейства вероятнос11НЫХ распределении.е Тогда средние всех измеримых функций будут интервапь роятностей Ре, 0е0.иыми, опредепеииым-и как ниж-ияя и верхняя грани Мg=inf Mei, Mg === sup М8g. -:� еее еее Подстановка на место g (х) индикаторных функций событий А (равных 1, eCJIИиарrумевт J& принадJiежит А, и О, если ве принадлежит) ведет к ,интерваJ1Ьным вероятяостям f(A), Р(А) как составной части средних.и С, универсальной фор-мой отражения любых 'Неточных знаний о я-влении? Так вот, оказывается, что интервально-статистический подход дает более удобную форму для этих целей,вписываются, как частный случай, и распределения и их семейства со всем богатrством возможностей, а также многоемногое другое. Интервальная модель на пространстве исходов ?JJ определяется формалыю совокупностью интервалов средних Mf, JИf, Vf, с·вязанных -собой аксиомами. Далее функции f (х), xE?JJ на'Зываются признаками. Любую нашу модель можно задавать по стандартной ,схеме рис. В.1. Ядро модели формируется набором именуемых первичными, и указанием границ Вероятности раосматр11:1ваются средние продолжаются на Vf, для но,вой теории являются четыре ключевые 1.а Лишение вероятностей привилегий для задания модели иауравнивание в правах е более емким понятrием среднего стаmстического числовых признаков 1• Это означает отказ от распределений ,верОЯ'J'IНО'стей как необходимой части модели и от алгебры •собы11ий ка·к обязательной атрибутики ядра. Это раскрепощает ядро $ �и ,саму модель. 2.а Почему обязательно вероятности и средние должны бытьаточными? Это всегда идеальный случай. Реальный пощюд � считать их интервальными -мг,новенно «развязывает руки». В самом деле, отрезок ,[О, 1] в качестве ·вероятности некоrорого события означает полное отсутств·ие знания этой вероятности. И здесь не надо, ,что •самое ,замечательное, задумыватыся о существовании точ�ной вероятности, обязанной абсолютной статистической устойчивости явлен'Ия. Пусть ,имеет место •неустойчивость, характерная для многих приложений! Если неустойчивость не полная, а част.ич,ная, то приходим к интервальным вероятностям внутри '1[0, 1]. Наконец, если концы и:н:тер·валов смыкаются, то получаются точные вероятности. Все сказанное ,Iiеренооится на средние, только областью их значt:тий будут у.те интервалы на всей оси чисел. 3.еНеобычайная гибкость ядра I/2), либо сомнению. Итак, каждое событие отождествляется с эквиваленТтным признаком, а всем событиям соответствует подкласс признаков -это все функции со значениями от О до 1. Интересно и ,важно то, что логике высказываний, по правилам которой из одних событий логически образуются другие, •соответствуют вполне определенные арифметическ,ие действия между признаками: <<Не q»-<=>1-q(x); «Q1 и q2»-<=>q1·(x)q2(x); «q1 или q2»-<=>min{l, q1(x)+qz(x)}. Признаками описывают,ся не только события, но и м,ногие другие характеристики случайного явления, например, мощность, эффективное значение и т. д. Любое преобразование признаков: сложение, умножение ,и т. д. -ведет к новому признаку. Таким образом, всевозможные признаки вместе с привычными действиями между ними как действительными функциями переменной х дают универсальный аппарат описания всего того, что связано так или ина·че с :резу.1JЬтата,ми ,случайного явления или :может быть получено из них с помощью логических, арифметических и аналитических действий. Если g(x) �f (х), VxEfC, то будем говорить, что признак g мажорирует признак f и писать g�f. Это оз-начает, что ·какой бы исход не случился, признак g примет значение, не меньшее признака f. Не о любых двух выбранных признаках можно вынести такое суждение, что соответствует частичной их упорядоченности. Средние значения признаков. Выделим отдельный признак f и рассмотрим, какие сведения могут иметься о нем априори (полагая, что явление еще не произошло или результат его не известен). Первое -это область возможных значений, определяемая видом f(x). Областью значений может быть дискретный набор чисел, например для индикаторных признаков А(х) это О или 1. Это может быть отрезок числовой прямой ,[ min f, max f] от минимального rnin f(х) до максимального max f (х) значения f. Для х х общности, учитывая, что минимум и максимум ,це всегда достигаются, заменяем их ,на и-нфимум и супремум: ·[inf f, sup f]. Второе -это да-иные о среднестатистических свойсmах признака f. А именно, ожидаемое в среднем его значение Mf (здесь Мот слова MEAN -сред�ний), называемое точным средним приз нака f. I(ак оно получается? Самое простое -на основании симметрии эксперимента. Например, игроки, с-кажем, в «орел -решку» хорошо понимают, что при рав-ных ставках шансы на выигрыш и проигрыш одинаковы, т. е. в среднем они будут иметь ноль. В далекой древности бросали астрагалы -кости конечностей животных -и для обеспечения «равных шансов» каждый раз партнеры менялись местами. Точные сведения могут находиться ·изучением внутренних механизмов явления, его при-р'оды, как это делается в статистической физике. Возмож-на оценка среднего по результатам предварительного опроса, проведением наблюдений, искусственно созданного обучающего эксперимента, ,испытаний. Если испытания независимы и проводятся в одинаковых условиях, то среднее будет пределом ,сред;него арифметического ·наблюдаемых значений признака при неограниченном увеличении числа испытаний. Наконец, просто по опыту, под которым понимается совокупность прямых и •косвенных сведений о явлении, мож-но примерно знать, что ожида-ется в среднем. В самом деле, каждый из нас догадывается, ,околько в ,среднем он потратит времени на .дор-огу к месту работы ил•и в другое место, каков средний ожидаемый доход от намечаемого дела или расход от туристической поездки и т. д. Частным случаем такого точного среднего, ·когда f (х) =А (х) индикатор,ный признак -события А, является вероятность, обозначаемая Р (А) =МА (х) (Р от слова PROBAВILIТY). Вероятность-, это среднее ожида-емое число появлений А при независимых повторных испытаниях, деленное на число испыта111ий. Ключевы,м �во всех предыдущих рассуждениях я�вляет,ся то, что в строгом смысле точные средние (и вероятности) -это параметры статистически устойчивого явления и достигаются они усреднением при неограниченном повторени,и того же самого явления в ·независимых и устойчивых условиях. Так как организовать устойчивое повторение подчас затруднительно, а неограниченное число раз просто .невозможно, то часто подразумевается мыслимый или умозрителЬiНЫЙ повтор. Но чтобы «проиграть» явление сколько-то раз, проделав это ,в уме или с помощью ЭВМ, нужно более или менее точно знать физическую модель явления, его пр-ироду. Так, и в случае симметричной монеты, ее ,не обязательно подбрасывать, поскольку итак ясно, чrо в среднем число орлов должно равняться числу решек. Это классический пример для определения точного среднего. Но практика не всегда вторит теории, а действительное -желаемому. Реальные явления часто та-ковы, что их ·внутренние ме 1'2 ха 1низмы до конца не поддаются исследованиям , опыты уникаль� ны, .. их повторы неустойчивы, а п,редварительные наблюдения ограничены. В •результате точное среднее остается как идеальное понятие, достигаемое в пределе, ,применение которого сопровождается мноnими «вот если бы» или «пусть... ». Интервальные средние и вероятности. Генеральная ваша мысль такова, что не только неустойчивость явлений, но и любая неабсолю11ность статистических знаний (недостаточность, неточность,огра1ниченность), свойственная почти всем реальным задачам, естественно вынуждает переход к интервальным понятиям. Расширим понятие среднего, отказавшись от его определения как числа. Интервальным средни.п признака f называется отрезок ,[Mf, .Мf] с границами Mf -нижним средним и .Мf -верхним среdним. В ча,стном случае равенства Mf =Mf=Mf интервальное среднее переходит в точное и обоз,начается без черточек. Другой ча,стный случай, 1югда границы интервального среднего -совпадаю-с с минимальным и максималЬlным значениями функции: M f=inf f, Mf = sup f. Это означает, что о среднем ожидаемом значении признака f ничего неизвестно. Оно любое в промежутке значений f. Здесь уже не важно, устойчиво или неустойчиво явление, можно ли ,организовать повторы или нет: ничто ость ничто. Таким образом, интервальное среднее [Mf, Mf] дает широкий охват описания признаков от полного незнания до точного знания ,сре�•него. Интерmрети�ро.вать можно суще и ка,к ,вве,J.ение защитного на Mf от неустойчивости явления. И •вообще, как более общее поня ч·ем точное среднее, когда последнее в силу упомянутых ранее обстоятельств не определяется. Важно то, что в отличие от точного интервальное с·реднее всегда существует хотя бы потому, что всегда имеется возможность перехода к крайнему случаю по.пного названия этого среднего. При f (х) =А (х) интервальное среднее превращается в интервальную вероятность [Р(А), Р(А)]; Р(А) =�А, Р(А)·=МА. На простейших примерах проиллюстрируем некоторые ее интерпретации. Пр и м е р 1.1. Пусть имеется астрага.1 (кость конечности животного) с четырьмя состояниями при бросании. Понятно, что точные вероятности в.сех этих состояний существуют. Но чтобы найти их, требуется бесконечно долгий эксперимент. По ограниченному эксперименту можно оценить вероятности лишь при ближе�нно в виде некоторых доверительных интервалов значений. Это и будут интервальные вероятности. П р и м е р 1.2. Имеются два одинаковых с виду кубика с нанесенными на гранях от 1 до 6 очков. Для симметричного кубика вероятность выпадения одной грани, скажем шестерки, равна 1/6. У другого же кубика центр тяжести смещен в сторону, про'l'Ивоположиую шестерке (в средние века по вполне понятной хитрости в куби-ки заливали �куски металла), и вероятность выпадения шести очков стала больше 1/6: ре> 1/6. Неизвестно, какой из кубиков и в какой :nоследователь,ности подставляется в игре. Тогда верояmость шестерки будет интервальная [1/6, Ре]. При увеличении повторов эксперимента отно.:ительная частота шестерок в разных сериях может сходиться к любому числу из этого интервала. Здесь неустойчивость вызвана вмешательством человеческого фактора в виде совершенно неизвестной стратегии подстановок. llpи известных стратегиях интервал сужается вплоть до точных значений (когда берется кубик одного типа). П р и м е р 1.3. Пусть монета не бросается, а одна или другая ее сторона показывается некоторым субъектом. Это будет демонстраuией статистической неустойчивости в своей природе человечес-кого фактора даже при полнейшем желании делать показ независимо а равновозможно. Если здесь и можно описать среднестатистический результат, то лишь интервальной вероятностью ( зависящей от психических особенностей субъекта) . Математическая модель явления. Математическая модель это еди,нообразная удобная для разработчиков -символьная форма опи-са.ния результато�в явления совместно с присущими им за,кономерностями. Предыдущими рассуждениями мы подошли к ее пониманию. Имеется пространство ?lJ элементарных исходов, а яа нем определено неисч·ИСЛ1iмое множество числовых пр'Изнаков, одни ,из которых мажорируют другие, мажорируются третьими или их ли•нейными 1юмбинациями и т. д. Для всех абсолютно ограниченных признаков f, класс которых обозначим �00 = = {f : supI f (х) 1 <::ю}, существуют интервальные средние Mf, Mf - х внутри промежутка з-начений f. Но этого может оказаться еще мало. Модели станут более универ·сальным,и, если избирателыно допускать существование средних на некоторых неограничен-пых пр,изнаках. Для ряда признаков это естественно: так, если признак f не ограничен снизу, но ограничен сверху sup f = Н < оо числом Н, то верхнее среднее Mf -не может быть больше Н, поэтому существует. Итак, имеем Mf- Mf�Mg (из Al переменной знака _функции и А4);е 8.еinff::=:;;Mf, M/'::=;;;supf ( из 7, Al и 2, так как inff::=;;;,f::=;;;supf);е 9.е l.iИlf=max{IMfl, j.Мfj}::=;;;.мjfl (так как ±f::=:;;lfl==>-Mf::=:;;е::::;;мlfl, -Mf::::;;.мm, здесь 1м1 -новое обозначение, называемое максимальным по модулю средним); 10. М(f+g)::=;;;Мf+.мg::=;;;М(f-J-g)-псевдоаддитивность (из 3 иеА4 Mf=M[ (f+g)-,g]pM(f+g)-Mg; из АЗ и А4 Mg=M[(g+ +f)=f]::::;;.м(g+f)--Mf); - = = 11.еMg точное ==>M(f+g) Mf+Mg; M(,f+g) Mf+Mg (из АЗ,е3 и 10); k k = 12.еМ � fiе� Mfi -конечная аддитивность точных среднихе i=I i=I M[i, i= 1, ... , k; 13.еНепрерывность средних по отношению к равномерной прие сходимости функций: sup \f n (x)-f (х)l-+O==>Mfп-+Mf, Mfп-+Mf - х (так как \Mfп-Mfl и \Mfп-Mf\ не превышают sup\fп-fl). Итак, из аксиом получены такие естественные свойства, что нижнее среднее Mj' не больше ·верхнего 6 и не меньше нижней грани функции 8. ДJIЯ M f также спра•ведлив закон переноса 1. Свойства 3, 4, 5, 10 подмена ,свойства аддитивности 12, справедливого для точных средних. Формально определив ИМ, мы пока не указали конкретно, что представляет собой область существования fТ верхних средних и насколько она может быть шире fТ0 • Ограничились только ее свойствами полулинейности Cl, С2, СЗ. Конкретизация fТ будет произведена после того, как мы позна1юмимся с универсальным способом задания ИМ, к которому и обратимся. 1.2. ПРОДОЛЖЕНИЕ ПЕРВИЧНЫХ СРЕДНИХ Вступление. Утилитарные достоинства той или иной теории, тех или иных моделей и методов определяются по трем направлениям: 1)еуниверсальность - нацеленность на работу классом объектов или явлений; 2)еудобство и гибкость аппарата, податливость к упрощениям,егрубым прикидкам; 3)епростота и естественность перевода «языка явлений» наеязык адекватных им моделей и физическая интерпретируемость параметров модели. Во многом направления перекликаются между собой, но скорее это три похожих ·зайца, бегущих в разные стороны. Задержим У модели должны быть выделены приоритетные, первичные параметры, связывающие ее ,с явлением, варьируя число и значения которых, можно достичь адекватности модели, подобно прибору, подкручивая ручки которого добиваются настройки. Мы покажем, что любой набор пр11знаков с заданными для них средними (точными или размытыми, в виде интервала или одной границы) может играть pOJlb первичных параметров ИМ. Этим результатом убиваются все три зайца: универсальность достигается за ·счет разнообразия выбора первичных признаков, а гибкость и интерпретируемость -выбором их числа и варьируемости границ интервальных средних, смысл которых нам уже ,известен. Первичные признаки и средние. Пусть �* -набор первичных признаков. Неважно, какой он, конечный или бесконечный, со" стоит из ограниченных признаков или нет -это вопрос приложений. Каждый из эТ�их признаков gE$* есть функция g (х) пе ременной х, пробегающей множество fВ элементарных исходов, поэтому они называются также первичными функциями. Для каждого ,первичного прцзнака gE�* заданы интервальные первичные средние !::!g, Яg или одно из этих значений. Волнистаяи черта подчеркивает 1не столько то, что это первичные средние, сколько то, что они могут быть в общем не ,согласованы между собой в смысле выполнения аксиоматических свойств Al, А2, АЗ и А4. Необязательность контроля согласованности дает определенную ,вольность, упрощающую процедуру задания первичных средних, а значит, и самих моделей. Для g может быть известно Mg 'И (или) Яg, поэтому выделим из набора �* два лоднабора: верхний �в, на котором определены fi7Lg, и нижний �н с Mg. На их пересечении �вП�н заданы и те, и другие, .т. ,е. первичные интервалы Mg, Яg средних. Нижний первичный поднабор � н моментально обращается в верхний. Для этого, опираясь на А4, определим Я(-g) =-Mg, и, таким образом, вместо ,g с заданным нижним средним Mg имеем функцию с противоположным знаком g1 =-g с заданным на ней уже верхним ·средним, равным Mg1 =-Mg. Подвергая указанному обращению все gЕ�н, исходный набор g;,* переводим в эквивалентный верхний первичный набор � =�в U (-� н). Теперь заданным считается Nlg, f!,'E�. Такое приведение, подчас неудобное с позиций естественной интерпретируемости параметров модели, оказывается тем не менее весьма удобным д.'IЯ унификации и упрощения записи формул. Несмотря на отсутствие -требования согласованности, первичные верхние средние Яg, gE�, нельзя задавать совсем произвольно, так как зто может привести к противоречию (скажем, g(x) �О. а MgО всегда можно указать такую мажорирующую конечную линейную комбинацию g(x) =с+ !,c+igi(x) �{(х) первичных признаков (т. е. вторичный признак), что Mf+e�c+ � ct Mgi =Mg. Поскольку g�f*Nig�Mf, для •следствия вер.но \Nig-Mf 1 :::;;;е. При уменьшении е понадобится вовлекать ,в g большее число пер,вичных признаков 1для �приближения iк мf, •количество операций возрастает. Отношения между определенными нами множествами признаков иллюстрируются рис. 1.2. Здесь �каждая из верхних ,полу-сфер включает в себя все нитние. Согласно теореме 1.1 средние с первичного набора на линейные комбинации :е+� первичных признаков (вториЧ'ные признаки) и уже через них распространяются на класс fТ :§ признаков, мажорируемых втор·ич ными. Это и будет областью существования верхних средних; ядром ее является класс fТ0 всех ограниченных сверху признаков: fТ0 с:.fТ :§. В fТ :§ войдут и ,неограниченные признаки, если неогра ниченные :имеются среди первичных, а иначе, fТ :§=IF'o. Согласованные первичные средние. Замечательно то, что ( 1.2) не только дает верхние средние Mf для VfEfТ :§ (в ча·стности, Mf, Mf ,для VfEfТoo), но ,и попутно, под,ста:новкой giE� •как части f, уточненные и согласованные между собой Mgi. Так как gi мажорируег ,сам себя •как пер1вичный признак, то согJ1а1сно (1.2) Nigi�Mgi, giEis. Если получается Nigi =Mgi, то первичное значение Nigi само по себе уже согласовано с другими средними и обозначается Mgi. Если же Nig;>Mgi, то найдутся вторичные признаки, мажорирующие g;, уточняющие Nig;, а само Nig; будет несогласованны,и и без ущерба может быть изъято из первичного набора. Таким образом, Аюгут влиять на вид ИМ только согласованные первичные средние, да и то, как будет видно дадьше. Рис. 1.2. Этапы продолжения средних не обязательно ·все. Их минимальное число называется размер ностью ИМ. Интервальная ;Модель, ,пер,виЧ'ны,ми для �которой являются Mg, ge$, обозначается (Nf�). а если все несогласованные j-пер·вичные приз·наки ,исключены из на·бора, то (М�'), 1$' с�.о Расширение первичного набора включением в него средних Mf, найденных .по (1.2), не меняет ИМ, поэтому получаем однои то же, если 1брать за первичный ,набор �. �, ,или все E!F= =!Т �: .А=(М�)=(.М�')=(.МЕ!F). Заметим при этом одну осо бенность, что несогласованные первичные признаки gi, для которых Mgi>Mgi, обязательно должны быть мажорируемы хотя бы одним из вторичных признаков gE!E+1$, который и даст на основе ( 1.2) уточненное значение Mgi. Та·ким образом, fZ+r:§' = =Р+1$ и !Т�, =!Т �. Из сказанного также следует, что первичные средние J,Jgi" giE�, являются согла�сова1нным,и в том и только том случае, если спра,ведливо: gi(х):=:;;;g(x)EP+�=>-Mgi:=:;;;Mg �для всех gie.'§и gE1S+P, удовлетворяющих первому неравенству. Тогда .Nlgiо= =Mgi, V.gie.1$. Признаки случайных величин. В качестве примера рассмотрим тот случай, когда fJJ.о= fR -числовая прямая. Такое явление· ,имеет числовые исходы и называется случайной велич_иной (сокращенно с. в.). Призна·ками f с. в. могут быть любые числовые· функll!ИИ f,(X) на !11, (далее числовые ,исходы Хе.!Л обозначаются заглавными буквами). Случайная величина называется дискретной, если возможные ее значения составляют конечное ;или счетное множество Q точек. Удобно считать для таких с. в. пространством исходов всю прямую fR, а тот факт, что Qс!Л,, отразить добавлением первичной вероятности P(Q) = 1 (напомним, что Р(А) =МА (х) ), согJiасно которой Q есть достоверное событие. Так как Р (Q) ;;а,: Р (Q)• = 1, то -можно написать P(Q)=l. Некоторые характер1ные признаки ·с. в. упорядочены в табл. 1.1. Дадим два примера расчета их средних по теореме 1.1. Пр и мер 1.4. Пусть известно, что среднее с. в. равно т; записываем МХ= = m (1". е. М(±Х=±т). Оно согласовано и продолжается на ос.новании свойства 12 на вторичные признаки f(Х)= с+с1Х: М (с+с,Х) =с+с1МХ. Область существования f!F составляют функции, мажорируемые прямыми с+с1Х. Так как с2 --2сХ;;;;,,-Х2 , то -X2ef!F и M(-X2 )=шin(-2cm+c2 )=-m2 , т. е. MX2 =m2 . с Функция Х2 не мажорируется прямыми, поэтому МХ2=оо и X2 ф.f!F. д,,я .,юбых индикаторных признаков А (х) событий невозможно подыскать мажорируюшую прямую с+с1Х, кроме с=О, c1= l, поэтому Р(А)еааО, Р(А)=-1. Отсюда вывод, что первичное среднее, будучи в единственном числе, нетривиальных данных о событиях не несет. Пр им ер 1.5. Пусть первичным для с. в. Х является верхнее среднеквадратическое (мощность с. в.) МХ2 =6, что порождает ИМ. размерности 1. 06 Таблица 1.1 вепичины 1 Формапьное обозначение Признаки Q-множество значений с. в. '1 51 ... х Среднее с.в. точно равно т MX=m х/ ... лежит в интервале �• т MX=m, MX=m -/о Среднеквадратическое - МХ2 =Ь, МХ2 =Ь - Вероятность попадания в отрезок А лежит в задан-� (А), Р (А) , [ А / - ных пределах Вероятность P(X>h)=ph уровень /1 не больше Ph Среднее модуля с.в. лежит в указанных пределах М cosuX, МсоsиХ Средние гармонические при LД� знаков MsiпuX, МsiпиХ -у� в 1 Вероятность отрезок А отр@зок В (§ 1.4) составляют все признаки /(Х), мажорируемые параболами вида с+с2+х2, т. е. те f, ' / \/ для которых lim f(X)/X20, \ / IXl ➔oo \ / подбирая, как это видно из рис. 1.3, соответствующим образом мажорирующую па1 а, Uz\ х 2 а1 +а2)2 z z раболу: с=О, с+2= а1 -, {а1<Х<а2}<Х2/а21,о"-1-�х-----)находим: Р (а1<:Х <:а2)<:МХ2/ а21=Б/а21 �(при г {;Uz·a, а2= оо имеем аналог неравенства ЧебышеРис. 1.3. расчет вероятностеii поо ва). Равенство будет, когда правая часть мощности меньше 1, т. е. при а1> VБ (при а2<О заменяется а1 на а2), иначе вероятность Р тривиальна и равна 1. Таким образом, знание Б делает нетривиальными верхние вероятности отрез1,ов, удаленных от начала оси по крайней мере на расстояние, превышающее ·1/ Б. Найдем прн тех же исходных данных МХ. Мажорируя прямую Х параболой: Х�с+с+2Х2, V Х, что эквивалентно 4сос+2 ;;,,, 1, и минимизируя при последнем ограничении (замененном на равенство) среднее параболы М (с+с+2Х2)= == = с+с+2Б, находим ее коэффициенты c+2= 1/(2V б), С!/4с+2уь/2,по.::.ста = новко�'i которых получаем МХ·v5. АнаJiоrичен путь нахождения .И(Х±т)2, для чего (Х±тр мажорируется парабоJrой с+с+2Х2, откуда вытекает требование на ее коэффициенты: с>_с+2т2/ (c+z-1), минимизируя при этоы огра = ничении среднее параболы, получаем коэффициенты с+ 21+ 1 т 1 ·k"ь, с= = (11ь+ 1 ml) 1ml, откуда 1W(X±m)2= (1ml + VБ) 2•оПусть теперь к среднеквадратическим в качестве первичных добавляется нулевое среднее .МХ = О ( что эквивалентно М( ± Х) = О). Тогда ИМ сужается, ее размерность становится равной 3. Вторичными будут уже любые нап;)авленные вверх параболы со средними на них Лl[с+с+2(Х-с1)2] =с-:-с-;-,Б+ +с+2с21, где испоJiьзовалось свойство 11 § 1.1. В частности, отсюда М(Х±:н)2=о=МХ2+т2= Б+т2. Будем искать вероятности событий, а именно отрезков. Среди парабол, мажорирующих индикаторный признак отрезка: {а1,;;;;Х,;;;;а2} ,;;;;с+с+2(Х-с1)2, а это будет при с;;,,,О, с1�а1, c+c+2(at-c1)2;;,,,l, нужно наiiти такую подборомокоэффициентов с, с1, с+2, у котороii минимально верхнее среднее. Несложными == вычислениями находим.: сО, с1-Б/а1, с+2= (а1+Б/а1)-2, где считалось а1>О (при а2<0 нужно а1 заменить на а2), в результате вероятность равна минимальному среднему параболы: Р(а1,;;;;Х�а2) (1+а21/Б)-1• Вероятность не = тр1Ивиальна .при любом а1>О (или а2<О). Нижнюю вероятность отрезка рассчитаем, «вписав» параболу (нанесена штриховой линией на рис. 1.3), с которой переносится на событие среднее Правая часть больше О при -а1а2>Б (отсюда а1<0 и а2>О), и тогда получаем нижнюю вероятность (иначе, она О). Итак, знание нулевого среднего. уточняя верхние вероятности отрезков, отстоящих на \ а11 от начала оси, деяает нетривиальными нижние вероятности достаточно ШU1роких отрезков, включающих начало оси. Отметим, что дополнительное знание МХ2 =:!!_ вероятностей не меняет. Признаки случайных процессов. Случайный процесс Xt есть нумерованная индексом ·t (называемым временем) последовательность с. в. Значениями t могут быть отрезок [О, Т] временной оси fЛ, вся ось, некоторые дискретные точки-отсчеты ti, t2, ... , tn на этой ос·и (тогда процесс ста1новится вектором). Это сейчас неважно. Обозначим Т -множеетво этих значений. Пространство -исходов aJ будут всевозможные реализации Xt, tET как функции времени t. Чтобы описать процесс, нужно описать каждую с. ·в. Xt в отдел.ьностп своими признаками, как это было проделано, а также связь между Х1 и Х1, при различных t и t'ET. Признаки этой .связи, в частности, составляют ,произведения XtXt,, а их ·средние MXtXt, = bt, t', МХ1Х1, = bеt, t' будут нижней и верхней корреляционными функциями. В более общем случае -это корреляции после преобразования каждой с. в. одной и той же функцией F (так называемые безынерционные преобразования), тогда первич,ными парамеТ1ра-ми процесса будут MF(Xt)P(X1,), MF(Xt)P(Xt,), Так, если Р(Х) = {X>h} -индикаторная функция превышений уровня h, то это будет корреляция превышений (при h,=0 корре ляция полярностей). Отличными от указанных являются признаки в виде интегра 1 -Т 2 лов, такие .как J F (Xt)d,t. В частности, -М S Х t dt будет верхней т т о средней интегральной мощностью процесса на отрезке Т=ТО, Т]. Таким образом, признаки и их средние являются универсальной формой описания любых явлений. Сложность описания диктуется не ,столько пространством flJ исходов, сколько размерностью интервальной модели, определяемой числом первичных средних. Гол ая модель. Пусть первичным для ИJ\'\ является единственный фа,кт: событие В я,вляется достоверным, •И более ничего. Это соответствует первичной вероятности Р(В) = 1 (или же Р(В) = 1, что то же самое). Такая модель назьшается В-индикаторной и обозначается :lв. Ее описывают средние Mf(x)=supf(x), а об хЕВ ласть существования соста,вляет класс всех признаков, ограниченных сверху при ХЕВ. Если B=flJ, то модель называется голой и обозначается :J. Она описывается средними Mf=supf, и ей ·соответствует полное отсутств-ие данных о явлении, а область существования составляет класс f1Т0 всех ограниченных ,сверху признаков. Модифицированная формула продолжения. Замена первичных: признаков giE f (х)-� ct g; (х)} = =inf sup [f (х)-� ct g; (x)J, (1.3) с+ х i о о Очевидно, любой вторичный признак вида g(х) = 1:c+igi (х) о центрирова•н, т. е. его первичное верхнее ·среднее Jйg=O и, наоборот, любой центрированный признак представляется в указанном виде. Поэтому смысл формулы (1.3) состоит в отыска,нии такого из вторичных центрированных признаков, который наименьшим образом отклоАяется вверх от функции f (х), т. е. ,наилучшей, что ли, верхней аппроксимации функции f (х) центрированными вторичными признакам•и. Вычисления по (1.3) поясним ·примером. Примоер 1.6. Пусть случайiНая величина (т. е. ВC=S'l) задана одним первичным значением мe-lXI=µ.. Требуется найти P(O=,;;;X=,;;;d). Задача по (1.3) сводится к нахождению величины P(O=,;;;X=,;;;d)=min max,[ {O=,;;;X=,;;;d}c+ х -c+ (e-lXl_µ.)]=minmax{l-c+(e-d -,µ.), с+ µ.} (для наглядности советуем на с+ рисовать графики фунвенстве обеих частей под зна!Ком максимума, Р(О�Х �d) =edµ..При e-d,;;;.,, µ. минимум достигается при вероятность равна 1. Дополнения. 1.оВ область существования fГ полагались входящими признаки с Mf =-oo. Интервальную модель можно полагать заданной на всех признаках f, f, для которых Mf не существует, среднее равным беокоаналогично Mf=-оо для f, у которых нет нижнего Аксиомы ИМ в этом случае в общем удовлетворяются, если считать 0-оо=О и учесть, что класс всех не замкнут относительно операци и сложения, так как если f(xo)=oo, g(xo)=-oo при некотором Хо, то совершенно неясно, чему будет равно f(xo)+g(xo)=oo-oo. Целесообразно аксиому АЗ считать выполненной для тех признаков, для которых сложение определено. 2. Если первичными являются ка-к нижние средние !:!g, ge:� ... так и верх ние Mg', g'E�n. то вторичными признаками будут всевозможные конечные линейные комбинации вида с произвольным коэффициентом с и неотрицательными c+i и d+i, Формула лродолжения ( 1.2) тогда примет вид Mf= inf {[с+ � ctмg; -� dt �gi]: � dt gi(х);;.. f (х)}, :а ( 1.3) записывается в виде inf sup[f(x)-� ct(g�(x)-Mg;)+ � df(gi(x)-Mgi)], х d+с+ i • i rде g;E.�11, g';E�u 3.нПолагая �=� •• U�в, всегда можно сделать так, чтобы на � были заданы интервалы средних Mg, Mg, gE�. Для этого незаданные средние заменяются на соответствующие экстремальные значения функции g. Тогда вторичными будут всевозможные конечные линейные комбинации линейная оболочка �, обозначаемая 2'3={g·(x)=c+�c;g;(x)}, где g,E�, а с и Ci произвольны. Формула продолжения средних запишется в виде Mf=inf {[с+� Mcigi):c+ �cigi(x);;;.,f(x)}, Mf= inf sup[f(х)-� (cig; (х)-Mci g;)), ci х .где Mc;g;= c;Mg; при с;>О и Mc;g;= C;�g; при с;<О. 4.нВ формуле продолжения •класс ,О'+� по свойству 13 вполне может быть заменен на его замыкание [2'+3] относительно равномерной сходимости. В этот класс кроме конечных полулинейных комбинаций функций из 'S входят их равномерн-о сходящиеся пределы. Оказанное имеет, конечно же, нетривиаль ный смысл лишь тогда, когда набор � бесконечный, иначе ,О'+� и его замыкание совпадают. 5.н Формулы продолжения аналогичны формулам двойственности, используемым в теории обобщенных чебышевских неравенств [ 17]. Только работают они здесь в другой аксиоматике. 6.н То что вторичные признаки являются конечными суммами первичных,а не бесконечными, -это принципиальное в нашей теории «нежелание» добавлять «лишних» а,ксиом , ибо не доказуемо, что сумма бесконечного (счетного)числа ну.1ей, рассматриваемая в целом, а не как предел, есть ноль. 7.н I(аждый признак f (х) сам по себе есть с. в., поэтому ИМ (МЕТ) можнонрассматривать как совокупность согласованных средних значений всевозможных с. в., определенных на пространстве aJ. Набор признаков gP ТЕТ, в совокупно,ти дает случайный вектор, если Т дискретно, или процесс, если непрерывно. 8.н Тот факт, что ИМ определяется средними мf необозримого множества fТ признаков, не является помехой применения. Возможность вычисления мf по (1.2) отнюдь не означает, что для каждой f эти вычис,1ения должны быть проделаны. Совсем наоборот, как далее будет видно, нет нужды в прикладных задачах выходить за рамки вторичных признаков. 9.нВведение любых свойств непрерывности средних, не следующих прямониз аксиоматики, выделяет подкласс моделей из общего их ансамбля, равно как другие дополнительные свойства. 10.Нач а п ь н ы е мом е и ты. Задают с. в., если первичными дпя неенявпяются средние степенных фую<:I1JИй: �Xi, NlXi, jel, где / -.набор цепочиспенных неотрицатепьных индексов. Средние MXJ называются нижними мо ментами j-ro порядка, а ,'ЙХj -верхними. Перв� момент МХ, МХ называется нижним и верхним средним сам-ой с. в., а МХ2, МХ2 нижней и верхней мощ ~ ностью. Абсопютными начапьными моментами называются моменты модупя с. в. �IX\J, i'Й/Xlj, i>O. Очевидно, при цепых четных неотрицатепьных j зто есть просто начальные моменты. В общем, j может не быть цепым. Для абсолютных моментов, если они соrпасованы, должны выполняться неравенства: при (м IXlнr)lfr ;;;,. (М IXls)l/s, (MIXlнr)l/rн;;;,. (�IXls)l/s (доказывается по аналогии с [1], стр. 169). 1.3. ОТНОШЕНИЯ МЕЖДУ ИНТЕРВАЛЬНЫМИ МОДЕЛЯМИ Здесь интервапьные модели геометрически изображаются как некоторые выпуклые «тела» с характерным внешним контурным описанием, отношениями включения и операциями объединения и пересечения. Причем, так как ИМ попностью определяется своими средними, через них топько и будем вводить ниже формапьные отношения и операции между ИМ. Геометрическая иллюстрация ИМ. Пусть возможных э.,ементар,ных исходов конечное число: fJJ = {х1, ... , Xr}, и введем вектор ве = роятностей Р= (Р1, •.. , Pr)-Так kак �Pi1, то размерность Р на 1 меньше числа исходов r. Множество всех Р обозначим :J = {р : Pt ;.., О, .i Ptн= 1} · t=I Это есть подмножество ,-мерного эвклидова пространства fll/. На рис. 1.4 при r=3 этим семейством является треуrол:ыник. Для каждого фиксированного РЕ.о/ среднее значение признака f(x), он же вектор f= (f(x1), ••• , ffТ2. Включение иллюс'Грируется рис. 1.5 как включение «тела» .;f{1 в Jt2. Будем говорить также, что .;f{1 более узкая, чем .;f{2, а .;f{2 -более широкая. Добавление первичных параметров отсекает новые грани у «фигуры» .;f{ и приводит к ее сужению. К сужению приводит и уточне,Н'ие ,средних: для Mf -это у,меньшение, а для Mf -увеличение, поэтому включение .;f{, c..;f{2 соответствует тому, что в ..;f{1 вложено больше данных или же они более точные. В резуль тате .;f{1 более -подробная, чем .;1{2• Самой широкой среди всех является голая модель (на рис. 1.4 -это множество 3 всех векторов вероятностей), определяемая средними Mf=sup f, fEfТo, на всех ограниченных сверху признаках и обоз•начаемая 3. Она получается, если никаких данных -«одежд», отличающих одну ИМ от другой, нет, они отсутствуют: �=0, т. ,е. о явлении -ничего неизвестно -·своего рода «черный ящик» с абсолютно загадочной структурой, выход кото рого х наблюдается. Для ;У интервал средних Mf, M,f каждого -ограниченного признака fEfТ00 совпадает с диапазоном inf f, sup f его возможных значений.о Итак, самой неточ,ной среди всех, включающей все остальные, и самой примитивной по спо'Собу задания и своей структуре является голая ИМ: :f-=:J.JI{, V .JI{. Мы говорим, что какое-то х из ?В произойдет, не зная никаких закономерностей. По мере накопления данных ИМ сужается. А существуют ли самые узкие ИМ? Для дискре11ного пространства ?В -да, это векторы Р вероятностей. А в общем, ответ отрицательный, о чем говорилось в обсуждении выше. Потребность логической замкнутости иерархического класса в·сех моделей приводит к необходимости введения пустой модели 0.еЭто обозначение неправильного задания ИМ, когда первичныеезначения Mg ;противоречивы, в результате границы среднего, фор «перепутаны»: нижняя больше верхней, но и убегают в бесконечности: Mf= оо, Mf=-oo. Этими ,средними на Vf и с'Читаем опре деленную 0 •-единственную ИМ, своей несогласован,ностью выходящую и� ансамб.Jt�_,.в.сех. остальных. Так как для любой ИМ Mf�-oo, Mf:::;;;; оо, то 0 c..JI{, V .JI{. -Пусть Q -набор признаков. Назовем Q-расширением .JI{ такую модель (MQ), у которой первичными являются соответствующие .JI{ значения Mq, qEQ (они, очевидно, ·согласованы). Расширение иллюстрируется рис. 1.5. Это способ упрощения .JI{ заесчет включения ее ·в многогра,нник со сторонами Mq, qEQ новыми первичными данными -и пренебрежения всеми остальными знаниями о .JI{. Конечно, чтобы не потерять при расширении слишком много, нужно специально выбирать направленияеграней (вид q), и целая проблема, какие грани экономно будете ввести, какие оставить и сколько ·их.е Набор Q признаков называется определяющи.м для модели .JI{, если ее Q,-расширение совпадает с самой моделью: (MQ)=.J/{.Определяющие -это те признаки, которые в своей совокупности полностью обеспечивают ИМ всем необходимым. Ясно, что определяющим для ИМ всегда является набор � первичных приз F11f . нечной размерности до ИМ с че тырьмя первичными значениями наков (или безызбыточный вариант этого набора), а тем более любой включающий 3 класс признаков, например вторичных. Пересечение ИМ. 1 и ,,1(2 - две ИМ на одном и томеже (произвольном) пространстве lC и каждая из них полностью определяется своими согла1еованными средними M1f, fEfТ1 и M2f, fE'fТ2, на областях ВТ'1 и ВТ'2 соответственно. Пересе�tением ,,1(1 ·И Jl2 называется ИМ Jl =J(1ЛJl2,определяемая средними Mf=min{M1f, M2f}, VfЕВТ'1UВГ2. Здесь волнистая черта означает, что Mf, ·во-первых, могут оказаться несогласованными между собой, так как не выполняется аксиома А3 полуаддитивности, и тогда должны подвергнуться согласованию. Это видно из рис. 1.6, где штриховой линией означены касательные, соот:ствующие средним M1f, M2f и Mf, = min{M1f, M2f}. вет·Mf: вее Используем этот факт. Пример 1.7. Представ ление ИМ пересечением. Jlюбую ИМ (М�> можно представить в виде пересечения <М�> = Л gE� моделей (Mg) размер ности 1, определен ные каждая од ним пер вич ны м значением /Jg признака g, заменяющего индекс 0. Тогда ЕТg =ЕТв состав ляют признаки, мажорируем ые g, а [l> + (UЕТ g) =fТ � -их полу линейные ком бинации. Объединение ИМ. Пусть Jl O = (Мf!Г 0), 0ЕЕ> -семейство ИМ на le, индексированных параметров 0, пробегающим множество <Э. Определим их объедwнение (обоз.начается V) ·следующим образом: Вее.: еее '1fE nв§'о·е Здесь средние Nff, полученные максимизацией f по 0, сог• м8 .nасованы, что легко проверяется и что иллюстрируется рис. 1.6, где объединение обведено штриховкой и соответствует ·выпуклой оболочке тел .,,f( 1 и .,,f( 2• Как видно из рис. 1.6, при объединении рождаются новые грани (первичные признаки), обозначенные штриховыми линиями, не совпадающими с гранями .,,1(1 и .,,1(2, изображенными сплошными. При этом грани объединения .не будут выходить за рамки линейной оболочки граней составляющих, т. е., если быть более строгими, при .Я,и= <л11�1) и А2= <Л12�2)первичные признаки объед,инения будут располагаться в классе .P+(�,U�2). Операция объединения .,,f( 1 V.,,f(2 -символическое отражение фразы: ,«Верна (правильно отражает явление) модель J{, или .,1{2 ». Это сом�ение, неуверенность, ведущая к расширению ИМ. П р им ер 1.8. Пред ст а в лен и е ИМ объединениеим «верш ин». Пусть пространство исходов fll дискретно. Каждой ИМ конечной размерности можно указать вершины Pi -векторы вероятностей. На рис. 1.6 д.1я .lt1-это Р1, Р2, Рз, Р,1 и .1(1 является их оболочкой. При объединении двух ИМ вершины будут выбираться из вершин .lt1 и .lt2. Никакие другие появиться не могут. Для ИМ любой размерности, когда .lt1и= VP16 есть оболочка некоторого в семейства векторов Р10, задающих тело .lt1 (или только его контуры), и аналогично .lt2= VP2 ._,, верно .lt1V.lt2= VP10VP2 ._,, т. е. производится объединение .., в .., этих семейств в одно. Причем достаточно ограничиться теми элементами семейств, которые при юбъедиН€1НИИ оказываются крайними (не входят ,в выпук• лые оболочки других). Свойства операций. 1.иИдемпотентность: J{/\.,f{=J{, .,f{VJt=Jt.и = 2.иКоммутативность: .,,f(,/\Jt2=Jt2/\ .Jlf,, .Jlf, V .Jlf 2иJ{2VJ{,.и 3.иАссоциативность: (.,ff,/\Jt2) /\.Jltз·= .Jlt1/\ (.,ff2/\.,ffз),и(.Jlf 1 V Jt2) V .,f{ зи= .JI{, V (Jt2 V .,f{ з). 4. .JI{ л::1=Jt, .,f{v ::t,=::t. s. Jt /\0 = 0, .J1tV01= 'Jt.и Эти свойства доказываются элементарно и распространяютсяина любое число операций. Очевидно также, что = .Jlt 1 c.JI{ 2=>-.J/{, /\ .JI{ 2 .,f{1, .JI{ 1 V Jt 2 = .J1t2 ОРсю:ц а ,получае11Ся сразу же та,кое известное в алгебре свойство. 6.иЗа,ко.н поглощения:и.(Jt1ЛJt2)V.,f{1 =Jt,, (.J1t,V.J1t2)Л J{,=.1t, (так как .Jlt1/\.Jlt2c.,,f(,, .J/{и 1V.Jlt2 =:,.Jtи1 ). Это есть замена привыч ного для ·булевских алгебр свойства дистрибутивностп, которое для наших операций не выполняется. Причина в том, что объединение V ИМ ,не обычное множественное, всем привычное, а вы" пуклое, так как в результате должны образоваться снова ИМ, которые по с•воей :природе вы1п�клы. И, ка,к следствие, ·невозможность определить дополнение к ИМ (или противоположную ИМ), та1К ,каJК .к выпуклому телу до1полне,ние .не будет ·выпуклым. Дополнения. 1. Для ди.:кретных прост-ранств fВ фор,мула (1.2) вытекает из формулы двойственности .rщнейноrо программирования, когда по ограничениям r r �Pi=l, �ЮiPi�Mlli, i=l, ... , k, i=I i=I r находится максимум линейных форм Mf=max � f iPi• Р i=l 2. Операции над моделями могут быть определены, если ИМ заданы на разных пространствах исходов: .К1-на /!lJ1, а .К2 -на fВ2. Тогда составляется их объед,инение fВ = fВ I UfВ 2 и .К 1 дополняется первичным значением P1(/!lJ1)=I, а .К2-значен111ем P2 (/!lJ2)-=l. В результате .К1 и .К2 сводятся к одному fВ со всеми вытекающими отсюда .возможностями. 3.о Если говорится, что явление с исходами fВ описывается семейством моделей .К0, 0Е0, то это фактически означает, что моделью является объедине ние V.К0. е 4. Содержащееся в примере 1.8 представление ИМ ка·к объединение вершин не я!lляется универсальным в силу невозможности для произвольных пространств fВ отделения «атомов» Р модели. 1.4. ИНТЕРВАЛЬНЫЕ РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ Свойства интервальных вероятностей. Исторически сложилось, что в основу описания случайных явлений были положены вероятности, чем мы обязаны наглядности игровых примеров · (монета, карты, кость), давших теории вероятностей начальный толчок и подпитывающих ее на протяжении развития. Эта же наглядность, а в дальнейшем отработанность и стройность теории привела и к фактическому игнорированию других подходов 1• Наши интервальные модели в ·своем определении базируются на интервальных средних, а вероятностям -нижней Р(А) и верхней J5 (А) от-ведена роль ча,стного СJ1учая, когда признаками являются индикаторные фун:щии А (х) событий: Р (А) =МА (х); Р(А) =МА (х), АсШ. Для любой ИМ ;вероятности Р(А), Р(А) оп - ределены для VA (та•к как А (х) E.roo). Свойства вероятностей непосредственно вытекают из согласованности средних ( см. § 1.1). Обозначая знаком плюс А+ В и символом сумма �А; объединение непересекающихся событий (в отличие от общего обозначения объединения U), имеем: 1. Р(Ш) =.Р(Ш) =Р(Ш) = 1 -пространство f,C является всегда достоверным событием (доказывается Ml =P(W) = 1). 2. Обращение вероятностей: Р(А) = 1-Р.(Ас), где Ас -дополнение к событию А .( так как МА (х"),= 1-М ( 1-А (х)). 1 В [2] в основу теории положены точные средние, но они наделяютсяостоль жесткими свойствами, что это полностью свело получаемые в результаrе модели к вероятностным, ;jЗ 3.о Верхняя полуаддитив.ность: AB=So=>-P(A+B) :::s;;P(A) +о+Р(В), (так как М[А(х)+В(х)]:::s;;мА(х)+МВ(х)).о 4.о Нижняя полуаддитивность: AB=So=>-P(A+B);;а,:Р(А) +о -+Р(В) (так как М[А (х) +В(х)] ;;а,:МА (х) +МВ( х) ). -Вероятности, удовлетворяющие этим свойствам, ,называются согласованны,ни. Смысл слова «согласованность» в том, что если бы какое-нибудь свойство не выполнялось, то хотя бы одна какая-то граница вероятности могла бы быть уточнена за .счет других, т. е. Р(А) увеличена или .Р(А) уменьшена. Из свойств согласованности вероятностей непосредственно вытекают следующие свойства: 5. Р(.0) =0 -вероятность пустого события нуль.о 6.о !: (А):::s;;P (А) -.нижняя вероятность ,всегда не большеоверхней. 7.о AB=fo=>-P(A+B) �Р( А) +Р(В) �Р(А+В) (частный случай свойства средних, который может бытьдоказан и на основе 1-4). 8.оДля конечного числа попарно непересекающихся событийо k k P(�Ai)��J5(Ai) (,следует по индукции ,из 3). 1 1 9.оДля конечного или счетного ч1исла попарно непересекающихся событий P(�Ai) ;;a,:�P(Ai), Для конечного числа Ai это свойство непосредствен,но следует из 4, а для счетного -из !:_ { � Ai) = !:_ ( f Ai + � Ai)� !:_ { f Ai) + !:_ ( � Ai)�о \ 1 1 k+l \ 1 k+l k � �!:_(А;) 1 предельным переходом в правой части пр·и k-oo. Свойство 8 развивает 3 и называется верхней полуаддитивностыо ;вероятностей. продолжает 4 не только на конечные, но и на счетные суммы и называется нижней счетной полуаддитивностью. Это более •сильное свойство, поэтому нижняя вероятность по природе «более непрерывна», чемверхняя. Для верхней же свойство счетной верхней полуаддитивности верно лишь при дополнительном условии, составляющемлевую часть следующего утверждения: 1 1 1 Пусть BnP(�Ai+ � Ai)� �P(Ai 1 )+P(� Ai)• k+I , монотонно возрастая при n-+oo, сходятся к В. Это записывается BntB и означает, что Bn cBn+1, Vn, и для каждой точки хеВ ·с рюстом п най:де�:ся такое Bn, которое все же х накроет. И тем .не менее даже столь жестких требований сходимости ,событий недостаточно, чтобы гарантировать сходимость ихвероятностей, что провозглашается ·следующим тезисом. 11.оВероятности в общем нс являются непрерывными по отно•шению к монотонной сходимости событий. Это негативное свойство означает, что, имея Р (Bn) и J5 (Bn) и зная, что Bn t В, тем не менее можно Р(В) и Р(В) брать отличными от пределов lim P(Bn) и lim P(Bn ), ,не ·нарушив 1при этом ,с1юйст,ва ,согла,сован n➔oo ности �вероятностей. По,:.;ажем это на :примере. При мер 1.9. Пусть BntB, Bn =FB и первич,ными являются P(Bn )=p1, Р(В)=р2>р1. Тогда lim P(Bn) =р1<Р2, Здесь согласованность вероятностей n➔oo l'le мешает задать Р2 отличным от р1. Если же дополнить указанный набор еще одной первичной нижней вероятностью Р(В) =р, О<р�р2, то так как ни в 0,].НО из Вп событие в не ВI<Ладывается, то P(Bn ) =0, и следовательно, -lim Р(Вп)=О, тогда как Р(В)=р>О. - 1z➔oo- Продолжение первичных вероятностей. Интервальным распределением вероятностей (сокращенно ИРВ) называется ИМ, первичными для которой являются вероятности (точные или интервалыные) набора событий. Первичными признаками ИРВ являются индикаторные функции А (х) событий А первичного набор� d, и на них заданы вероятности .в виде точных значений Р(А),интервалов Р (А), Р (А) или одной из границ, чаще верхней. Если нет нижней, то всегда можно положить· ее равной О, а не заданную Р(А) считать равной 1. Это ,ничего не изменит, кроме того, что на всех событиях из .d будут определены интервальные первичные вероятности, позволяя обозначение (! (d), Р (d) ). Если же все первичные вероятности приведены к верхним, ИРВ обозначает,ся (Р (d) ). Рассмотрим, как продолжить вероятности, перенеся их на средние любых признаков. Поскольку первичными признакамиИРВ являются события из d, то вторичными будут всевозможные их конечные линейные комбинации: .Pd={g(x)=c+iciAi(x),Aied}, (вторичные, они же ,d-измеримые, функции), где с и ci -произвольные коэффициенты, и первичные значения переносятся на вторичные признаки по ( 1.1): м-__ + �м-м--А--{сiоР (Ад при ci >O, g -с kJ с1 А-1 (х), где с1 1 С; 1:, (Ai) при С;< О.о Это первый шаг, хотя и не однозначный, так как одно g можетпо-разному записываться через Ai (тогда берется минимальное из Jйg среди всевозможных записей). Следующий шаг состоит в .продолжении этих средних с их согласованием по (1.2) на любые ограниченные функции f(x). Но 2• 35 это будет возможно только, если первичные вероятности .непротиворечивы: g�0:::;.-iйg�0, VgEfl'd. Тогда формула Mf = inf 'v fEff0 дает ,с,огласО'ванные значения оредних .на любых о,граниченныховерху признаках. Класс f!То послед:них .91,-мажорируем и потому будет естественной областью продолжения верхних средних всех ИРВ: [!Т л=f!То. В част.ности, будут определены верхние вероят ности Р.(В) (и через них нижние •по ,с·войству 2) 1для в;сех событий V Bcfe, щругое дело, что они м,огут оказаться для м,ногих событий тривиальным1и, т. е. равными 1. Желание распространить средние на неограниченные призна1ки (та:к•ие ка,к х, xk, tg х и т. д.) ло подобию математических ожи даний дает оправдание третьему шагу, к которому .и перейдем. Предельное продолжение средних. Действуем строго по аналогии с интегрированием, помня, что интегрирование ,по вероятностной мере ,ведет к математическим ожиданиям. В теории интегрирования: а) первичными даются меры :множеств, б) их значения присваиваются интегралам от индикаторных функций,в) далее эти •интегралы распростра,няются по аддитивности ·на интегралы от всех простых функций (сумм индикаторов), г) затем продолжаются на интегралы измеримых ограниченных функций, д) послед,ние, на.конец, переносятся на неограниченные. шаг применительно к ИМ .и составляет предмет нашего рассмотрения. Усечем неогра,ниченную функцию f снизу уровнем -Н1 и свер• ху уровнем Н2, обозначив f -H1 , f(x)<-H1 ,а f(-н,,н.>(х)= f(x), -H1�f(x)�H2 , l Н2аf(х) >На. f-н,, н, (х) ограничены и поэтому средние для них Положим для неограниченной ФУ'нкции Mf= lim lim . н.>.а(1.4) Н1 ➔оо Н,;-,..оо ная функция как предел ее усеченного варианта при устремлении к бесконечности уровней усечения; естественно, в этом ключе следует понимать и средние. Важно, что сначала Н2 устремляе'Гся к оо, так как в силу монотонности это дает наибольшее значение правой части, а затем уже Н1. Для пределов (1.4) выполняются все аксиомы. Из них Al-A3 доказываются с помощью неравенств: 1)f�g:::;.-f(-H,, На1) � g(-H,, Н2). 2)ь+ f<-H,, Н,) +с= (Ь+ f+ с)(-ь+н,+с; ь+н.+с>;а 3)(f+ g)<-H,, Н,)�f<-H,/2, н,+Н,/2) + g(-H,/2, н.+Н,/2)'а 36 в -которых нужно взять М и перейти к пределам, сначала Нт--+оо, а затем Н1-+оо. Аксиома А4 буд:ет в-ерна ,по опр-еделению. При-чем, та·к как (-f)<-н,, н,> =-f<-н,, н,>, то Mf= lim lim Мf<-н,, н,>. -Н,➔оо Н,➔оо В даль·нейшем будем в основном иметь дело с верхними средними, оставляя нижнее «за кулисами» формулы обращения (ак,сиомы А4). Для заданной J{ обозначим fF оо класс всех ,признаков. для которых существует и не равен оо предел ( 1.4): !Т оо = = {f : M,f < оо}, назовем этот класс предельной областью сущест.вования верхних средних ИРВ, а соответствующую совокупности .средних (М!Тоо ) модель -предельной Jt00• Смысл продолжения (1.4) очень естествен: неограниченные признаки мыслятся как .имеющие не-который потолок, который безмерно высоко ра,сположен (точно также понимается нами космическая бескрайность). И в обозримом диапазоне (-Н1, Н2) вычисляется сред·нее, при увеличении Hi все более приближающее предельное значение.а Этой же точки зрения МОЖ'НО было придерживаться для любых ИМ, счи-тая все неограниченные признаки, входящие в !?Г, имеющими некоторый общий поrолок, столь недосягаемо высокий, что его в наших действиях просто удобно не замечать, оперируя «нижними» частями признаков. При такой •интерпретации предельная ИМ .К.. «уравнивается в правах» с построенной по первичным признакам согласно формуле продолжения. 3 а м е ч а н ,и я. 1.аПереход к пределу в ( 1.4) матемаmчески 'Подразумеваетанепрерывность правой части при Н1 , Н2-+оо, а это есть дополни-гельное свойство средних, ни011куда из доказанного нами ранее Если не принимать этого свойства, то можно было бы брать Mf отличным от предела правой части (1.4), поэтому с формальных позиций предельная модель Jtoo есть форма сужения ·за�анной Jt-:::::>Jtoo по правилу, сооmет,ствующему ( 1.4). 2.аПринцип предельного расширения области существованияаприменим ,и к общему классу ИМ (М�). Сначала средние с 'S распространяются по формуле продолжения ( 1.2) на мажорируемую набором � область fF :-#• в частности, на абсолютно ограни ченные пр·изнаки fF 00 cfF."91 (если ·все gf!E� ограничены, то !Т :-# = =!То). Затем предель-ным переходом ,(1.4) распространяются с fF00 на fFоо • Линейная оболочка fe+(!Т [§U!Тоо) и станет расширенной областью существования средних, переход к которой эквива.1ентен сужению ,моде.ш (JW�) к предельной форме (М�)оо. Иллюстрация ИРВ. Наглядно для дискретных пространств fJIJ ИРВ представ.'Iяются многогранниками векторов Р вероятностей, грани которых параЛJ1ельны осям P(xi) =0, как это видно из рис. 1.7, где треуrоль·ник :У, соответствующий голой ИМ, срисо ван с рис. 1.4. Здесь трапеция Jt2 определяется всего двумя пер,в-ичными -вероятностями: Р2 (х1 ) -левая ее грань и Р2(х2) ~ верхняя, т. е. имеет дорядок 2, тогда ,как Jt1 имеет шесть пер,вич ных граней, следовательно, ше стого порядка. Пересечение двух ИРВ -снова ИРВ .!1{1Л Л.11{2 и первичными будут ве роятности, полученные сложе нием воедино между собой пер вичных вероятностей .JI{1 и .JI{2, часть которых при согласова нии окажется избыточ,ной, так как проходят вне граней .JI{11\.JI{2, как, например, Р2 (х2) Р(х1}=! или !:,_1(х1) на рис. 1.7. Объединение двух ИРВ, об веденное на рис. 1.7 штрихов сторона,м ff, т. е. уже не ,соо-гвет•ствуют вероятностям, Ч'Ю переводит в �рамки более ·общих конструкций ИМ. Таким ·образом, I<Ла•сс всех ИРВ не замкнут относительно операции объединения. Голое ИРВ, соответствующее полному отсутствию нетривиальных первичных ,вероятностей, есть то же ·самое, что голая ИМ. ПеР'ейдем к рассмотрению некоторых частных случаев ИРВ. Конечно-аддитивные ИРВ. Интервальная модель, для которой первичной является система непересекаюЩИJ(СЯ событий, называется конечно-аддитивным интервальным распределением вероятностей (короче, �-ИРВ). Обозначим dт, = {А1, А2, ••• }, AiAj= =525, i=r!=j -набор попарно непересекающихся событий и пусть заданы P(Aj), P(Aj ), j=l, 2, ... Хотя не требуется, чтобы объединение Aеj охватывало все пространство тать, дополнив при необходимости исходный набор остаточным событием Ао = (�Aj)c (если оно не пустое) и придав ему в качестве первичного тривиальный вероятностный интервал Р (Ао) = О; Р(Ао) = 1. Тогда d;z становится дроблением пространс;;а fl; на непересекающиеся ,события, что далее •и .предпола1гается. Непротиворечивость первичных вероятностей эквивалентна выполнению неравенств: O:s:;,; P(Aj):s:;,;P(Aj ), P( fl?)=�P(Aj):s:;,;1, Р(fl?)= �р (Aеj) ;;::= 1. Последнее условие требуется тол�о, если дробление dl: конечно. В случае счетного дробления. в нем нет надобности, так как несмотря на расширение �Aj при увеличе 1 нии k всегда будет оставаться место для остаточного события А0, .для кот:оро.го полагаем P(Ao)=l, о-гсюда P(fl?);;::=1, где тильдой обозначена формально перенесенная с первичных вероятность W. Вторичными признаками будут всевозможные конечные ли нейные комбинации g(x)=c+�cjA'j(X), образующие линейный класс fl' dl: функций. В ,него, .в частности, входят так называемые вторичные события А J-это те, которые набираются как объе k динения А;: AJk =�-А;, rде l1&-JКонечный набор индекса� . ДляеJeJkних P(AJk )=�P(A;), P(AJk )=�P(A;) -это перенесенные пое -/eJk -/eJkа,д,д:итивности первичные вероятности (отсюда название: аддитивные ИРВ). Уже говорилось о различии свойств 8 -верхней и 9 -нижней вероятностей. Это различие отражает-ся и ·на ,перенесенных вероятностях, где та,кже «лучши,ми» свойствами обладает нижняя вероятность. Проявляется это в том, что Р(AJ) могут быть по аддитивности распространены на суммы счетных множеств индексов / и это не повлияет на ИРВ. В самом деле, AJ при конечных поднаборах Jkc.J образуют внутренность, «фундамент» для AJ, так что AJk c.AJ и �(AJk )��(AJ), Vk, поэтому в качесmе ! (AJ) 'Можно взять максимальное з•начение левой час ти последнего неравенства, .получаемое переходом J<: пределу Jkfl, что ведет к формуле сче'Гного сумм·ирования: · P(AJ)=�P(A;), ~ JsJ- rдe I счетно. В частности, если число событий в наборе �е1:. счетно, то дополнение Jck к конечному Jk будет счетным множеством индексов ·И � (A�k )= � � (А1)· /eJ� Формула -счетного .суммирования не распространяется на верхние вероятности, поскольку на счетном / для события AJ уже невозможно создать мажорирующую его «крышу» из конечного числа пер1вич-ных событий. Теор •ем а 1.2. Если первичные интервальные вероятности заданы на дроблении d 1:, пространства ?В на непересекающиеся события, то выражением P(AJk)=min{P(AJk), 1-�(AJk)} (1.5) они продолжаются, делаясь согласованными, на все вторичные события. Продолжение на все вторичные признаки осуществляется формулами M(�c1 A1)=miп[c+ � (с1-с)Р(А1)-� (с-с1)Р(А1)], (1.6) - с �с �� причем минимум дос1·игается при с=с*, удовлетворяющем уравнению � Р(А1)+ � РИ1)+ � [xP(A1)+(l-x)P(A1)J=l -- с1>с• с1<с• с1=с• при однозначно существующем выборе О�х�1. Доказательство вынесено в конец параграфа в дополнение 2. Поя,сним формулу (1.5). Вероятность P(AJ) получает, ся, с одной стороны, как сумма верх�них вероятностей первичных с�ытий, составляющих AJk' а с другой -данные об этой вероят ности черпаются из оце,нки нижней вероятности ного события AcJk• Берется то из двух значений, которое более Из формулы (1.6) среднее для всего класса !l'dе1:. вторичных признаков получается сдвигом: .М (с+ �с3А3)=с+М (�с3А3). Понятно та1кже, что (1.5) выводится из .(1.6), и окюда же сумма по! (A.i) в конце правой части ( 1.6) допускается счетной. Формула (1.6 если записать ее в виде М(�с1 А1)- � с) 5(А1)+с*Р*+ � с1 Р(А1), где Р*=1 �Р(А1)c1>c* ).Тогда M(�c1 A1)=max�c1P1 Р � �(Апо векторам Р вероятностей 1 с компонентами Р*, компоненты Р;Е'[Р (А;), Р,(А;)] и достигается на векторе Р*; к�орого принимают минимально возможные значен,ия Р*;= =f(A;) при малых с3, т. е. с3 <с*, максимальные Р*;=Р(А;) при с;>с*, где с* подбирается таким, чтобы Р* был вектором вероятностей, а именно �Р*3 = 1. Этой ,цели служит и выбор Р* -компоненты векотра Р индекса i, соответствующего равенству Ci =с*. Дальнейшее продолжение •средних теперь уже на все ограниченные сверху признаки, которые в совокупности своей и составят естественную область существования средних для �-ИРВ, Mf = inf Mg, fE.'f0 • g: f (x),;,;;;g (x)E.ZA-:Е Счетно-аддитивные ИРВ. Мы сознательно долго воздерживались от :безоговорочного распространения P(AJ), AJ= � Aj, на je.J счетные J по свойству суммируемости рядов, ибо этот шаг сразу вывел бы нас из привычных рамок принятой аксиоматики. Этот шаг -компетенция первичного набора, к чему мы теперь и обратимся. Пусть dx. = {А1, А2, ... } -счетный набор непересекающихся событий, образующих разбиение !JiJ. Мы видели, что если первичными являются значения r(A;), Р(А;), то нижние без ущерба переходят по аддитивности на Р (AJ) для любых, в том числе счетных J, а верхние P( AJk) -только для конечных Jk, образуя •костяк ра,счеюв ве1роятностей (по (1.5)) .для �-ИРВ.еБудем теперь считать, что первичными являются rне только А; (а о'Гсюда и AJk), но и всевозможные счетные объединения AJ, в совокупности образующие систему da событий, причем первич.ные вероятности задаются ,сразу счетно-аддитивными в том смыс ле, что P(AJ)= � Р.(А;), P(AJ)'=� Р(А;), VJ, конечных и счет - /еJ jeJ- HЫX J (ниже, в допол,нении 3 показывается, что это требование вовсе не является обязатель,ным: первичной может быть .91, IJ, а вероятности на ней заданы не •счетно-аддитивными). Интервальное распределение вероятностей, первичной для ко торого является система da -счетных сумм непересекающихся событий, а первичные вероятности (нижняя и верхняя) счетноаддитивны, называется счетно-аддитивным (короче, о--ИРВ) и обозначае-гся (Р (Аа), J5 (Аа) ). При 'Одних; тех же интервалах �(AJ), J5(AJ), j=l, 2, ... , за счет расширения перв·ичного .набора счетно-аддитивные ИРВ оказываются более узкими, чем 1:-ИРВ: по Таким образом, свойство счетной аддитивности эквивалентно фактическому _расширению первичного набора событий 1и наложению дополнительных требований на первичные вероятности. Для счетно-аддитивных ИРВ формула (1.5) согласования -вероятностей на da (они все будут теперь уже первичными) верна без каких-либо оговорок для всех AJEda. Равно как и формула (1.6) становится справедл•ивой для вторичных признаков, како "° выми являются теперь уже любые счетные суммы 1:ciAi событий 1 Ai из .da. Для сравнения прямого и счетно-аддитивного ИРВ приведем пример. Пр им ер 1.10. Пусть tt'= {О, 1, 2, ... } -натуральный ряд чисел и заданы 00 первичные вероятности Ро, Ро, Р1, Р1, ... так, что �P;�l. Получается �-ИРВ --о (собственно, для произвольных пространств tl' и дробления d1: = {А1, Az, ...}мы придем к такому же ИРВ, если отобразим A;-+j, j=O, 1, ... ). Для конечного множества / 1t точек вероятности согласуются по ( 1.5). Рассмотрим счетное событие А= {О, 2, 4, ... }, состоящее из четных чисел, и А O -из нечетных. Тогда для �-ИРВ 00 ,откуда получаются согласованные значения �(А)=-е_(А), J5(A)= 1--е_(А0 ). Отме тим, что Р; ,не участвуют в определении верх,ней счетных событий А по от.:утствию конечных .накрывающих А систем первичных событий. Для <:четно-аддитивного ИРВ дополнительным условием непротиворечивос оо ти будет '1:,Р;� 1. При конечных /11. вероятности те же. Для введенного выше '1 "" "" А имеем: Р(А)= � Р'21, Р(А0) = � Р'2;н, и согласованными будут уже другие i�•O /=О значения �(A)=max{ f(A), l-P(A 0 )}; P(A)=min{P(A), l-�(A0 )}, что соответствует более точпы.м -вероятн·остям. Это увеличение rочности за счет того, что первичными исходными считаются не только числа, но я их всевозможные счетные суммы. При точных первичных вероятностях Р;=Р';=Р;, j=O, 1, ... , таких, чт<> �Р;= 1 (условие непротиворечивости), как нетрудно видеть, вероятность люQбого· события А будет точной: Р(А)=Р(А)=Р(А) как для конечно, та,к и для счетно-аддитивных ИРВ, т. е. оба типа ИРВ совпадут между собой и вероятность любого счетного подмножества будет точной, равной сумме вероятностей. Это есть закон счетной аддитивности точных вероятностей, верный для дискретных (конечных или счетных) дроблений d-;r, произвольного пространства !В. Обобщения. Здесь будет рассмотрен случай, когда d-:r. не является дискретным, т. е. конечным или счетным. Удобно для наглядности воображать в качестве fl; числовую прямую f/1,. Система .st подмножеств называется кольцом и .обозначается :Jt', если она замкнута по отношению к операциям пересечения симметричной разности (Л): А, BE:Jt'*ABE.:Jt', UAcBE:Jt'. А если ·к тому же она замкнута по отношению к счетным объединениям, то называется На числовой прямой fJll кольцо множеств образуется ными конечными объединениями (суммами) непересекающихся отрезков, это будет кольцо отрезков :Yt'-:r. (подробнее см. 1[20]). Мерой на кольце :Jt' называется неотрицательная конечноаддитивная функция множеств, а на :Jt' а .--счетно-аддитивная. Заметим, что суммы AJ= � AJ 1непересекающихся Aj в преды 1i. i=J1�. дущем изложении образовывали кольцо (а дополненные счетными -суммами -а-:кольцо) и �(AJ), P(AJ) -меры на нем (при чем P(AJ) без ущерба продолжаются до ·счетно-аддитивной меры). Вернемся к общему случаю и будем считать, что первичные вероятности преподносятся двумя мерами Р(А) ;и Р(А), AE.:Jt', на кольце :Jt'. Конечно-аддитив,ная мера формирует �-ИРВ, а счетно-аддитивная на а-кольце -соответственно а-ИРВ. Например, на fJll определены вероятности Р,[ а, Ь), Pi[ а, •Ь) лю бых отрезков и мы их переносим по аддитивности на суммы отрезков. При этом вероятности Р могут быть или оказаться больше 1, что не вносит затруднений, так как откорректируется при согласо·вании. В общем, Р (А), задаваемые как первичные вероятности на мелких множествах, ока'Зываются уже не вероятност ями, а мерами на широких множ ествах. Требование непротиворечивости задания первичных мер состоит в следующем: а) O:s;;;f(A):s;;;P(A), VИ E:Jf; б) Р.(А)::,;;; 1, VAE:Jt; Последнее условие имеет смысл, когда fJC входит в системепервиЧ'ных событий. Иначе оно не нужно, так как по аксиоме Al все равно будет Р (fJC)= 1. Формула продолжения и ·согласования вероятностей тождест венна ( 1.5). Для произвольных событий она запишется: Р (В)= min { inf Р(А), l -sup Р(А)}· ВсАе.Х вс ::,АеХ Отметим, что есл·и верхние вероятности ,не заданы, т. е. можно считать Р(А) = 1, VAE.rt, то Р(А) =Р(А), Р(А) = 1,-Р(Ас), AE.rt. Тогда нижняя вероятно�ть ад,ци'Гивна на · суммах: P(�Ai) =�P(Ai), а -верхняя -в общем, нет. -Признак-f(х) называется .rt-измеримым, ,если он представляется как равномерно сходящийся предел конечных линейных комбинаций событий из :Jt. Строго говоря, класс всех .rt-измеримых признаков составляется замыканием класса Il'.rt относителыноеравномерной сходимости. Слово ,«измеримый f»· означает, что,умея измерять меры событий AE.rt, можно сколь угодно точноевычислить за конечное число шагов интеграл от f. Если JEIZ' .rt, т. е. ,f есть конечная линейная -комбинация собы тий из :Jt, то Mf находится по ( 1.6). При fJC =ffl для измеримых относительно кольца отрезков f ,(это все непрерывные функции х и с,•разрывами пер1вого рода) �су,м·мы ,в (1.6) древращаЮ'flСя iВ интегралы: Mf=min[c+ J (f (x)-c)+ifi-J (c-f (x))+dPJ, (1.7) - с где плюс означает, что берется неотрицательная часть функц•ии. Для -�-ИРВ (первичным является кольцо .rtr. отрезков) здесь .интеграл понимается в с·мысле Римана -Стилтьеса, а для О"-ИРВ -в смысле Лебега -Стилтьеса и для последнего класс признаков расширяется до измеримых по Лебегу. Точные распределения вероятностей. Пусть на произвольной системе .sf, первичных событий даются точные вероятности: �(А) =.б(А) =Р(А), Aed. Их согласованность эквивалентна не противоречивости и состоит в том, что: 1) А, Be.d, Ас:В=> =>Р(А) :s;;;P(B); 2) если ,A;e:d -попарно ,непересекающиеся события и их сумма также входит в систему d, то выполняется закон аддитивных верояmостей: � А1Е..Л => Р(�А1)= �Р(А1)· Вероятность суммы непересекающихся A;ed будет всегда точной, если сумма конечна (что сразу следует из -свойств 8, 9), по�тому требование конечной аддитивности точных вероятностей обязательно уже при их зада,нии и равносильно их непроти•во речивости. Но не требование счетной аддитивности, тем не менеекоторое должно выполняться, когда по зада,нию заведомо извест оо но, что �A;e.st, т. е. что счетная сумма имеет точную веро1п1н:ость. Общие свойсrnа точных вероятностей непосредственно вытекают из свойств интервальных ,вероятностей (см. начало настоящего параграфа). Продолжим начатую там нумерацию свойств,осчитая Aie.st. 12. Р(fВ) = l, Р(0)·=O. 13. P(A)=l-P(Ac). 14.о Р ( f Ai) = �P(Ai)•о 15.о lim р( i л,) = О=>Р / � А)= iP(Aд k➔oo k+I \ 1 1 Обозначим .st* -набор событий, на котором при продолжении с .st вероятности остаются точными. Очевидно, .st.-=::J.st-. Изсвойств 12 и_ 13 следует, что fВ, 0c::..st. и что Aed*=>Ac e:::.st •• Свойство 14 означает замкнутость d.,, относительно конечныхсложений непересекающихся событий. Чем шире d в смысле количества событий и замкнутости операций, тем богач·е будет d .,, .откуда могут появиться дополнительные свойства точных вероятностей. Перейдем к случаю, когда исходный набор .st замкнут отно пересечений и разностй, т. е. образует собоймножеств d= .:Jt' (можно и полукольцо, скажем, все отрезки ч1исловой прямой). Тогда согласно свойствам 12, 13, 14 набор .st ...событий, на которые продолжаются точные вероятности, образуетоалгебру множеств (алгебра есть кольцо с включенным в него W.т. е. замк·нутое относительно дополнений). Конечно-аддитивными распределениямt,t вероятностей (обозначаются .9'1:) на'Зываются ИРВ, заданные первичными т:>чными вероятностями ,на алгебре (полукольце, кольце) событий. Это частный случай �-ИРВ, когда первичные интервалы в·ероятностейпревращаются в точные значения. Для этого случая, подставляяо i) = � P(Ai),о т. е. точные исходные вероятности переходят по аддитивности вниж•ние вероятности счетных сумм. А вот верхние вероятности 00 в общем, нет. За исключением случая, когда остатки � Ai суммо k+I могут быть покрыты событиями Bk, вероятности которых приk-+oo делаются сколь угодно малыми. Тогда дей�твует свойство 15. В целях иллюстрации ниже приводится пример 1.11. Свойство счетной аддитивности, механически перенесенное налюбые счетные суммы, эквивалентно ра·сширению пер,вичного на ,44 бора до сигм а-алгебры da, включающей 1.'\tесте с собы-ги ями любые их счет.мы и дополнения к ним, и заданию на da счетно-аддитивного распределения вероятностей fPa ,(частный случай а-ИРВ): АiЕ.Ла=> �АiЕ.Ла, Ра(� Ai)= �Pa(Ai) 1 1 1 (первичной может быть da, а вероятности на ней точные, но не счетно-аддитивные, как это показывается в дополнении 2). Д:л" fP а выполняется свойство мон<УГонной сход,имости:Bn tB=>Pa (Bn)--+Pa (B), в определенном смысле эквивалентноесчетной аддитивности [ 19] точных ·вероятностей. Средние от .st*-измеримых приэнаков будут точньщи, получаемыми согласно (1.7) интегрирова.нием Mf= S f (x)dP, причем для !Pr. это будут интегралы Римана-Стилтьеса, а для !Ра -Лебега-Стилтьеса (тогда класс f с точ-ным,и средними расширяетсядо измеримых по Лебегу). Продолжение средних на неограниченные признаки производится согласно (1.4): Mf = lim м1<-Нi, Н�) , Mf = iim lim м1<-Щ. H,J Н,-оо Н1 ➔оо При этом все усеченные приз наки f<-щ, Ift1 должны быть измери мыми. Очевидно, Mf,=Mf, если пределы справа не зависят от ,порядка устремления Н1 и Н2 к бесконечности -это будет интеграл от неограниченной функции. Для точных средних ,справедливо свойство MJ:.fiо= 1:,Mfi, согласно ,которому символ М можно проносить за знаки ко нечныхсумм. Это общее свойство. А в каких свойствах !Pr. будет отличаться от f/Ja? Ответ на поставлен,ный вопрос дается примером. Пример 1.11. Равномерное расп ределение (мера-длина). Пусть на ВС=[О; 1) первичными являются вероятности Р[а, Ь)=Ь-а, 0�a � Р(х)=О. Иллюстрация необязательности счетной аддитив·• ности. Интерва.льные функции расnреде.ления. Пусть flJ=!I/, -числовая прямая, и первич,ными являются вложенные друг в друга неогра,ниченные сле-ва полуинтервалы (-оо, у), yE(JJ/, rще оУ произвольное подмножество !1/,. Первичные вероятности �(-оо, У)=�(у), Р(-оо, y)=F(y), yE6if,, как фующии переменной у называется нижней •и верхней первичными функциями распределения, а задаваемое ими в результате продолжения ИРВ называется интервальной функцией распреде Усло,'Непротиворечивости вероятностей выли вие первичных вается ·в требова.ние O��(x)�F(y)�l. "lx�y. х, yE6/j-, состоящее в том, что нижняя функция распределения нигде слева от у не должна возвышаться ·над верхней F (у) (что будет обязательно выполнено, если, как это обычно делается, задавать F(y) и F(y) ,неубывающим и нижнюю не больше верхней� !_(у) �F(y), Vy). 46, Согласование первичных вероятностей и продолжение их налюбые полуинтер•валы (-оо, х), хЕ111., проводится по формуле F (х) = - supоF (у), F (х) = inf F (у).о (1.8) Вероятности полуинтервалов продолжаются на вероятности одиночных отрезков: �(у, z)=[f(z)-F(y)]+ ; Р[у, z)=F(z)-F(y), где плюс указывает на неотрицательную часть функции. Распространение этих формул на конечные суммы непересекающихсяоотрезков производится согласно выражениям: � ( f [Yi• zi)) = ��[У;, z;);о 1 [F(Ус+1) -!. (zi)J'+,Р ( f [Yi, z;)) = F(zk)-f (У1)-kf в которых полагается y1::;;;z,::;;;y2::;;;z2::;;; ••• ::;;;yk::;;;zk. При точных функциях распределения F(x) =F(x) =F(x), Vx,о(для этого таковыми они должны быть заданы) вероятност.и отрезков будут точными, равными приращениям: Р.[у, z) =·о=F(z)-F(y), как и для их конечных сумм, а продолжение наопризнаки будет соответствовать интегрированию по РимануСтилтьесу: Mg= f g(x)dF(x). Подобие ИРВ. Начнем с частных случаев. Пусть на произвольном fВ задан расширяющийся набор событий dt = {Ау, уЕаус111.},Ау с::Ау , при у<у'. И пусть первичными являются вероятностиэтих событий !.._(у)=�(Ау), F(y) =Р (Ау). Тогда совершенно есте ственно отобразить SC-+ay так, чтобы Аоу-+(-оо, у), и получитьоинтервальную функцию распределения. Таким образом,ИРВ(f_(d 1), Р (d t)) по своей -структуре и свойствам оказы-вает ся .под:об"ной интер1Вальной функ.ции распределения. Аналогично, если задано �-ИРВ (P(dx.), P(dx.)) на произ ~ вольном fВ, то, отобразив элементы разбиений А; в точки У; числовой прямой, получим подобное ИРВ на подмножестве 0//=о= {у1, у2, ...} чи-словой прямой. Если это окажется удобным, тоомоЖ1Но считать у;= j, и тогда ау -натуральный ряд чисел. Основу подобия составляет взаимно-однозначное соответствиепервич,ного набора множеств одного пространства, т. е. fВ и другого -ау с сохранением множественных операций объединенияи пересечения (что ,назЬl'вается гомеоморфизмом алгебр ,[20] ).оОчевидно, любое отображение y=Sx простра·нства fВ и ау обеспечивает указанное соответствие. Интервальное распределение вероя,тностей (РУ (�)) на ау называется подобным ИPB(Px(.st)) на fВ, если существует отобра жение S простра·нства !В на 01/, при котором события Ae.st переходят в события B=SAe� с сохранением первичных вероятностей. Конечно же, из .st желателыио изъять все события с несогласованными значениями Р(А), тогда Рх(А) =PY(SA), Ae.st, Be!!J. Смысл подобия состоит в упрощении структуры пространства !В редукцией его в пространство оУ как можно меньшей размерности. В то же время и согласование вероятностей, и их продолжение в обоих пространствах оди,наково. Семейства распределений. Пусть [JJ8, 0е(9 -семейство точных распределений верояt1ностей на !В. Неизвестно, какое из [/Je дает правильное описание явления, но ·какое-то из них это обязательно делает. Сказанное эквивалентно объединению [/Jв, что ведет к ИМ: вее Следовательно, любые семейства распределений вероятностей ( аддити·вных ·или счетно-аддитивных) дают ИМ, определяемую сред'НИМИ Mg=inf M0 g, Mg=supM0 g, -еее еее где g -признаки, для которых средние по всем [JJ8 являются точными. Результат объединения, подчеркнем, есть в общем ИМ (а не ИРВ), за некоторым исключением, когда [JJ0 является точками «тела» (можно, крайни,ми) ИРВ. Например 1:-ИРВ (1 P(.st1: ), Р(.stж)) можно пре,д,ста-вить себе ,ка-к объединение конеч1�-аддит,111вных ,распределений [/Jж таких, для -которых Р (Aj ) я,вляются 'Неиз-вес'!'ными и ,подчиняют,ея условиям: Р(А;) �Р(А;) �Р(А;), A;e.stж, (собст,венно, исхо�дя ·из такого пред--;;тавлеюия, !В дополнении 2 дохазываются формулы ,(1.5) и (1.6)). Интервальную функцию распределения также можно мыслить себе как совокупность точных функций распределения, что позволяет ,выводить выражения для средних по формуле: Mg= sup J g(x)dF(x). _ !,_�F�F Например, для признака g(x), имеющего в точке Хт еди,нственный · глобальный максимум и не имеющего никаких локальных, получается: при х<хт, имеющей в точке Хт скачок до F(x) и равной F(x) при х>хт. Относительные вероятности и средние. Истина постигается в сравнении. Это философское .изречение применимо и к случайным явлениям. исходными данными являются сравнитель:ные сведения о вероятностях и ,сре1дних. Эт�о ,суждения типа: «Событие А более вероятно, чем событие В», записываемое кратко «РА�РВ»; или такое: «Признак f в среднем принимает большее знач·ение, чем g», записываемое < (А-В) =О. Результат ;в терминах ·верхних за пишет,ся М (В-А) =0 и ·может .ра·С·С•Матри,ваться как соответствую щее фразе «Р А �р В» первичное ,с,реднее ( см. табл. 1.1). Из •«РА�РВ» продолжением первичного среднего вытекает Е(В) ��(А) �Р(В), Р(В) �Р(А) (так как МВ-МА�О= =М(В-А)�МВ-МА и О=М(В-А)�МВ-МА) и интерарети руется' •как тот факт, что интервальная вероятность события А,перекрываясь, в общем, с интервальной вероятностью В, с·мещена в ,сто,р·ону больших •зна�чений. Разным фразам о старшинстве вероятностей соответствуют первичные средние _вида М (В (х)-А (х)) = О, которые при разных А и В согласуются по нравилам средних и продолжаются на любые признаки. Интересно, что и здесь будут верны правила логического вывода: «РА�РВ» и «РВ�РС»*«РА�РС» (таккак М(С-В+В-А) �М(С-В) +м(В-А)�О). Перейдем к средним. Совершенно аналогично показывается,что 1предложение «Mf�Mg» в устойчивых условиях эквивалентно М(f-g) =0. У·словием согласования этого предложения со сред ними от признаков f и .g являются: Mg�Mf�Mg, Mg�Mf. 3 а меч а н и е. Соотношение Mf �Mg, при котором интервалы средних не перекрываются между собой, отражает более жесткое предложен,ие: ,«f в среднем больше g в любых (неустойчивых)условиях», когда точные средние Mf и Mg не существуют и допускаются лишь в интервальном понимании. Дополнения. 1. Аксиом ат из а ц-и я И Р В. Интервальные ра<:пределеиня вероятностей сами по себе могут быть оп ределены как наборы интерваль ных -вероятностей Р(А), Р(А), VAc:ВIJ, связанных между собой аксиомами L21J: 1)тP(&e) = P(ВIJ),=l; 2) Р,(А+В)�Р(А)+Р(В), AB=Jo; 3) Р(А+В);;,;;,,Р(А)+т +Р(В), AB=Jo; 4) Р(А) = 1-Р(АС) (возможны н другие варианты эквивалентного выбора аксиом). Согласованные в смысле этих аксиом вероятноститмогут быть результатом продолжения первичных вероятностей, а дальнейшеетпродолжение вероятностей на средние признаков f по правилам ИМ приводиттв итоге к интервальным средним Mf, JИf.т Этот путь традиционно вторит современному вероятностному подходу, где средние для измеримых f называются обычно математическими ожиданиями как результат математическC*, Р* (Aj)= хР(Aj) + (l -х)е_ (Ai) при Cj =с*,тe_(Aj)тпри Cj< с*, IРщ где с* и х выбираются так, чтобы выполнялась нормировка �Р*(Ai)= 1, причем этот выбор однозначен. Распределение !Р* принимает максимальные значения P'(Ai) в той части 81!, где функция g(x)=�ciAтi (x) велика, т. е. ci>c*, а для соблюдения нормировки вероятностей вынужденно оставляются самые минимальные значения �(Ai) тем Aj, на которых g(x) мала, т. е. ci � с; Mg1 � О, Vc;, g1E .�. 1 1 М*�-сечением Jt называется пересечение: Jtм.wе= JtЛ Л(М*�). Таким образом, Jtм.w -это ИМ, полученная 1J1рибавк средним Jt набора точных первич.ных средних M*g• Совокупность М*�= {M*g: gE�} есть набор числовых ха рактеристик секущей ИМ; звездочки означают, что это вносммые извне (по желанию меняемые) ,величины. Если f!Т есть обласrь верхних средних Jt. то обла·стью для М*�•сечения Jtм.w будет -2' (f!ТU�), состоящая из признаков вида f + Iicigi, fEf!Т, giE�. Область сущесТ1вования сечения ши�ре, чем у исхощ,ной ИМ, если �U���, Т. е. В � iВКЛЮчаЮТСЯ признаки, не входящие в � В случае одного ,се·кущего призна•ка получае11Ся М*g-сечение .lt м*g. Эrо сечение будет, очев.ид:но, пустым, (/1g)если M*gMg. Гео мет,рически секущую ИМ (M.g)(;rnpи ,конечном числе элементов :пространства l&) можно •предста:вить себе ка,к гиперплоскость ,в п1ространс-nве векторов •вероятное-Рис. 1.8. Сечения моделиетей. Для случая lC = {х,, х2, хз}сечение .lt м•g изображено на рис. 1.8 сплошной линией. Рассмотрим, соответствующие сечениям. Пусть Jlм. g=.lt Л (M.g). Первичными средними дляJf,м. g будут Mh, hE� и M.g, поэтому Мм.g f= infе(Mh + сМ* g),h (х) +cg fx)>f(x), hE$' где нижняя грань ищется по cEfR и по hE�. При заданном с нижняя грань по h достигается, когда h=f-cg, в результате Mм.gf = min [М (f-cg)+cM*gJ. (1.9} с 3 а меч ан и е. Если g не принадлежит области существования обеих границ .К, т. е. gфS"Л(-ЕГ), то для любоrо призна ка fЕЕГП(-ЕГ) справедлив<>Mм08f=Mf (так как M(f-cg)=oo при с,;,!,О). Аналогичным образом, если �k= {g1, ... , g1i} есть конечный набор лризнаков, то М= min[м (t-1: cigi)+ ¾, ciM*gi]•е(1.10) м*:-ffk f'r/Cj 1 1 Для произвольного ,набора � на основании равенств .lt м,.,:-ff= .'"§'kc:-ff Л (.Jt Л (М* 5-k)) = :-ff1icW �kC:-ff Мм �f= inf Мм �k f,* * :-ffhc;ff где инфимум бере11ся •по всевозможным конечным под-наборам�k ,привна11юв из �Свойства сечений. Сечение обладает привычными свойствами ИМ. Помимо этого ·верны следующие свойства: I. .Jtм.�c.Jt,. 2.е.Jtм,.,з; = .Jt ;при м.з; = 1, в противном случае .Jt м,.,з; = fo.е 3. ( д м,..�1 )м...�2 = .Jtм*(�� u .'9"'2), т. е. М* ; 2 -сечение J!t,м... �1 есть ro же самое, что и М* ( j 1.U §2)-сечение J!t,, т. е. J!t,Л Л (М* 11) Л (М* 12) · 4. Если Mh, hE.�еопределяет модель (М�). то М*W-,сечениебудет опрмеляться •средними M�UM*W, т. е. (М�) м... �=е=(M�UM*W). 5.е J!f, = Л J!f0 =>-J!t, м � в Л ( .Jt0)м � -пересечения перестановоч * в * = - 6.еГраницы Мем,..�f аддитивны относительно прибавления ко нечных линейных комбинаций признаков из § : Мм.� (f+ I cigi)= =Мм*�f+ Lci M*gi . ДоказаТеЛЬСТВО ЭТИХ ,СВОЙСТВ элементарно. Из свойства 6 следует, что сечение будет одним и тем же для всех ИМ, получаемых -«сдвигом>> всех первичных признаков на Lcigi, giEW, и соответствующим сдвигом их средних на· LciM*gi. Теорема о представлении ИМ. Те о р е м а 1.3. Любая ИМ .,,f{ представляется как объединение ее М*W-сечений: .J!t = V .J/!lм*�· (t.1:t) м ... � 2де W есть любой взятый набор признаков, а объединение производится по значениям M*g в интервалах Mg�M*g�Mg, gE.W. Доказательство теоремы вынесено в дополнение 1 ,в конец параграфа.3 а м е ч а н и е. В объединении (1.11) вп :)Лне можно допустить M*g пробегающими значения от -оо до сх), так как при M"gMg сечение пусто: .,,f{м.�=!25. Если в качестве W взять .произвольныi\. набор fl1 событий, то .из теоремы следует, что каждая ИМ момет быть представлена объединением ИМ с точными на наборе fl1 веронтностями ,с�обытий: .Ji= V где P*fli= {Р*(В), BEfli} -об-означение совокупности вероятностей,причем _!:fli -:нижних и J5$-�верх них вероятностей. Геометрическое толкование теоремы о представлении видно из ,��/ / / ��/ J-/ � I/ lj,'}.,/ рис. 1.8 и 1.9: .11{ описывается по -�У � / следова тельно,стью параллельных отрезков, полученных -пересечени _ .сечениями ем прямых (M*g) с телом моде ли .L. Это при одной g. Если их несколько, то сечение сечений будет давать все более мелкие элементы (вплоть до атомов: модели, а для дискретных пространств -векторов вероятностей" и тогда Jt представляется как семейство атомарных моделей векторов вероятностей). Сказанное формулируется в в-иде следствия. Следствие 1. (д�)= V (М.�). (М.�}с (М'�} Здесь (М.�) -простые модели, определенные точными значенинми M.g, ge$. Та�ким образом, модели с пер1вичными средними дg, ge�. представляются как семейства моделей с точными ,значениями M.g, ge�. такими, что M.g:s;;;Mg. Следствие 1, очевидно, останется в силе, если -вместо � взять любой включающий � набор признаков. А также любой набор признаков и событий, из которого линейными преобразованиями (или их замыканиями) может быть получен каждый признак из �-В частности, если это система событий, то имеем утверждение. Следствие 2. Если все признаки набора � измеримы относительно системы .sf, множеств (т. е. представляются как конечные линейные комбинации инди-каторов событий .sf, или их замыкания относительно равномерной сходимости), то (.М ;)= V (Р.Л}с(М�} Cor ласно этому следствию ИМ представляется как семейство точных на .sf, распределений вероятностей. Если .s4 есть алгебра или кольцо событий, то это будут конечно-аддитивные распределения вероятностей. А интересно, что будет, если .s4 ,-сигмаалгебiра, т. е. алгебра, зам,кнутая относ·итель�но счет,ных ,объединений? Тогда все равно ИМ представляется как семейство .91,точ,ных распределений вероятностей, но это будут опять же в. основном конечно-аддитивные распределения (!). Можно сделать вывод, что ·счет.но-аддитивные распределения сам,и по себе являются слишком редким исключением .в ,«семье» распределений вероятностей, чтобы ими можно было описать многие ИМ (в частности, конечной размерности). Причем •расширение системы .sf, с целью дробления ею пространства fJC на все более мел�ие части, а отсюда логичес·кий переход к борелевским сигма-алгебрам, и к более мелким лебеговским, хотя _и несколь:ко увеличивает описательные возможности счетно-аддитивных распределений, в принципиальной своей ос-нове ,вывода не меняет. Изюмина, -скрытая в следствиях 1 и 2, состоит в том, что неустойчивые в статистическом смысле явления описываются в виде -семейств точных моделей, соответствующих устойчивым явлениям, в частности, с помощью семейств точных распределений вероятностей. Неустойчивость статистическая взаимно «перекачи вается» в неустойчивость информацион.ную, в наше незнание точных за1юнов, неизвестность выбора. На пер·вый взгляд, парадоксальный вывод, но на самом деле вполне естественный, так как в обоих случаях при ·независимых ,повторах в пределе будем получать разные средние ар'Ифметические, а это же и средние в интер!вальном их ·понимании. Определение ИМ задающими сечениями. Только что говори.лось о том, что можно мыслить себе ИМ в виде объеди,нення или ,семейства более мелких ее частей -моделей. Но ведь это есть и способ зада·ния J{, если ее исходно определять не через свои ,средние Mf, а как объединение более простых по опи-санию задающих ее моделей А*в: А1= '(А*в. гростых в том см�сле,. что для них легко находятся средние Мвf. Тогда .Мf=sup М*вf. Это в ,один из способов непрямого задания ИМ, различные аспекты которого здесь и обсуждаются. Сначала рассмотр.им тот -случай, когда А*в являются М*�-гоч· ными, а роль МН()rомерного �параметра 0 выполняет ·с.ам набор ,средних M*g, gE�. За•пишем .и,= V .J(,(M*�)· (1. 12) м•� Спра·ва символ М*� сознательно заключен в круглые скобки, чтобы указать на тот-факт, что для Асм•�) средние от пр•ИЗ•Наков gE� являются точными, ра,вными значению соотвеrетвующе.rо пара.метра: м;м.� 1g=М*g, так и на то, что 18 отличие от (1.11) «параметры» не обязаны -пробегать все значения из ,[Mg, ..Мg], gE�, а А;м•�> в свою очередь не обязательно должны �ыть М�-сечениями модели .,lf. Как это хорошо видно из рис. 1.9, rде A=AoVA1 VA2 может быть задана сечениями л.и•шь ее частей .,1(1 и .,1(2 и здесь, если �аже сечения .,1(0 задавать пустыми, ·то все равно A=A1VA2, т. е. ,выпуклая оболочка .,1(1 и А2 (или ,сечений) определит .,lf. В формуле (1.12) А;м•�> будем называть задающими модель .сечениями. Рассмотрим пример. Пр ·им ер 1.12. Пусть !В= {х1, х2, ха} -три ЭJ1ементарных исхода и .L :интерпретируется как выпу,кпое семейство векторов вероятностей Р. Насжопько .видно из рис. 1.9, описание .L первичными средними, эквивалентное описанию контура .L касательными пюниям.и (которых беоконечно много), явпяется .неудобным. В то же время каждое ее Р*(х1)-сечение .Jt�•(x,) есть довопьно простая по структуре ИМ, задаваемая точной вероятностью Р*(х1) и преде.лами изменения P*(xz): �Р •(х,) (x2),;;;;P*(x2):;;;;P•(x,)(xz), зависящими, в об p щем, от Р*(х1). Сечения .L�•(x•> будут задающими для .L= Р*(Vх1 ) .L�•(x1 )• нуж но указать пишь пределы изменения параметра Р*(х1) либо в диапазоне от �(х1) до Р(х1), соответствующем .L, либо в более уз&их двух диапазонах [Р(.ж1), р'] и [р", Р(х1)], соответствующих отдельно .Я1 ·и .Я2, обозначенным на рис. 1.9. Верн-емея к формуле (1.12). Пусть модели .1tZм•;1) опи,сываются помимо значений M*g, gE�. (разных для разных моделей)все одними и теми же ·верхними-пер:ви-�rными средними .Мh, hE�: .Jt(M*:-1) = (МЖ} л (М* J}. Тогда их объединение по изменениям M*g, gE�, ограниченным сверху Ч'Ислами .Мg, gEl$, определит ИМ .lt, первичными для ,которой будут те же самые Л,1{J, и плюс ,к этому, .Мl$, что формально записывается: .J(, = V ((МЗt} Л (М* 1 }) = (MJt} Л (М. ;) . M*g:E;;;.Mg. gE:-1 Поясним сказанное. Пусть l$,=g и изобразим на рис. 1.10 М*g-сечение как плоский м,ногогранник .lt*<м•g> на гиперплоскости точного значения M*g. Если его грани Mh; не меняются при М*g-«сдвиг·ах», то они сохраняются 1И для фигуры .lt, полученной в .результате параллельного перемещения этого ;плос1<оrо .м-но · гоrранника при изменении M*g от�g до .Мg. Плюс -к этому две грани будут соответствовать «крайним» значениям M*g=1!!_g и M*g =.Мg. Кстати, ,ра,с-положенные ,на них :многогранники полностью описывают .lt: .lt=.lt;мg>V.lt;-. Подобная редукция O[mca- - ния возможна -при любом наборе l$.�) Нес1юлько более общий случай по сравнению с предыдущим будет иметь место, если (при прежних остальных условиях) М h зависят от M*gi, giEl$, и линейно меняются лри их из менениях: M(M*:1)h=mh+ �c,(h)M*оgi, hЕЖ, где коэффициенты ci (h) зависят от h. На ·рис. 1.10 это будет выглядеть как изменение направления движения при смещении ПJюскоrо многогранника, что вызовет и изменение итогового поположения граней .lt, ,соо-т-ветС'Гвующих приз•на,ка,м h сече !:!fl ifg ний, а значит, и са�мих h, ,кото:.:...--------,-.,. ,,,,, ... рые переходят в h-�с, (h) Х ,, нп, ,57 Пр и.мер 1.13. Пусть на !1/. задающие сечения .К*<М*Х) при каждом. фик• -сированном М* Х заданы с.редними М *(M•X)X2 =tii2+M*Х. Здесь в принят ых :выше обозначениях g(x) =х, h(x) =х2• Тогда объединения сечений по параметру М*Х, меняющемуся в пределах �X:s.;;;M*X:s.;;;мX, образует ИМ с первич .ными средними: М(Х2-Х)=1rn2, МХ, МХ. Мы рассмотрели тот случай, когда первичные средние М*�сечений зависят от М*�. Другой способ -�сделать зависящим от М*� сам вид первичных приз-наков hм•:-§ задающих сечений. Пример 1.14. Задание случайной величины средним и д и с n ер с и ей. Дисперсия есть мощность центрированной к точно нулевому среднему с. в. а2=М(Х--МХ)2• В общем случае нельзя оп.ределить дисперсию. Можно сделать -это-только при допущении о точных МХ, т. е. для М*Х-сече -ний .К*<М*Х) 1МодеЛJ1, задавая для них М\ м•х> (Х-М*Х)2 =а2 ( М*Х)· Объеди нение сечений по М* Х и даст модель .случайной величины, заданной предела изменения среднего и (при каждом М*Х) верхней -дисперсией Преобразуя в каждом сечении выражение для дисперсий с учетом того, что М*Х является точным, имеем: о\м•х) =М*(М*Х) (Х-М*Х)2=М\м•х)Х2- (М*Х)2, или M* при• знак f ,(при заданном 0) и взять от него .среднее Mof. Рассмотрим более строго _вопрос, каким в этой схеме должно быть соответствие между признаками, -как они связываются между собой? Пусть стандарт ная .11{0 определяется своими средними Mof, fЕВТ, и зададим .1/{в ;значениями М0 f = Мо (L0 f), ( 1.13) где Lв -оператор, отображающий область !?Тв существования L0 .1/{а в область f/"0 существования .11{0 : !?Тв -+fl"o, 0Е0. Утверждение 1.4. Средние в формуле (1.13) будут согласованными, если оператор Lв обладает следующими двумя свойствами: а) линейностью Lв(c1f1 +c2f2+c) =c1L·вf1+с2 Lвf2+c; б) со == хранением порядка f1�'2а>-Lвf1�Lвf2. Нужно доказать, что для границ, выраженных (1.13), выполняются аксио т мы ИМ (см. с.р. 15). Очевидны Al и А4. Далее, Ь;;;а,:0=;-iИ0(lт{+с).= = ,WoL0(,Ьf+c) =Мо(Ы0f+с) = ЬMoL0f+c=ЬlИ0f+c, и доказана А2. Наконец, АЗ. следует из соотношений Jи0(f+g) =MoL0(f+g) :s:;; MoL0f +MuL0g= Мвf+м�. что и доказывает утверждение. Из свойств линейности .и ·сохранения порядка оператора Lвследует, что если первичным набором стандартной ИМ Jt0 = =(IJ.$) являет'Ся �. то пер·вичными набора-ми для Jtв будут �в= {gв: Lвgв = g, gE�} со средiними IJ.вgв=IJ.ag, где Lвgв = g. Функциональные представления. Рассмотрим один частный случай предыдущего представления. Для этого обратимся к записи х в 1в·иде отображения x=Vвs, тде Vв-известный оператор, зависящий от неизвестного параметра 0, принимающего значения из -множества е. Такие записи обыЧ'ны ,в задачах об.наружения и выделения сигналов, в которых шум 6 (вектор или процес-с) действует ,в канале .связи, описываемом оператором Vв, где 0 -неизвестный одномерный или многомерный параметр канала (или параметры сигнала и шума), а х -получаемые в результате векторные или в виде процесса �наблюдения. Задана ИМ «шума» Jt:x: Jt0s, играющая роль стандартной. Требуется составить ИМ наблюдений. Если оператор V в пр•и каждом 0 отображает «реализации» s в «реализации» х взаимно-однознач,ным образом, тогда Lв, заданный так: Lвf (х)= f (V вs), будет удовлетворять посылам утверждения 1.4. Равенства мхвf(х) =Ms0f (Vвs) согласно (1.13) породят серию ИМ Jt 0 х, ,объединение ,которых по 0 даст модель Jtx наблюдений, определяемую средними М f (х) = sup мit (х) =sup M5f (V0 �). в в Пр им с р _J .15. В задачах раД1Иолокации и связи смесь сигнала 'где t ·w,, есть время, с шумом 51 часто записывается в виде: X1 = 6w1+61, в котором 0;;;;.О -неизвестная амплитуда сигнала. Пусть шум 61 описывается ИМ .fto. Тогда модель .1(0 наблюдений Х1 при каждом заданном 0 определяется следующими значениями: .м8f(X1)·=,Иof(X,-Ow,), а модель .ft, равная объединению .ft0 по 0, -значениями .Мf=sup Mof (X,-0w,). Они и дадут модель .ft. Здесь, в;;.оесли .fto=(Mot;9) имеет первичным набором множество t;9 функционалов, то первичными признаками .ft0 будут g0=g(X,-0w,) с теми же первичными средними, что и заданы на t;9: .П8g(X1-6w1) = Mog. Плотность. Рассматривается способ выразить одну ИМ через другую, стандартную, с помощью функции р (х) переменной х. Сначала рассмотрим наиболее простой случай, когда ?В =ffl, и на первичном кольце :lt:т. всех отрезков задано конечно-адди тивное распределение 91 точными вероятностями Р11[х, у),xP2}. Объединяя N и N', получаем Po(NUN') =0, что и доказывает утверждение. Событие N0, нулевое для .,,f{, обязано быть нулевым для Jl1: P0 (N0) = О=>Р1 (No),= Ma/Vop = O. При этом р(х) на No может в принципе быть любым, даже принимать значение + оо (так как О• оо =0). Более того, нулевым обязано быть событие на котором р(х)=оо. Если р есть формальная плотность .,,1(1 по .,,f{o и р>О, то 1/р будет формальной плотностью .,,1(0 по .,,1(1: р = .1,f, 1/.1,f,0 > 0=> 1/р= aft0/.;ftf,1, = Mof, и если р·=оо при xe:N, то отношение р/р в .этой области можно считать любым от О до оо. Теорем а 1.5. П усть первичными дл я (Mr$o) являются признаки набора �о и М0р(х)= 1. Тогда первичными признаками dля (М1 �1), формальная плотность кото рой по отношению к (Mr$o).существует и равна р (х), будут вен,сТ1Ва .М.1 (-f/р) ДО1казател1:1ст,во .9 1 = {g1 (х): g 1 (х) = g (х)/р (х), g (х)Е ; о} U {± 1/р (х)} .со средними на них: M1 (g/p)=M0 g, gs j o ; M1 (l/p)= -М1 (-1/р)=1. В самом деле, так как без ущерба р(х) можно считать первичным приз.иаком для (MoGo) со значением Мор= 1, то inf {[с+ со Мор+ � ct Mogi]: с+сор + � ctgi ;;;;,fp} = =inf{[cM1(1/p)+co+ � ctMogi]: cfp+co+� ctgi/p;;;;,f}. Эта формула доказывает утверждение теоремы. Таким образом, смысл формальной плотности .,,ff 1 по отношению .,1(0 состоит в пересчете вида первичных признаков gг-rgi/P,р-+1/р, при одинаковых первичных средних, что может рассматриваться как взаимно-однозначное соответствие первичных признаков моделей. При этом достаточно рассматривать только те из них, первичные средние которых являются согласованными. Рассмотрим следствия теоремы. Следствие 1. Область существования !Т1 верхних средних ИМ .,1(1, формальная плотность которой по отношению к {Mr$o) равна р (х), составляет множество признаков, мажо рируемых ко нечными линейными комбинациями вида с+ Ic+igi/P, giE�o-Признаки из f!Т1 представимы в виде f= Ic+i,gi/P+fo, где giE�o. а fO -ограниченный сверху признак. Следствие 2. = р = .11,1;.Jt0 = .11,;;.11,� =?-р( .Jt1 Л ... И;)/( и/,{0 Л иЛ�)· Можно сделать вывод, что для существования формальной плот,ности р = .необходимо, чтобы Jl о имела более богатый первичный набор, чем ,J/{ 1• Частное � /р приводит к потере данных о признаках набора � по крайней мере в той области, где р(х) =0 . Отсюда размерность модели Jl1 должна быть н икак не выше Jl0• При р (х) >0, Vx, размерности должны быть одинаковыми, а первичные наборы в известном смысле эквивал-ентными. Рассмотрим примеры определения формальной плотности для ИМ, не являющейся точным распределением вероятностей. Пр им ер 1.15. Пусть Jto -моментная ИМ, определенная начальными моментами MoXi , i= 1, ... , k, верхними и потому неточными, кроме одного, МоХ2=МоХ2=�0Х2, с обязательно точным значением. Функция р(х) =х2 будет формальной плотностью x2=Jl1/Jto для такой Jt1, первичными средними которой являются М1(1/Х2)=1, М1(1/Х)=МоХ, "11Х=МоХ3, ... ... , M1Xk -2=M0Xk . Областью существования fF1 будет множество признаков k вида c+�c+ ;Xi -2+fo, foEfFo. В этом примере, так как р(х)>О при х*О 1 функция 1/р(х) = 1/х2 будет формальной плотностью Jto по отношению к Jt1, если исключить из числовой прямой, на -кот-ороl°I они заданы, точку О. Отметим, что плотность одного ИРВ относительно другого может · существовать лишь для точных распределенпй, так как требование Мор=М1 (1/р)·= 1 исключает какие-либо отклонения. Дополнения. 1. Д о к а з а т е л ь с т в о т е о р е м ы о п р е д с т а в л е н и и. Докажем сначала теорему для сечения .lt одномерным параметром На основании определения операции объединения достаточно доказать равенство ma(_ Mмgf=Mf. �g..;Mg,.;Mg Обозначим левую часть Подставляя в нее формулу ( 1.9), подучаем: Mf= �,i�мg;;;мg Функция W(c, Mg) линейна (и следовательно, вогнута) по Mg и выпукла по параметру с, так как для O�y�l: W (i'C1 + (1-у) С2 , Mg) = М [у f-i'C1 g + (1-у) f + (1-у) С2 g] + + ['\'С1 + (1 -i') С2 ] Mg � 'V М (f-С1 g) + 'VC1 Mg + + (1-у) М (f-c2 g) + (1 -у) с2 Mg='V W (с1, Mg) + (1-у) W (с�, Mg). :-ff11.infc:-ff Поэт_ому, используя известную теорему о минимаксе [22], без изменения р.езультата максимум и минимум можно менять местами. Получаем Mf= min шах W (с, Mg) = min [М (f-cg)+ шах {cMg, cMg}], - с -с и это равно 1Иf, поскольку минимум достигается при с=О (в самом деле, при с�О: ,W('f-cg)+max{cMg, сдg} =M(f-cg)+ciWg �Мf-cMg+cMg=Мf и тооже самое неравенство справедливо при с=а;;;О). Теорема доказана для случая, когда 'S состоит всего и_з одного признака. По индукции теорема распространяется на случа1\ когда W =�" есть конечный набор. Наконец, для произвольного набора W, если обознач·ить Mf = supMм.'9'f =sup inf Мм.'9' f, М.� М.'9' .'9'11.с:..'9' 11. то нужно доказать равенство Mf=Mf. Признаку f таком у, что \ Mf\<оо (откуда \1Им .'9'f\<оо), и фиксированному ,s>O всегда найдутся такие k' !И конечный набор S' 11,, что М f>М f-e. м.'9' k' Mf> sup М.'9' , f-e= Mf-e. М:§11. , м11. В то же время .Км .'9' с.К, откуда получается V.Км .'9'с.К и M f=a;;;мf. ОкончаМ.'9' тельно, для любого признака f из области существования среднях fТ имеем \Mf--Mf \ �-е, и утверждение теоремы следует из произвольности ,s. Доказа7ельство закончено. 2.Приомер пересчета по формуле (1.13). Пусть y=V0 (x) естьо vв :взаимно-однозначное отображение fiZl в fiZl : lll-+lll. Тогда оператор L0/(х) = =f(V0 (х)), очевидно, будет обладать требуемыми свойствами а) !И б) утверждения 1.4. В линейных пространствах fiZl (например, если fiZl =/R,n) такого типа операторами являются преобразования сдвига L0f(х)=f (х-Ь0хо), Ь0е!R,, где элемент хо характеризует направление сдвига. По.:�.став,1яя в (1.13), получаем м0f(х) =Mof(х�Ь0хо). Здесь .К0 выводится из .,f{o сдвигом всех xelll на величину ,Ь0хо. ·1.6. УСЛОВНЫЕ ИНТЕРВАЛЬНЫЕ МОДЕЛИ Постановка проб.1Jемы. Интервальные модели дают описания явлений, еще не происшедших. Допустим, что такое безусловное описание .,,f{ составлено в виде совокупности согласованных средних Mf, fЕ:Т. А 1потом 'Вдруг дополнитель·но стало из·вес11но, что произошло событие В. Оно частично, но не полностью отражает результат явления, если только не является элементарным событием. Тогда после В неопределенность останется, а явление · бу .дет описываться новой моделью .,,f{в, называемой условной при случ·ившем,ся модели соответствуют ·свои средни1 Мвf. происшедшего события В для условной МвВ(х)•=Рв(В)= 1. Но не толь ко это. Производится пересчет средних Mf в Мвf, своего рода 1преобразован.ие од них в другие, и как их часть вероятностей Р(А) в Рв(А). Вопрос, как? Если событие В имеет точ,ные вероятности Р (АВ) и Р(В), то пересч ет в условные хорошо известен и производится элементар Рв (А)= Р(АВ)!Р(В). А если неточные? Если неточной является только вероятность в ·числителе, то для -расчета Рв(А) нужно подставить -вместо нее Р(АВ), что соответствует супремуму отношения по Р(АВ). По та•кому же принципу рассчитываются средние любых ·признаков. средние и вероятности, 1когда в знаменателе Р(В) является интервальной Р(В). Р (В)? Основная трудность здесь •в том, что если брать супремум части, то Р(АВ) и Р(В) оказываются связанными: нель зя положить одновременно Р(В) =Р(В) и Р(АВ) =.Р(АВ) (равно. как абсурдно желание, заполняя ,«вероятностной массой» до краев «отсек» АВ, обеспечить при этом минималыное сум'Марное заполнение обоих отсеков АВ и л ев, .составляющих В).е Определение условной интервальной модели. Начнем с рассуждений, которые и приведут нас к определению. Пусть .,,f{Р, <В> есть Р* (В)-сечение J{. Вероятность события В для .,,f{Р,<В> является точной, равной Р* (В), и пусть Р* (В) >0. Тогда соответствующие сечениям .,1( Р. <В> ус.1ювные ИМ .,1( P,(BJ, в получаются сужением области существования к -признакам f(x)В(х), fEfГ, где fГ -область сущест•вования Mf, и нормировкой всех средних на число 1/Р*(В), что дает мР.<В>, в f = м fB!P* (В), fEff. Очевидно, определенные так средние удовлетворяют аксиомам им. Любая ИМ согласно теореме 1.3 о представлении записывается ка 1к объединение ее Р * (В)-,сечений. Для каждого из сечений по указанной формуле ,находится условная ИМ, а их объединение и даст искомую условную ИМ. Условной при случившемся событии В называется ИМ .,,f{в на l/J, определяемая из .tft средними: Средние по формуле (1.15) называются условными. Без трудапроверяется, что они удовлетворяют аксиомам ИМ. Областью существования верхних средних условной ИМ будет класс признаков, совпадающих с функциями ВТ на событии В, и произвольных (возможно, принимающих значения ± оо) вне этого события. Этот ю1асс обозначаем ВТ В. Нижние средние условной ИМ определяются по обычной фор Р(В) =0, то правая часть (1.15) при максимуме, коцаеР* (В) =0,-понимается как предел Р* (В)-+0. Так же понимаетсяэта формула, если событие В является нулевым, т. е. Р(В) =0.Тогда где при любых f (и неограниченных также) функция fB считается равной нулю в области вс . Отсюда следует, что если событиееВ является невозможным (в частности, В=525), то условная ИМJtв будет В-индиr<аторной Jlве= :Ув, а именно определяемой на ;JC единственным первичным средним Рв(Вс) = О. Подстановка в (1.15) формулы (1.9) § 1.5 для средних сечения раскрывает выражение для условных средних: min [М (/-с)В+ сР* (В)]Мвf = maxе с \ 1. 16) f:(B)..;P.(B)..;P(B) Дадим примеры расчета по этой формуле.е Пр им ер 1.16. Расчет у слов и ы х в ер о яти о ст ей И Р В. Пустьеf в (1.1·6) есть А(х). Тогда минимум по с в квадратных скобках выраженияе (1.16) будет достигаться либо при с=О, либо при c=l, в результате чеrоMQ.o(B)AB=min{P(AB), Р.(В)-�(А0 В)}. Подстановкой данной формулы � (1.15) находятся верхние условные вероятности: Рв(А)=Рв(АВ)=МвАВ= Р (АВ) Р (АВ)} = -min ' l !:_ (BJ,,.;��;),{p (В){ Р* (В) где использован тот факт, что максимум достигается при равенстве членовпод знаком минимума. Пр им ер 1.17. Пусть Jt на f1I, определена двумя первичными средними MIXI, MIXI и пусть В=[а, Ь], О<а<Ь. Без труда находятся Р(В)=О J5(B)= --;;;;min{I, MIXl/a}. При заданном Р.(В) для сечения имеем Мр (B)fB= iпf [c+ct м1х1-сtм1х1+саР. (В)]· -c+(ct-c"t)lxf+caB(x);;;,f(x) • Например, для события D= [d1, d2] сВ по этой формуле получаеме мР.(В) D= min {М IX//c1, Р. ( В)}, МJ>.(В) fl = о. 3.....,13е65е откуда, если D=;=B и D=;=fZJ, , М IXI МвD = Р8(D) = max rnin Р.(В) l l = l.е . }= min {----'--, } Таким образом, границы для всех условных вероятностей событий в данномепримере тривиальны. В случае f(x) = lxl имеем: о..;Р.(В M81XI= max_ MIXI/P*(B)=oo, о..;Р,(В):,,;Р(В) и, в частно�ти, nри Л11ХI >а получаем MвlXI =aM/X/!дiXI. Для другого события В 1=·[-а, а]-при тех же первичных средних имеемеP(B1)=[1-MIXl/a]+, P(Bi)=l, и если это событие произошло, то условныеевероятности уже не будут, как выше, тривиальными, так как, например, дляе Расчет условных моделей через вершины. Здесь рассматривается частный случай, но он позволяет нарисовать ясную наглядную картину условных моделей. Пусть пространство SlJ = {х1, ... , х,-} конечно и Jt есть ИМ наеuем. Обозначим Ре= (Ре(х1), ... , Pe(Xr)) -все векторы вероятностей, являющиеся вершинами (крайними точками) Jt, так чтоеJt=VP6• Соответствующие каждому Ре вероятности Ре(В) = = � Ре(х;) являются точными, потому объединение переrруппи хiев руется как запись Jt через Р (В) -сечения, если каждое сечениеепредставить набором вершин -векторов Ре с одинаковымиеРе(В)=Р(В). событие В произошло, понент Ре на Ре(В) с обнулением компонент Pe(Xi), для которыхеХiфВ: = V Р/;Р0 (В), 0: Ре (В)>О м ,х, I рве обнулением всех ·компонент Pe(xi), для которых ХiфВ. Этуередукцию можно интерпретировать как проекцию векторов Ре в соответствующее подпространство !!l.Тв пространства fll,r. Далее из начала координат в направлении векторов рве проводятся лучи 'АРвв, 'А� О, до пересечения с гиперплоскостью � Р (xi) = 1 под х iе:в пространства fll/в, Пересечение достигается при 'А= 1/Ре(В), и точки пересечения рве/ Ре (В) дадут векторы условных вероятностей. Иллюстрация -с•каза,нного для W·= {х1, х2, хз} и В= {х1, х2} приведена на рис. 1.11. Условной ИМ Jt в здесь соответствует отрезок '[Р1в, Рзв], Заметим, что число вершин Jtв меньше, чем у .;/{: точка Р2 являет,ся •вершиной Jt, н,о Р2в не есть вершина Jt в. Мы показали, что у,словные ИМ записываются через ,вершины, если такую запись допускают безусловные. Если же Jt определена своими первичными срещшми Mg, gE�, то теоретически можно найти условную ИМ Jt в, сводя Jt к ее вершинам. Для этого ,нужно проделать следующую последовательность действий: первичные средние М�-.согласованные грани J(-.вершины Jt-.вершины условной им-первичные средние Jt в, Этот путь весьма долог, поскольку каждая из операций достаточно трудоемка. Но дело даже не в этом, а в том, что для бесконечных пространств fl; понятие вершины как вектора вероятностей не имеет смысла, что существенно ограничивает универсальность такой процедуры. событие ловных ИМ Jlв В является достоверным Рв (В);= 1, ае Вс -нулевым Рв(Вс ) =0. С учетом этого условные ИМ обладают всеми свойствами ИМ, заданной ,на fl;. Рассмотрим, как будет меняться условная ИМ, если сужатьеили расширять событие В. Очевидно, в крайних случаях, когда событие В достоверно, т. е. Р(В) =1, условная ИМ ,совпадает с исходной Jt в =Jl, а если событие В является невозможным, т. е. Р(В) =0, то условная ИМ будет В-индикаторной: Jlв =:Ув , Оказывается, последнее равенство имеет место не обязательно только для невозможных .событий. Свойство l. Если каждая из первичных функций gE� безусловной модели vl{ = (М�) принимает на В постоянные значения, то условная к ней vl{8 дели ;У, будет В-индикаторной ;У в, каковым бы условие В на С в ой ст в о 3. Условная к объединению .Jlt =.1{с1 V.;f(2 модель равна объединению условных ИМ: .Jl(в= .Jl(1вV.Jl(2в, Свой ство 4 . .Jl(,c.Jl(2=>-.Jl(1вc.Jl(2в -при переходе к условным сохраняется операция включения. Свойство 3 распространяется на объединение произвольного числа моделей. Собственно, это свойство и было положено в ос нову определения усл'овных моделей, когда от объединения сечений был сделан шаг к объединению условных к ним моде.'Iей. Свойство 4 есть прямое ,следствие 3, так как .JI(1c.JI(2�.;f{ 1 V V.Jl(2с.Jl('l.· = Для иллюстрации восстановим наглядную картину, нарисованную на рис. 1.11. Считая ,fC дискретным, представим себе .;/{ как выпуклое тело в пространство векторов вероятностей, и поместим точечный источник в начало координат. Тело �К при освещении его источником бросает тень на гиперплоскость � Р(х), = Р(В) = 1. Эта тень и даст условную ИМ. На основании хеВ такого представления получают наглядную интерпретацию свойств 3 и 4. Тень от выпуклого объединения тел будет равна объединению их теней, что иллюстрирует свойство 3. Но вот тень от пересечения тел не будет равна пересечению их теней. Два тела могут не пересекаться, но при освещении точечным источником бросать одинаковую тень на гиперплоскость. Отсюда -следующие два ,предложения. С в ·о й с тв о 5. Пересечению ИМ не будет, в обще.м, соответствовать пересеч,ение условных ИМ. С в ой ст в о 6. Двум различным безусловным ИМ может соответствовать одна и та же условная. Например, пусть В(х) есть единственный первичный признак как для модели .А,, rак и для .;1(2, заданных своими точными вероятностями Р1(В), P2 (B)=l=P1 (B). Тогда .Jl(1 и Jt2 не пере" секаются между собой, но им соответствует одна и та же В-индикаторная условная ИМ ;Ув, О восстановлении безусловной модели по условным. Здесь будет обсуждаться вопрос о возможности восстановления .А по набору соответствующих ей условных .;/{псi , где tlix. = {В1, ..., Bk} есть дробление пространства fJJ на непересекающиеся события и fJJ=�Bi. Пусть сначала вероятности событий Bi считаются точными для .А : P(Bi)=P(Bi) =P(Bi), i=1, ... , k. Тогда МР<Б� >fBi;= =MfBi и на основании этого устанавливается справедливость неравенства Mf� !,MfBiс= !,P(Bi)Mв.f, i Правая часть есть усреднение условных средних Мв I f по точномусраспределению вероятностей P(Bi) событий Bi. Равенство левой и, правой частей _(соответствующее известной формуле полной ве 6S роятносш) достигается только тогда, когда верхнее среднее М .аддитивно на событиях Bi: ML{BiоLMfBi, = Перейдем теперь к более общему случаю, когда вероятности P(Bi) не являются точными. Запишем LP(Bi)Mвlf·= =M[LBi (х)Мв J], и заменим снмвол точного среднего на верхнее по .;f{. Это даст значения Mf=M [ LBi Mв1 fJ, fE:f, определяющие новую И_М, обозначаемую Jii. Таким образом, имеет место включение Jfi=:).;/{, А если .;f{ = (lЙW) и все функции набора � !1J1:.-измери.ны (т. е. являют,ся линейными ;1ю:-.1бинация•ми Bi (х) или их замыкания-ми), то .;f{=.;/{.Выделенный курсl!!'!ом тезис станет понятным, если отметить, что для вычисления Mf нужно знать как Мв.{, т. е. условные мо 1 дели .;/{в с• так и средние всевозможных .11инейных комбинаций B i: M'1:.ciBi, что (если взять пер:вичным кла,сс P!lJт. этих комбина ций) составит Р.%'т.-расширение .;/{. Если по условию второго предложения тезиса все gEW являются .%'т.-измеримыми, то Wс.Р.%'т. и Р.%'т.-расшИ1рение совпадает с исх-одной ИМ .;f{, при этом условные ИМ вырождаются .;/{ц =Э'вt в Вi•IШдикаторные. Таким образом, сфера действия тезиса о восстановлении сво дится к ,вырожденным условным моделям .;/{в� =Э'вс• ходит утеря данных об .;/{, так что восстановить можно будет не широкую (и с.11едовательно, менее Jt. Это ограничивает область приложения условных моделей 1в основном точными распределения.ми вероятностей. модели. В предыдущем изложении счичто произошло некоторое событие В и исследовалась условная модель .;/{в, Совершенно формально пока мы заменим индикаторный В(х) на произвольный признак q(x) и будем по тем же формулам определять условную ИМ .;f{q , Формула (1.15) позволяет это сделать. Кnк говорилось в начале § 1.1, q(x) при О� q(х) � 1 мож:ст трактоваться как признак нечеткого события q, и тогда .;f{q будет условной ИМ, если такое событие произошло. Пусть q(x) есть функция на flJ такая, что Mq>O. Абстрактноусловной, соответствующей тому, что q произошло, называется модель .;f{ q, определяемая средними (1.17) M f= max _ q �q.,;;;M.q.,;;;Mq В числителе правой части (1.17) стоят средние М*q-·сечения .JI(. Очевидно такое свойство: .;f{�+=.;/{q -у-множение q(x) на неотрицательный коэффициент с+ q не меняет абстрактно-услов ной им. Пусть р(х) есть плотность .,,1( по отношению к .,,1(0 : р=.,,1(/.,,1(0�Тогда соответствующая .,,1( абстрактно-условная модель .,,1( q при случившемся q(x) будет равна абстрактно-условной модели J{0qpпри случившемся q (х) р (х): р = .J!{j.Ji0 , Mq >О* .J/!{,= .Jt0 -q qp В самом деле по определению плотности Лf=M0fp. Записывая (1.17) в развернутой форме, подставим формулу для М*qсечения и ,после несло.жных преобразований получаем min [М (f-c) q + сМ* q] с Мчf = max ----------Mq..;M.ч..;Mq min [М0 (f-с) qp + сМ* qp] с max M*qp что и требовалось. Из доказанного утверждения вытекает. Если р (х) есть плотность .,,1( по отношению к .,,1(0 , то условная модель .,,1( в, соответствующая случившемуся событию Вс.&8, равна абстрактно-условной .,,1{0вр при случившемся В(х)р(х) =q(x): р = Jt/,Jt0 * .J/!{,B =.;f,t�, Bc.fC. p При B=filJ просто получается .,,/{=.,,/{0 р. Оба последних тезиса, любопытных в математическом аспек Дадим иллюстрацию. Формула условной вероятности (Байеса) для не чет к их с об ы т и й. Пусть для ИРВ требуется расс•rитать вероятность А, если В случ-илось не достоверно, а с некоторым сомнением, произошло ли оно вообще. Имеем вместо В признак q='\'B+l (1-у)Вс (нечеткое событие), где 1' есть Iюэффициент, интерпретируемый как вероятность того, что В произошло. Расчеты по формуле (1.17) дают после ряда вычислений следующее выражение, пригодное при 1;2::::;;;.,::::;;; 1, для вероятности А при свершившемся q: р (А_ (l-y)P(A)+(2y-l)P(AB) q )-(1-у)+ (2y-l) [Р(АВ) + �(АсВ)]. К:ак В'идно, при у= 1 результат тот же, что и в примере 1.16, а при '\'= 1/2 условной вероятностью станет априорная вероятность (безусловная) Рq (А) = Р (А) события А. Это и понятно, так как значение '\'= 1/2 эквивалентно q=1/2, что в свою очередь заменимо на q=1 (поскольку умножение q на константу не меняет абст,рактно-условн,и ,ведет к достовер·ному собы ой вер,оя11ности) тию B=filJ. Формула для условной вероятности при О::::;;;у::::;;;1/2 (соответствующей тому, что с преобладающей верой произошло даже вс , а не В) получается из приведенной заменой В на вс и у -на 1-у, а для нижней условной вероя'!'ности -переменой нижних 1вероя11ностей ,с верхними и наоборот. 1.7. ЗАКЛЮЧЕНИЕ Рассматриваются с.r1учайные яв.'!ения, в описании которых прямо или косвенно может быть указано множество взаимно ис-ключающих друг друга элементарных исхо,1.ов, образующих пространство э.1ементарных событий. Функщ�:и на этом пространстве называются признаками. Средние статистические значения признаков есть пределы сре,1.них арифметических результатов независимых повторов явления в одинаковых условиях и могут быть точными (для устойчивых явлени�"1) и интервальными (для неустойчивых, неопределенных). Средние в интервальном понимании существуют в очень широкой области признаков, куда входят обязательно все ограниченные. Интервальная модель есть совокупность нижних и верхних средних в об ласти их существования, связанных между собой аксиомами § 1.1. Лксиомы согласуют средние между собой. Любая ИМ (§ 1.2) формируется первичным набором :3/ признаков, элементы которого предопределят тип модели, и непротиворечивым (корректным) заданием на :3/ первичных средних, конкретизирующих ее вид. Ключевой является теорема 1.1, согласно которой средние с первичных признаков однозначно продолжаются с согласованием на все признаки, мажорируемые первичными, образуя область существования ИМ. Если среди первичных признаков имеются неограниченные, то они породят неограниченные признаки в области существования. Дополнительное расширение области существования может производиться преде.1ьным переходом ( 1 .4) от усеченных сверху и снизу функций подобно тому, как понимается интеграл от неограниченных функций. Интервальные модели отличаются друг от друга разными наборами первичных признаков и разными первичными среднимп, а в итоге -разными значениями средних в обJiасти их существования. По включениям этих значениii можно судить, какая из ИМ более широкая, а какая ,менее (§ 1.3). Чем шире ИМ, тем меньше подезных данных о явлении в ней содержатся. Самой широкой среди всех является голая ИМ, соответствующая абсолютному отсутствию данных (нли пo.1!-!C"'1t:,i1 неустойчивости явления). Расширение ИМ служит рабочим ин-:т ;�::•:, "Т,)М t:C упрощений. Через средние в § 1.3 определяются операции пересечения ИМ как добавление данных к уже пмеюшимся и объединения как рассеяние данных, рост неопределенности. Геометрически ИМ есть мноrогранникп, в которых первичные признаки и их средние определяют соответ;:твенно направ,1ення граней и их положения. Пересечение многогранников есть их общая часть, поэтому будет снова многогранником, а объединение полагается расширить до его выпуклой оболочки, чтобы получилась ИМ. Частным случаем ИМ, когда первичными взяты вероятности событий, являются интервальные распределения вероятностей, описанные в § 1.4. Первичный набор событий ИРВ произволен как по количеству, так и топологии. Если это полукольцо (например, отрезки числовой прямой) и на нем заданы точные вероятности, то они однозначно продолжаются, оставаясь точными, на алгебру событий (суммы отрезков), а их согласованность равносильна аддитивности, что ведет к конечно-аддитивным распределениям вероятностей. Расширение первичного набора до счетной алгебры и задание вероятностей сознательно счетно-аддитивными ведет к сужению распределений вероятностей до счетно-аддитивных. Обобщением указанных типов распределений вероятностей являются конечно-и счетно-аддитивные ИРВ, у ;которых при той же первичной системе событий вероятности заданы интервальными. Еще одним типом ИРВ является интервальная функция распределения вероятностей, первичной для которой является набор вкладывающихся событий; представима как семейство точных функций распределения, причем непрерывные из них есть ,конечно-аддитивные распределения вероятностей, а разрывные соответствуют. их группам. Любое семейство распределений вероятностей (конечно-аддитивных или счетно) суть некоторая ИМ. С другой стороны, любая ИМ с интервальными средними представима как объединение ее простых составляющих с точными средними (теорема 1.3 § 1.5). В частности, это может быть семейство конечноаддитивных распределений вероятностей. Но не счетно-аддитивных ка,к слишком специальных, чтобы стать универсальным «строительным материалом» для всех ИМ (!Исключая дискретные пространства элементарных событий). Иная ИМ может приобрести наглядность, а подчас и физическую осмысленность правильным подбором ее представления через некоторые стандартные модели. Это может быть сделано удачным выбором вида соответствующего фун,кциональноrо преобразования. Еще один специальный способ состоит в эапис111 средних одной ИМ через другую (,ста,ндартную) с помощью формальной плотности, понимаемой шире классической плотности вероятностей ( § 1.5). При наличии достоверно свершившегося события ИМ трансформируется в условную пересчетом ее средних (§ 1.6). Формула (1.15) пересчета весьма сложна (юроме случая точных вероятност,ей). Она п·риложима ,к нечетким событиям. Переход к условным моделям сопровождается обычно расширением. Вернуться от условных к исходной модели, ничего не потеряв, можно лишь в редких исключениях, поэтому условные модели не зан1Имают сколь-либо значительного места в интервальных методах. Глава 2. СОВМЕСТНЫЙ АНАЛИЗ 2.1. ДЕТЕРМИНИРОВАННЫЕ ПРЕОБРАЗОВАНИЯ ИСХОДОВ Отображения. Определив интерва.ТJьные модели и их свойства, пойдем дальше. Посмотрим, как они видоизменяются в смысле деформации признаков и их средних при преобразованиях пространства flJ. Для этого классифицируем сначала сами преобра Преобразование s пространства flJ в иу Ш�6/f есть математическая запись реальных отношений между исхода = ми на 8С и на бlj. Если ysx -функция, однозначно отображающая каждый исход хЕ8С в исход yEбlj, то преобразование называется детерминированным. Указав, как детерминированное s преобразует исходы, рассмотрим, как при этом преобразуются признаки, но не все, а пока только их частный класс -события. Здесь нет трудностей: Ас8С преобразуется в В= {у: y= sx, ХЕ.А} -это множество значений, которые принимает y= sx, когда х пробегает значения из А. Пишем формально B= sA и будем называть В образом события А. Каждое событие А на 8С имеет свой образ В на бlj. С в ой ст в а об р аз о в. Образ объединения двух и более событий из 8С равен соответственно объединению их образов на бl,/: s (A1UA2) =sA1UsA2, Образом пустого множества будет пустое множество: s525 =0. Образом 8С будет, в общем, часть бlj, тогда говорим, что s есть отображение 8Свнутрь, или в бlj. же образом 8С является все 6lj (это нетрудно сделать, исключив из бl,/ те элементы, которые не входят в область значений sx), то s есть отображение flJ на бlj, что ниже и считается. Включению событий соответствует включение их образов: A1c:A2=>-sA1csA2. То же верно для дополнения (если s есть отображение 8С на бl,/): sAc= (sA)c. И чего нельзя сказать для пересечения: два ·непересекающихся события, скажем х1 и х2, могут отображаться в одно, как это видно из рис. 2.1. Обозначим все элементы х, отображающиеся в точку у, через A11 =s-1y= {х: sx= y} и назовем прообразом или изображением точки у. Изображением s-1 B события BE.бlj будет объединение изображений точек, входящих в В: АвU Ау= {х: sxcB}. Непе = и=в ;ресекающим,ся В1 и В2 с-оответствуют непересекающиеся изображения s-1 B1 и s-1 в2, а алгебраическим операциям над ними такие же операции над их изображениями. ,1\1ножества s-1 yc8C в результате не пересекаются и s можно рассматривать как взаимно-однозначное соответствие точек у пространства 6lj и подмножеств пространства 8С: ++у, или соответствие U Ау++В, Ау Ау уЕВ приводящее к идентичности (изоморфизму) двух ашебр событий: B алгебры d на fll, порожденной событиями Ау, и алгебры всех событий на uJ/, обозначаемой 2о/. Эти алгебры .st--2o/ изоморфны •в том смысле, что алгеб,раические отношения ,и дейст-вия над ;Множествами одной из них зеркально отображаются ·на от,ношения и такие же дейст1в·ия :над другой. Обобщи�м !Понятие преобразования, ,подводя его ,к ,изоморфизму двух произвольных алгебр событий. Для этого будем понимать S (обооначается в отличие от преобразования загла1вной буквой) как отображение, при котором каждая точка х переходит, в общем, в подмножество Sx= Bx пространства uJJ, причем: а) для различных х1=;6х2 множества Sx11 =B1 и Sx2 = B2, в которые отображаюrея эти точки, либо совпадают между собой, либо не пересекаются; б) Sfll= USx= uJJ. Равенство Sx=Bx понимается I<ак неяс1ность, ,сомнение, куда из множества Вх попадет точка х, и в этом смысле S расплывчато. Отображение S любые события из flJ переводит .в---�ытия из оу: SA= U Sx, и обратно: s-1B= {х: SxcB}. В нашем широком хеА понимании для любого S ·обратное s-1 всегда определено. При повторных прямом и обратном отображениях s-1SA события, в общем, ,смазываются, становятся шире А, кроме некоторых из событий, представляющих наибольший интерес, так как именно они s всех тех событий на flJ (и его ·образ !lJs на uJ/), ,которое пр-и прямом и зате:-.1 обратном отображении «остаются четко на месте»: Jls ={А: s-1 SA = A}�.f's ={В: В= ss-1 В}.о Характерна однозначная связь: A--SA=B, s-1B= A--B, индуцирующая две изоморфные алгебры ds+-+!lJs, где !lJs есть образ d-5• Атомами алгебр являются Bx = Sx, XE.fll, для !11s и Ах= =.S-1 Sx для d-5• Если переобозначить их Bz, Az, объединив совпадающие между собой Вх (и Ах) под одним индексом z, то S можно интерпретировать как взаимно-однозначное соответствие +-+Bz. Az Итак, любое отображение S индуцирует изоморфные алгебры ds ,и !11s и полностью определяется ими. В то же время любому изоморфизму можно подыскать соответствующее отображение S, понимая его ка1к о·юбражение событий из Ш ( ато)-lов Az) в ,события из uJ/ (атомы Bz). Алгебры ds и !lJs охватывают те события, которые остаются четкими при преобразованиях. Через них могут быть опреде.'Iены образы (и изображения) всех остальных событий по формулам: 1 1 SA= П SA'; s-В= n s-В'. B'EfR.5 А'е:А5 A'=iA B'=iB Преобразования признаков. Мы рассмотрели, как отображениями преобразуются события. Теперь обратимся к преобразова нию признаков; уста-новим, как одни из них при отображении переходят в другие. Числовая функция f (х), измеримая относительно индуцированной отображением S алгебры r.54 5 событий, называется S-пред ставимым признаком. Если понимать функцию f широко как отображение событий А в подмножества f(А)= {f (х): хЕА} числовой прямой, то для S-представимых признаков f(А) =f(S-1 SA),V А, что эквивалентно может быть взято за их определение; эти признаки принимают постоянные значения на •«атомах» Az алгебры ds. Кла,сс всех S-ПJредста.вимых приз•наков обозначим !Fs. В него, оче,ви,дно, входят ,все ,индикаторные функции ,событий ds. Класс fF5 линеен и замкнут относительно любых арифметических действий, т. е. -преобразование F(f1, {2, ... ) признаков из этого класса приводит к признакам из него же (можно допускать 6есконечные значения признаков). Каждый S-представимый признак имеет четко свой образ -ep1 ;;::,ер2, где f1 -+-+-ер 1, f2-- на � будут иметься? Что при этом теряется? Для S-представимых признаков f ровно ничего: (2.1) и средние однозначно переносятся на их образы. Это очевидно, так как ср(у повторяют значения f (x)•=q>(Sx). Первичны.шt для преобразованной ИМ J/{Y=S.;f{x будут средние (2.1). Они согласованы на �s в силу их согласованности на ds и изоморфизма этих алгебр. Последовательность этапов для определения .;f{Y следующая: 1)осначала об .,1tж оставляются только сведения о средних подкласса S-представимых признаков !Т s, что соответствует !Т s-расширению .,1tж; 2) средние с !Тs пер·еносятся на их образы по формуле (2.1). образуя первичные значения для .,f{Y; 3) наконец, первичные значения продолжаются на произво,1ьные признаки. Из сказанного следует, что будь на /!В задана Jlx, или ее !Тs-ра,сширение (MжfFs), итоговая .;/{Y=S.,l{x будет од-ной и той же. Средние только S-представимых признаков участвуют в расчете .;f{Y; остальные же «смазываются», теряют свои собственные сред:ние и переходят в «подчинение» к набору М!Т s = = {Mfs: fsЕ!Тs} Потерь, очевидно, не будет в том случае, если М!Т s определяют однозначно модель .;f{x , т. е. ее первичные признаки gE'§все S-представимы: � с!Т5• Тогда !Т5-расширение .;f{x совпадет с .,1tж, а первичными для .;/{У будут образы gE� с теми :ще, как у .,l{ж, средними, так что между первичными признаками и средними .,/{" и .,l{Y устанавливается тождественная ,связь. Расчет средних :производится уже не в три этапа, как выше указывалось, а в два, так как здесь !Т s можно заменить на � и первый этап вырождается. Пр им ер 2,1. Пусть fE=!il, -чис.1овая ось, и пусть у=х2 -преобразование. Тогда oY=ile+ -полуось и средние ,И<р(У) (дJIЯ удобства случаiiные величины обозначаются заглавным,и бу,квам111), определяющие .,({У, выражаЮ'!'СЯ через средние Jtx по формуле (2.1): 1И<р(У)=М-Jt11 .-.J{x и транзитивно: Jtx .-J(Y, .,l(и-;:,,;:, Jtz=>=>-Jtx XJ J(z. Подобные модели имеют одинаковые размерности, строго соответствующие друг другу грани и изображаются одинаковы:ми rеометричес1шми телами (но в разных пространствах). Пр им ер 2.3. Пусть на разбиении !В на непересекающиеся события: !В= =А1 +А 2 + ... +А 1, задано интервальное распределение вероятностей ИРВ гран11ц8J.fи вероятностей ti = f(A;), р; = Р(А1). Эта :моде,,ь по,1обна ИРВ на k-точечном пространстве 'V11. = {У1, ... , у,.} с теми же вероятностями s Р(у;) =р;, Р(у;) =р;. Отображением, наводящим подобие, будет А;-у;, а об "' .... 5-:L ратным к нему будет изоморфизм у; -А;. Класс !Тs образуют функции вида c+Ic;A;(x), а Ф5-1 -вида c+Ic;l\111 (.у). Подобие сохраняют алгебраические действия над моделями: ve* Л.лt�,...,, л.а;, в в 2.2. СЛУЧАЙНЫЕ ПРЕОБРАЗОВАНИЯ Переходные модели. В предыдущем параграфе рассмотрены отображения f1J в (jJJ и их более общие формы -изоморфизмы, при которых каждая точка х с достоверностью 1 переходит в множество Bx cQJ/, причем Вх при разных х ·совпадают между собой или !Не пересекаются. Рассмотрим общий случай, когда х в принципе может перейти в любую точ,ку ye(j/j, а знания об атом ,среднестатистичесжие. Ta- Q кие преобразования называются случайными: flJ-+QJ/. Для случайных прео6раз0<ва·ний Q каждой точке х указывается некоторая ИМ .;/{Ух на q;, называемая переходной из f1J на QJ/ и определяемая своими средними значениями MYx(J) (у). Способы ее задания точно такие же, как любой ИМ, а именно, первичными средними МУх'Ф, ,i,e'I', где 'Ф -п:ервичные признаки на QJ/, средние •которых, да и вид их самих, в общем, зави<::ят от х. В частном случае, когда .;/{Ух есть интервальное распределение вероятностей, то первичными признаками будут события на (jJJ и переходная ИМ будет полностью определяться ·верхними переходными вероятностями q (х, В)= Р% (В), Bc6/f, указывающими, с какой наибольшей вероятностью точка х пе рейдет в событие В ,при преобразовании Q. Очевидно, .q (х, В) = = 1-РУх (Вс), т. е. нижние переходные вероятности сразу вычисляются по верхним. Преобразования моделей. Пусть теперь заданы .;f{x на Ш и переходная модель .;f{Yx на QJ/, описывающая случайное преобразование Q из Ш на QJ/. Тогда соответствующая им .;f{Y на QJ/ будет определяться средними: М9 q> (у)= мх (М� q> (у)). (2.2) Здесь MYx(J) (у) есть средние по переходной модели .;f{Yx, а 1,ак функции х -это в свою очередь признаки на fl;, средние которых по .;f{x, обозначаемые мх, и дадут согласованные значения МУ<р, определяющие .;f{Y. Результат преобразования записывается: .;/(Y=Q.;/(X, Если g-x и f!Тvx есть соответственно области -существования средних для J(x и J{Yx, то для J{Y эту область составляют такие функции <р (у)Еf!ТУх, , что МУх<р (у)s.f!Тx. Сюда, конечно же, входятелюбые ограниченные функции. Рассмотрим на пр·имере последователь·ность вычислений по формуле (2.2). Пр им ер 2.5. Пусть как единственным первичным с редним мхg, так и переходная =(МУ,.-ф) -одним средним ,'111"-ф(у) =ii(x). Тогда согласно формуле (2.2) для признака ер(у) имеем ми ер = _мх Mf ер = min _ [ с + ct мх g], c+ctg (x);;;,Mf Ф min [d+dth(x)]. d+dtф(y);;;,Ф(Y) Среднее МУер будет определено, если определено м11,.,ср и мажорируемо линейными комбинациями c+c+1.g(x). Причем любых ер переходное среднее м11 x(J) J<ЗJК фун.кция переменной х будет пропорц1ИоналЫ110 /i, (х). ТQгда и от ,,,кх требуется только знания м-•ii(x), т. е. /i,(x) -его расширения. Этот факт не распространяется на несколько первичных значений MY",j,J=li;(x), так как щем, линейными комбинацю�:ми ii; (х). Объясним, почему так. Пусть первичных признаков переходной модели не один, а два, скажем "11 и ,Р2 с соответствующими им верхними средними li1(x) и h2(x), тогда М�<р = min [d + df � (х) + df hi (х)] d+dt Ф, (у)+dtФ,(У);;;,Ф(У) и правая часть не будет выражаться в виде линейной комбинации h1 (х) и ii2(x), так как значения коэффициентов d и d+;, при которых достигается минимум, могут зависеть от х. В лр·имере был введен тот случай, когда МУх<р при любых <р образуют •весьма ограниче;нный клас,с g-x* лризна,1юв, пр1J1чем это всегда замыкание [.Р+.Уе] полулинейной оболочки ,Р+� некоторого набора .Уе. Тогда для расчета J{Y=QJtx и от J(x потребуется только знания мхf, fs.frx*, а g-х*-расширение Jtx не приведет к ИЗМеНеНИЮ J{Y: QJtxQ(MXf!ТX*) = . Остановимся 1на этом и рассмотрим для начала самый крайний случай. Пусть переходные ИМ одни и те же, независимо от х: JtYx= Jt0. Тогда МУх(Р будут константа м,и, не зависящими от х, и KJ1acc g-x* вырождается в ,постоянную с. Получ-ает,ся, что о .;f{x вообще ничего не надо зн&ть, чтобы рассчитать J{Y : .;f{Y:= =.,,1(0• Это тот случай, когда данные о ,статистических ,свойствах на 6lj не меняются, если становится извес'Гным «вход.� х. Рассмотрим ,другой случай. Пусть переходная модель .,,l{Yx одна и та же на непересекающихся событиях р11збиения d"J:е= Aj 1 = {А1, ... , Ak} пространства f!C. Достаточно, чтобы первичные средние, определяющие переходные ИМ, были постоянны на А1, и тогда MYx(f) ,будут пос1'оянными при хЕА 1, т. е. d1:-измеримыми, -что и да•ст ,класс g-x*. Модель J{X ·без ущерба для .Jl{Y= = Q.,Кж может быть расширена до ИМ, первичными которой .являются средние M�ciAi (х) всех �.St:z•·измеримых функций (но никак не до И РВ с первичными событиями из d:z или их объединениями)е. Детерминированные преобразов·ания есть частный случай случайных, когда �перехдные модели Jt1lx = (P(Bx) = 1) я-вляются rолы о ми на взаимно непересекающиеся Вх, т. е. достоверно х-+Вх. Эти преобразования относяrея к предыдущему типу, что будет видно, ес.1и для некоторого Bz. обозначить Az.= {х: x-+Bz}, и тогда A:++Bz. Свойства преобразований модели. Рассмотрим, какими сnойствами обладает операция -преобразования своего рода статистического пересчета моделей: ..1(11 = Q.,Кх. Пусть на ?1J данных нет го,1ая ИМ -:ух_ Тогда .1(11 = Q::Jx будет определяться средними: ми ер (У)= sup М� ер (у) z и результат записЬl'Вается: QJZ = V ..«�. xsfe Значит, преобразование голой ИМ эквивалентно объединению переходных ИМ по входу х, рассматриваемому как параметр. Зафиксируем этот результат, дав ему расширенную формулировку: объединение ИМ Jte по параметру 0Е0 может эквивалентно рассматриваться как результат случайного преобразования множества 0, априорных данных о котором нет, в пространство исходов, а Jt е -как переходная модель этого преобразования. Отсутствие апр1иорных да,нных о х даст самую широкую моде.1ь на выходе, поэтому в общем случае QJtжcQ::Jx. А что, если переходная Jtvx при всех х является голой, т. е. никаких данных о преобразовании нет? Тогда преобразование .11юбой Jtx ведет едино к голой модели, не несущей никаких статпстических данных относительно исходов на йу': �iff,�=;J Y "ФQ.Jtz ==:JY , 'f/.Jtz . Данный факт следует ,из формулы (2.2): м11с:р(у) =Мх supq>(у)= =supcp(y). Рассмотрим теперь, как транформируются отношения включения и операции объединения, пересечения .моделей на ?1J после случайных преобразований Q. 1.еОтношение включения сохраняется при преобразова,ниях:е �-ftf c,Jf2"ФQ.Jtf с Q --«2. 2.еПреобразование объединения моделей на ?1J равно объединению их преобразовний: Q (V .Jt;) = VQ.Jt�. V V В частности, .если .Jltx = V9v представляется как объединение V вершин, то преобразование .Jltx -как объединение преобразованных вершин: 3.еПреобразование пересечения моделей включается в пересечение их преобразований: Q(л Jt; ) с: лQ vft; t> V Причина тому, что в последней ,части стоит включение, а не равенство, состоит в ослаблении порядка между признаками при сJiучайных преобразованиях. (когда v -.индекс, обозначающий номер первичного .признака), получаем Q (М�)= Q Л (Мхg)c: Л Q (Мх g).е ge� ge� 4.еСправедливо включениее (V Qo) .лzx -:::::J VQe �1tx ,е 0 0 где Q= VQ0 -преобразование, соответствующее объединению 0 переходных ИМ: .JltYx = V.!lt11x, в.е 0 В ,самом деле, МYcp=Mx sup МУх, ecp;:,:sup мхмих, ecp=sup ми�ср. 0 0 0 Дадим на примере геометрическую иллюстрацию сказанного. Пр им ер 2.6. Пусть троеточие flВ = {х1, Х2, хз} случайным преобразование)! Q отображается на себя. Переходная модель .,f{Y" при каждом значении х, пре.J.(тавляется как выпук.�ое множество Qi векторов вероятностей qт = =({J(X;, У1), q(x;, Yz), q(x;, Уз)), так что .,/{11x1q.>=maxqт{p, r,J.e функция ере qEQ! есть веJ,тор. .J1,1ножества Q;, как представлено на рис. 2.2,а, -это результат прес,6разованиi1 индикаторных моделей (Р(х;)= 1), i= 1, 2, 3, являющихся а) t5) Рис. 2.2. Образы мод�лей при с.�учайных преобразованиях вершинами :У Преобразование вероятноёте�'1 Р= (Р(х1), Р(х2), Р(хз)) QP = { рУ: рУ(yj) = ,i Р (х;)q (х;, Yi), QEQ;}.е &=1 Как это видно из рис. 2.2,б, Q.Jlx составляется из преобразованных вектороввероятностей, лежащих в вершинах .Jlx, и «загна.нных» внутрь преобразованияеQЭ'·• го.1ой ИМ. Суть третьего свойства раскрывается включением: (QP2VVQPз)/\ tQPз'VQP1) :::,QРз, Индикаторные преобразования, интервальная арифметика. Рассмотрим особый класс .Jl{x и .Jl{Yx• Пусть .Jl{x задана единственным ,предложением: «событие А из fllJ достоверно». Это даст индикатор·ную модель: .Jl{x = (Р х (А) = 1 ), определяемую cor ласованными сред;ними мхf(х) =sup f(x) =f(A), VfEfro. Пусть ·случай хеА ный оператор осуществляет достоверно перевод каждой точки хв событие Вх на б/j, что описывается индикаторными перехоdными моделями .;/{Ух = (РУ (Вх) = 1 ), определяемыми средними:е w(Bx), VqJEfro (здесь не требуется, как для детерминированных изоморфных отображений, чтобы Вх взаимно не де ми q> (у)= sup ( sup q> (у))= q> ( U В), х ХЕА хеА уеВХ т. е. результирующая .;/{У будет также В-индикаторной с событием В= U Вх : .J/{Y= (PY(B)= 1). хеА Так•им образом, при индикаторных преобразованиях индикаторные модели переходят сами в •себя, оставаясь в рамках этогоочень простого класса. А ,по ,сути дела, производятся прямыепреобразова1ния одних событий в другие. В частных СJ1учаях, rюгда filJ = б/j = [J/, -числовая ось, А и Вх -интервалы на ней, а переходные операторы отражают простейшие арифметические действия, получаем правила преобразования интервалов -ин терв аль ну ю а р и ф м е т и к у. Сложение. ,Пусть .Jl{x индикаторная на отрезке А=\[ а, Ь Jмодель, а переходной оператор прибавляет к числу х отрезоке[с, d], т. е . .Jl{Yx -,индикаторные модели на отрез,ках В.,, = = х+ [с, d] = [х+с, x+d]. Тогда ,индикаторным для .Jl{Y будет отрезок В [а, ЬJ + [с, d] {а+с, b+d], что и дает нам правилоеинтервального сложения. = В ы ч и т а н и е. Аналогично предыдущему [а, Ь ]-[с, d]=е= [a-d, Ь-с]. При сложении и вычитании ширина результирующего отрезка равна сумме составляющих. Ум 1Н ожени е. Модель ,.Jl{x та же, а переходный оператор умножает каждое число х на отрезок, что ведет к отрезкам, равнымВх х[с, d],[хе, xd] при х�О и Bx = i[xd, ,tc] при х<О. Объеди = няя = Вх по ХЕ[а, Ь], получаем результат умножения отрезков ве виде одного отрезка В=,[а, Ь] Х{с, d] ='[min{ac, ad, Ьс, Ь d},max{ac, ad, Ьс, Ьd} ], задающего индикаторную м�одель .J/tY. Д ел е ни е. Модель .Jltx та же, а оператор осуществляет де �11ение: 'При х;;:;,:О имеем при c�d, ков <рЕФ и их изображений f(j) одни II те же: так что {f"+fq:. Средние у призна х х миq> (у)= мм� q>(у)= мfФ (х). Обозначим ли,нейный •класс f Ф = {f Ф (х), q>ЕФ} и назовем его изображение.и Ф. Такю..1 образом, Ф-простое преобразова·ние Q порождает отображение ф_,[Г Ф признаков на 6/Jв их изображения на fВ. Наоборот, каждому признаку fЕЕГ Ф будет соответствовать подмножество Ф1 признаков q>ЕФ, таких, что =их изображение ,есть f: t-Ф1= {q>: (J) Е Ф, м� (J) (у)= f (х)}.еМножество Ф1 называется нечетки.и образом признака f относительно Q. Каждому признаку f из ЕГ Ф соответствует свой рбраэ, и -объединение всех образов дает Ф. Сказанное иллюстрируется рис. 2.3. Если q,1�q,2, то /(j) , MYxq>1�MYxq>2= f'f ,• Следовательно, соот = ношение упорядоченности между признаками <рЕФ влекут за собой такие же 011ношения между •изображениями. Д.JJЯ образов это не .всегда верно: может быть /1�f2, f1, f2ЕЕГ Ф, но отнюдь не q>1�q,2 для (J)1ЕФ1,, q,2ЕФ1 •. Вывод тот, что отношения бо.1ьшеменьше внутри Ф беднее, чем внутри ЕГФ, ·и следовательно, случайные преобразования, даже простые, нарушают порядок 11�ежду признаками. Рассмотрим, каким получается .,1(11=Q.,,f(x при nростых преобразованиях. Во-первых, если Jtx является S'-точной мо.1r:1ью ,gES') И S°ЕЕГФ, (Mxg=мxg, то J(Y будет Ф;g = U Ф1·ТОЧНОЙ. -fe;1 Пусть теперь Jtx= (JйxS-) :не является точной и задана на первичном наборе S' признаков, и пусть S'ctгФ• Так как [ГФ есть линейный класс, то :Ef/Jc[ГФ• Какой здесь будет J{v=QJtx? Согла·сно формуле (2.3) миq, на ,признаках из Ф по,1учаются _перенесением средних с изображений этих признаков, т. е. с призн;:шов из класса ЕГФ• Дальнейшее продолжение на произвольные признаки на 6/J будет следовать из формулы (2.2) ми h(У)=Мх[ inf МХср]=Мх [ inf fФ (х)], h,;,qJEФ h,;,q,EФ где инфю..1уы бере1'ся .rю q,ЕФ. Видно, чт-о в общем ,случае ми h(у)� inf м х fq, = inf ми ер. h,s;q,EФ h,s;q,eФ При ст рогом неравенстве класс Ф не будет первичным для J(Y,а ,именно, -верно включение J(Ус(МУФ), где (,МУФ) есть Ф-рас = (МУхФ), и ,�tоделями .;{(У_,;о зываются изображения1пи срЕФ, то .;f{Y=Q.;{{x ределяться средни,пи (2.3) на классе Ф признаков. Рассмотрим пример, когда условия этого утверждения выполняются. Пр им ер 2.7. Пр е об р аз о ван и е зад ан о переходной плотно с ть ю. Пусть fC= f1l_оn, 6/jо= fll,m -векторные пространства, и пусть преобразование· f1l_n-+f1l_m задается точной переходной плотностью вероятно;:тей Р :х: (У) на f1l_m пр,и !Каждом заданном векторе xEfll_". Если это плотность по мере-дтше, то класс Ф -это всевозможные янтегрируемые функции (J)(y) и их изображениями = fФ (х) <рЕФ. yGiё.f/i,m Каким же будет класс fГ Ф изображений? Чтобы ответить на этот вопрос, в плотности Рх(У) «окрестим» у как параметр со значениями из 6// и взг.1янем на переходную плотность как на набор функций переменной х, индексированный параметром у, для чего переобозначим ее: q(x, у)= Рх(У). Если интеrр�tл интерпретировать как линейную комбинацию функции q(х, у) с весами rr (у), то будет видно, что к.JJa;:c fiF Ф есть замыкание лине:1но11 обо.1очки rc;q(x. у;). Этот класс линеен. Его размерность определяется числом линейно-незавн,:пмых функ-ций q (х, у;), т. е. размерностью их базиса. Он может быть невелик, ес.1и q(x, у) при всевозможных уЕб/j принимает как функция х .'!ишь неко1орые конкретные очертания. При расчете J{Y можно отбросить все знания о Jt", оставив .1ишь Xl''f'i (х),оfоq, EfГ Ф• так как только они дадут средние дУ<р(у) для .1юбых интегрируемых (j). Дополнения. 1. С вязь между пр е образ о ван II я :1,1 и. Класс индикаторных преобразований шире к.1асса изоморфных отображений § 2.1, в которых тоже х-+Вх, но В" доджны ,�ибо совпадать, ,�ибо не перес�каться между собой. Индикаторные преобразования х-+Вх, хотя Jtx для них определяются точными первичными средними МУхВхо= 1, не входят в класс простых преобра зований. Действительно, последние задаются точными значениями M11.,q,(y), -<реФ, в которых первичные признаки (JJ (у) переходных моделей не зависят ·от х (зависят лишь сами первичные значения), а B:r. соответствует индикатор ному признаку B:r.(Y), зависящему от х.о Изоморфизмы § 2.1 есть частный случай простых преобразований, когдаопервичными переходной модели являются индикаторы <р(у) =В;(у), где BJоесть элементы разбиения '1/, а их вероятности равны 1, еслиох-В;, иначе -О. 2. Слоучай н о е п од о б и е. Дадим обобщение понятия подобия, показав, что подобными могут быть модели, связанные простыми случайными пре.образованиями, наделенными свойствами подобных отображений § 2.1.о Модели .!lt "' и .!l[Y называются подобными между собой, что пишетсяо "'.!l[Y, если, во-первых, .!l[Y=Q.!1[" для некоторого преобразования Q (в общем, случайного) из Ш на '11, и во-вторых, для Q существует «возвратное:.о(не всегда обратное) преобразование Q-из '1/ на Ш (также, в общем, случайное) такое, что .!l[x=Q-.!l[и, т. е. возвращающее исходной модели на Ш.оМожно доказать, что случайное преобразование преобразованием подобия, если выполняются три условия: а) Q задано точными _на классе ФопсрехоiJными люделями .!l[Ух = (МУхФ); б) признаки из Ф взаимно-однозначно с сохранением порядка связываются (J)++fq, с их изображениями fq,=MY:r.-g;�O, i=l, ... , k+l. Тогда преобразование Q из Ш на '1/= = {у1, ...,ун1}, задаваемые вероятностями перехода P:r.(Y;) =q; (х), является подобием для .!l[x и ведет к подобной ей .!l[Y, определенной средними Сказанное иллюстрируется рис. 2.4. 2.3. НЕЧЕТКИЕ СОБЫТИЯ И РАЗМЫТЫЕ ВЕРОЯТНОСТИ Наблюдения и их изображения. Наблюдения есть результаты явления, фиксируемого через ка,нал, измерительные устройства,органы чувств и пр. Удобно представлять себе два пространства: fВ --исходов явления, называемое предметным (иногда, универсальным [ 18]) простра:нством, и 6/j -пространство для описания результатов наблюдений (в виде чисел, суждений, словесных высказываiНИЙ и т. д.) как событий В на 6/j. Пространства fВ и 6// связываются между собой .случайным оператором, описываемым переходной моделью .Jl{Y x, Через призму этого оператора, по сути ,мы и .следим со ,сторО!ны 6// за тем, что происходит на fВ. Каждоенаблюдение Bc6/j будет иметь в предметном пространстве fl? свое интервальное изображение: [_q_(x, В), q(x, B)J=[��(B), Pf(B)], Вс6!f это есть границы вероятности появления ,события В при исходе· хЕfВ, вычисленные относитель:но ,переходной модели .JllYx• Раз-мытость кривой изображения как функции переменной х характеризует нечеткость наблюдения В. Изображения разных событий Bi c6/J есть составная частьсред,них переходной модели и потому обяза 1ны согласовываться между собой. Отсюда логическим связям на 6// между событиями ставятся в соответствие отношеН1ия на flJ между изображениями: { q (х, В1) � q (х, 82), 1. В1 с82 � = ::: В1) � q (х, 82); )(х, B1 )+q(x, 82),{q_(x, В1 +В2 �9... 2.еB1 B2 =f2J� _ _ _ q (х, В1 + В2) � q (х, 81) + q (х, 82); с {q_(x, В1 ) =l-q(x, 82),3.81 = 82� q (х, В1) = 1 -g_ (х, 82); 4.е (тождественная .единица и нольеизображениями: q (х, 21) == 1, q (х, 0) = О. Для определения изображений Рх (В), Рх (8) всех Bc6/j достаточно задать переходные вероятности на первичных событиях BiE.!11 в виде �x(Bi), Px(Bi), BiE.!11, и затем перенести на любые события по известной формуле продолжения и согласования: Рх (В)= iпf 8)-( [с+ }:,(с{Рх (;-сд+tх (В;))], с+� с; В; (у);;.В(у) !:_х (В) = 1 -Р х (8с), где c+ie= Ci при сi;;;э=о ·и c+i= O при ci /] = {r: qмf (r) >,у}. Указанные условия, огр·аничивающие вид размытых средних, по существу, требуют, чтобы срезом при любом О::::,;:;у::::;;:; 1 был интервал и толькоон. Этот интервал и создает тот фундамент, который связывает размытые средние с интерваль·ными и далее с интервальными моделями. Величина у есть степень доверия, и"1и своего рода предпочтения, отводимого данному интервалу. Любое размытое среднее эквивалентно определяется зависимостью от у, пробегающей значения от О до 1, соответствующих срезам интервалов .[ Mf, Mf], -сужающихся при увеличении у. Допускаются беско,нечные з•наче,ния •границ этих инте р,валов. Перейдем к ,понятию размытой модели средних. на миг, что размытые средние Qмf (r) приданы всем признакам Vf, ограниченным и неограниченным. Срезы .[M f, Mf] на од ной .высоте у есть интервальные средние. Если они согласованы Vf, то определяют интервальную модель Jt с областью существования fF= {f: Mfc.Jl• у;;,:'\'', ·которые, как бы лежащие друг на друге на разных уровнях '\', создают своего рода пирамиду, т. е. размытую модель. Размытой моделью называется сужающаяся при увеличении '\' от О до 1 последовательность Jl не вырождающихся в пустую (при у= 1) интервальных моделей. Определяется она совокупностью qм1(1·), Vf, размытых средних, согласованных между собой в каждом срезе. Исходя из указанной интерпретации размытой модели вытекает и основной способ ее задания: сначала задаются размытые средние ifмг (r) на наборе gc.'S первичных признаков. Берутся у-срезы �g, f.ilg, которые как первичные средние дадут при = увеличении у сужающиеся .модели .lt= 'S, Jй<,·>'S). При у1 первичные средние должны быть непротиворечивыми, чтобы самый верхний срез был не пустым: Jl( l)=t=52> (тогда тем -более они будут непротиворечивыми при всех О�'\'� 1). По Jl находятся - интервалы Mf, Mf для Vf, они и дадут '\'-срезы; определяющие размытые средние qМf (r), ,Vf. Нетрудно убедиться в том, что для -них выполняются все требуемые условия 1) -5), входящие в определение размытых средних. Как частный случай, получаются _размытые вероятности qP<в>(r), VB, особенность которых в том, что они располагаются, как это видно из рис. 2.5, на интервале 0-1 значен,ий ,. В .процессе продолжения ,с.редних на все признаки па:раллель•но происходит согласование первичных значений ifмg(r); получающиеся в результате новые кривые qмg (r), в общем, делаются более узкими: qмg(r) �ijмg(r), и следоватеJ1ьно, более точными. J3 качестве небольшого отступления разграничим уровни описаний. Первый уровень занимает градация событий на элементарные хЕ1В, сложные Ac.SC, далее, определяемые точными изображениями q(х, В), наконец, интервальными [ q (х, В), ij (х, В)]. Следующий уровень составляют статистические описания: это точное среднее .Мf, интервальное [.Мf, Mf], размытое -qи1(r). Наконец, можно было бы говорить еще о более высшем уровне, а именно, расплывчатости самих описаний, вводя вместо qмf(r) интервал qмf(r), iiмt(r) и далее, обобщая его до некото рой кривой принадлежности. Вопрос только в том, оправдано ли будет такое усложнение. Для ответа рассмотрим крайний случай, когда имеет место полное незнание среднего, что эквивалентно интервалам голой модели [Mf, Mf]=i[inff, supf], и оно же экви валентно тривиальным изображению! вида qJ.rt(r) =О, iiм1(r)== 1. А так как последнее, несомненно, менее удобная форма, переход к метаописаниям (описаниям описаний) и еще дальше вряд ли имеет ,какой-либо содержатель.ный ,смысл. go Размытые действия. Интервальная арифметика § 2.2 пригодна для расчета ошибок при вычислениях, вызванных округлением чисел. Но в некоторых задачах возникает необходю.юсть и даже имеется возможность указывать положения неизвестных чисел не в виде ,интервалов, т. е. категорически: да -значит, принадлежит интервалу, нет -не принадлежит, а более плавно в виде кривых предпочтений, отводимых тем или иным числовым значениям (называемым также кривыми принадлежности ,[ 15]). И с ними нужно производить действия арифметики или анализа. Обозначим a(r) -размытое изображение числа; это есть функция на Pll, удовлетворяющая свойствам размытых средних (иллюстрированных рис. 2.5). Изображение а (r) нужно интерпретировать I<ак набор интервалов А (у)= {r: a(r) �у}, получаемых горизонтальными у-·срезами а (r), причем каждый срез определяет интервальное число в виде индикаторной его моде.1и .Я=(Р(А (у))= 1), а все вместе :при О�у� 1 -размытую модель числа в том плане, как это говорилось в предыдущем раз Любые действия над числами рассчитываются по правилам интервальной арифметики (т. е. по правилам преобразований индикаторных моделей) для каждого у-среза отдельно и объедпняются затем по у в изображение результата. В более детальноы изложении, если aJ (r) есть изображения чисел, то AJ (у) будут фигурами, зеркально к aJ (r) расположенными относительно главной диагонали, т. е. это те же• самые aJ (r), но основаниями положенные на ось ординат. При каждом у значениями Aj (у) будут ,интервалы, поэтому преобразование f (а1 (r), ... , aJ(r)) рассчитывается по правилам таких же действий над интервальными числами, итогом •которых станут интервалы F(y), O�y�l, и их осталось переложить основаниями •С оси ординат на ось абсцисс, получая размытый результат f(r). Мы имеем, таким образом, модельную интерпретацию размытых чисел и арифметических действий, за подробностями которых отсылаем к обзорной книге ;[ 18]. К указанной в ней теории ведет и следующий шаг. Он состоит в определении размытых функций как отображений Z-►-az (r), а интервалов от них .-как интегралов от границ интервальных функций Az (у) (у-срезов), дающих интервальшый результат с -переводом затем его к изображению. Хотя и пришли к известному результату, но .указанная нами аргументация, по-видимому, полезна в развитие концепции нечетких описаний и действий, потому что вовлекает для этих целей содержащийся в настоящей книге общий аппарат и делает концепцию нечеткости математически строгой с точки зрения этого аппарата. 2.4. СОВМЕСТНЫЕ ИНТЕРВАЛЬНЫЕ МОДЕЛИ Совместные и частные интервальные модели. Рассматриваются совместные модели, описывающие результаты двух прО'изволь-· ,иых случайных явлений с исходами !В и (J/j. ' Пусть f:C Хи// -прямое произведение двух пространств исходов, каждый элемент которого есть пара (х, у), xef:C, yeu/j. Модель .,l{xY на этом произведении называе тся сов.местной. Она определяется согласованными средними _мхуf (х, у), YfefГxY, где {Гху -область существования верхних ·средних (включающая, по крайней мере, все ограниченные сверху функции двух переменных). А задается -первичными средними дg(х, у), ge1S, и тогда .,l{xY = (Л11$). Признаки f (х, у) двух переменных называются сов.111естными, а отдельно каждой переменной f(x), q>(y) -частными ; частные образуют подклассы [Гх и соответственно [Гv совместных [Тхv. Средние на подклассах частных признаков ii1f (х), f (х)еf:Гх,MqJ (у), <реf:ГУ, очевидно, •согласованы и определяют частные .11ю ·дели .,l{x и .,l{Y. Итак, частные модели получаются как часть средних совместной. Следующая теорема дозволяет находить первичные средние частных моделей по совместной. Т е о р е м а 2.1. О п е р в и ч н ы х п р и з н а к а х ч а с т н ы х моделей. Пусть .,l{ХУ=(Л11$) -совместная модель и дg(х, у),ge1S, суть ее первичные средние. Тогда соответствующая ей частная .,l{x на f:C будет определяться своими признаками вида inf �c+igi (х, у) с первичными средними на них, равными: у i м х [inf � ct gi (х, у)]= � ctMgi (х, У), gi E. �, у i i при всевозможном выборе неотрицательных коэффициентов с+.i, i= 1, ... , k:f(x)}, с, ct причем в условии на с, с + ; неравенство до.r,жно собдюдаться при в�ех ye.0V,что равносильно подстановке в его левую часть функции c+i nf[� Cf(gi(X, y)-Mgi)]=c+h(x), с=(с1 , .•• , Ck} c c (х) можно рассматривать как первичный признак для .ICX с нулевым первичным средним. Для линейной комбинации таких признаков �d+;h. (х) имеется мажорирующий признак h• (х), c*=�d+;c,, с нулевым cc •средним, поэтому = inf {c:c+h с• (x)>:f(x)}, с h с• откуда и следует доказательство теоремы. Таким образом, первичными для частной ИМ будут нижние грани inf g· (х, у), gES:f?+t;9 (минимум берется по исключаемой у переменной) вторичных признаков совместной модели с сохранением средних. К прш,1еру, если всего одним первичным средним Л""if.g(x, у), то первичным для Jtx будет М[inf g(x, у)] =Mg. Если первпчных ·средних два JtxY=(iйg,)/\ у /\ (Mg2), то для частной ИМ. первичные средние выглядят так: Mhc (х) = М inf [g1 (х, У)+ с+ g2 (х, У)]= Mg1 + с+ Mg2 • у Их уже не два, а много по причине произвольности с+. В общем, даже при конечном наборе первичных средних Mgi(x, у), i= = 1, ... , k, задающих Jtxv, ,нет гарантии, что час11ная Jtx будет определяться 1юнечным чис.110.м пер•ВИЧ'НЫХ значений, �кроме ряда исключений, о которых и пойдет сейчас речь. Пр им еер 2.8. Пусть ЕЕ={х1, ..., x,i}, 'V={У1, ..., Yt} и на произведении sтих пространств заданы первичные вероятности, называемые совместными: O�P(Xi, YJ)� 1, � �P(Xi, YJ)>l.i jЭти вероятности согласованы и задают .;f{xY. Первичными для частной .;/{" будут вероятности Р(х;) =min{l, �Р(х;, у;)}. Любые же другие признаки, согласно теореме 2.1 имеющие вид hc (х)= inf � � ct бхi (х) буi (у)= � .f.t бхi (х),е у i i E+;=min с+;; вследствие неравенства ;;;;,��с+;Р(х;, yj)=�c+;�P(x;, yj);;;;,�c+;P(x;) nог.rющаются Р(х;), i 1-В случае точных с-i вероятностей вероятностями Р(х;, У;), образующих совместное рас пределение: ��Р(х;, yj) = 1, частное распреде,1ение также будет точным, равным сумме Р(х;) =�Р(х;, yj), что элементарно доказывается. j согласованные средние и б удучи первичными для совместной Jtxv, остаются точно такими же с теми же средними для частной Jtx Следствие. Частные признаки gi(x), .е В самом деле, при нахождении по теореме 2.1 первичных признаков для Jtx те из признаков giE.t;9 совместной Jtxv, которые .зависят только от переменной х, выносятся за знак инфимума inf [ � dt gi у i (х) + � ct g1 (х, У)]= �dt gi (х) + inf � ctg1 (х, У), j откуда видно, что сами э11и gi (х) (а не их линейные комбинации)будут первичными для Jtx. Очевидно, согласованность их средних от .;f(xv передается 1К .;f(x. Пр и м ер 2.9. 3 а д а н и е с о в м е ст н о й м о д е л и ч а с т н ы м и п е р1в и ч и ы м и п р и з и а к а м и. Здесь будет рассмотрен случай, когда первичные признаки ge.'!l совместной модели .,f(xv разделяются на зависящие только отпеременной х либо только от переменной у: h (х), helft,(х, ) ={ g У 11' (у), фе'I", так что '!l=сЖUЧ". И пусть их средние Mh(x), M'IJ(y) явJ1яются соr.1асован (согласно теореме 2.1), на них распространяется свойство аддитив Разделение первичных признаков на функции только от х и только от у эквивалентно заданию отдельно .,f(x=(fJcЖ) и .,f(У=(Л::fЧ") при полном отсутствии данных о причинной связи (зависимости) между исходами явлений Хе$ и yeCi/j. Совместная модель равна пересечению (!JсЖ)Л(fJЧ") частных. но заданных каждая уже на fВXCi// наборами признаков только одной переменной. От.ношения между совместными и частными моделям и. 1. Для голой совместной ИМ частная модель будет голой:е.J/J{,еXU = .J/J{,еX :ухи =;,-= :ух•е Это я-с-но, поо:�юлыку, если ·ничего ,не известно об 8С ХО//, то также не будет никаких данных от 8С. 2. При переходе от совместных моделей к частным сохраняется иерархия ·в -смысле отношений включения: сохраняются ли алгебраические операции объединения и пересечения моделей? Для операции объединения -сохраняются: V J/tt�е = sup М� f (х)). 6 0 А операция -пересечения, ,в общем, не сохраняется: 4 . .J/J{,xu /\ .J/Jt,f/=l=�.J/J{,е x = /\ .41� = . В самом деле, при ..кхvв=(М�в ) первичным для их пересечения будет �набор �=V�e со средними Mg(x,y) =inf Мвg(х, у), gE�.0 Теперь согласно теореме 2.1 первичными для ..кх будут мх [inf � ctgi (х, у)]= � ct м хи у)= 11 • в i где квадратные скобки и есть первичные средние моделей .Jl{x0,а инфимум соответствует нх пересечению. Представление совместных моделей случайными преобразованиями. В начале настоящей главы изучались преобразования flJ-+-IJJJ. Это некоторые операторы, преобразующие «вход» х в «выход» у. Там нас больше интересовали, во-первых, ·способы .описания самих преобразований: детерминированных y=sx (см.§е2.1) и случайных (см. § 2.2), задаваемых переходными моделями .JltYx, а во-вторых, расчет «выходной» модели .Jl{Y по виду преобразования и «входной» .Jl{x. Здесь нас интересует другой вопрос:как с помощью случайных преобразований (и особого нх случая -детерминированных) можно задавать совместные интервальные модели .Jl{XY на flJ Х !JJJ?е Пусть имеется модел • .Jl{x входа, т. е. известным путем определены согласованные мхf(х), .fEfГx . И пусть имеется случайное преобразование из flJ на IJJ/, задаваемое переходными JlYx, V xEflJ, т. е. при каждом х определены переходные средние MYxq> (у), q> (у)ЕВ<Ух, где класс fГУх при каждом х может быть,ев общем, разным. Произведением .Jl{x на .Jl{Yx назовем совместную модель на '.Jl{xY, обозначаемую: .J!(,еXY .JI[/' .J(,� = ,екоторая определяется средними: м хи f (х, у)= мх Mf f (х, у). (2.4) Правая часть (2.4) есть последовательное вычисление на первом шаге при каждом xE.flJ переходных средних MYxf (х, у) по .;/{Ух от f(x, у) как функций переменной у, а поскольку переходные средние будут функциями х, т. е. признаками на flJ, то на втором шаге уже от них берется среднее мх. Область существо вания r,:-xy произ• •у), приведения моделей составляют признаки f (х, каждом х принадлежащие fГУх, причем только та их часть, для которой MYxfEfГx. Это, по крайней мере, все ограниченные функции двух переменных. Формула (2.4) для нижнего среднего (нужно заменить f на -f) записывается M xYf=MxMvxf•е Про1юмментируем понятие произведения. По сути дела, еслиеинт�р·п,ретировать как JfYx, так и .дх в вн,:�:е -се:мейств точ,ных �10делей (с точными средними), то и на первом шаге, состоящем в вычислении переходных средних MYxf, MYxf, и на втором, когда по ним окончательно находятся Mf, Mf, рассматриваются каж дый раз наихудшие возможные варианты внутри семейств, причем раздельно для .Jltxy и .Jltx и раздельно для нижнего и верхнего среднего. Это то, 1<акпе данные имелись бы о среднем Mf n наименее благоприятном случае при наличии данных (в интервальном в·иде или в виде семейств) о модели входа и о случайном преобразовании. Ниже нам понадобятся следующие досrаточно очевидные свойства проноса функции переменной х за знак среднего iИУх переходной модели: м хи [d(х) + f(х, y)Jгде с+(х) -произвольная неотрицательная функция, а d(x) любая функция переменной х (не .выводящая из класса fY"XY). Восстановление сомножителей разложимой модели. Совмест ная модель .Jl{xY, записываемая в виде произведения .Jl{x.;JfYзывается разложимой. Покажем, как по совместной разлож;;:\�ой восстанавливаются Относительно первогоиз них .;f{x проблем не возникает: это есть частная модель, средние которой мхf (х) составляют часть ,оредних мхуf (х, у) •со·вместной модели. Проблема восстановления второго сомножителя .JltYx несколькu сложнее. Для этого нужно выделить •«характерные» для переходных моделей .;/(Ух классы признаков f(х, у), средние мхуf на кото рых ее и определят. Характерность их должна проявляться в ,ом, что при разных х это совершенно разные, непересекающиеся к.1ассы, «остро откликающиеся» на изменения х. Отсюда догадка, .чтоеэто должны быть дельта-образные по х функции.К.ак и ранее, будем обозначать бх , (х) индикаторную функцию элементарного события x1Ef!C. Символ мху для краткости заме няем на М. Введем функцию f(x, у)=бх , (x)•(J!(Y), где (pES-xY.Согла,сно (2.4) = Mf, q> (у)>,О,е границы вероятностей элементарного события х1• Пусть Р(х1)>О и Мбх , (x)(J) (y);;;:,:O. Из второго неравен ства следует МУх , (J!(у) ;;:,:о, в результате чего - мих, ер (у)-М бх, (х) q> (у) при М бх, (х) тт(у)>, О. (�.5) Р (х1)Эта формула и определяет средние переходной .;f{Yx для тех x1 Ef!C, для которых Р(х1) >О. Здесь требование Мбх, (х)(J!(у) ;;:,:О не является излишне обременительным. Действительно, если это неравенство не выпо.пняется и (J) (у) ограничена, то оно будет выполнено для функuии ,-inf q,. Таким образом, достаточно, чтобы (2.5) выполнялось для неО'Г• гранИ'• ченных оно получается предельным переходом от их усечений. Это своего рода формула продолжения границ. Итак, имеем. Если JtxY разложима, причем частная .Jl{x такова, что Р(х1)>О для всех X1Etc, то формула (2.5) позволяет восстановить переходные ИМ по совместной. При этом переходные и условные ИМ ( при случившихся ;Х) совпадают между собой. Последняя часть следует из дополнения 1 к параграфу смысл ее в том, что переходную модель можно восста·новить, определяя ус.11овные согласно § 1.6 при истекших элементарных событиях x1etc. Разложимость совместной модели. А всякую ли совместную модель .Jl{xu можно разложить на произведение частной и переходной (условной), т. е. интерпретировать ·связь между исходами xetc и yEu/j действием случайного оператора? Увы, далеко нет! И тогда подстановка условных моделей в (2.4) приведет к расширенной по сравнению с .Jl{XY модели: мхМУхf (х, у);а: ;а: Mf(х, у). Пусть задана совместная модель .Jl{xY. Каким свойствам долж ны удовлетворять ее согласованные средние, чтобы она бы.1а разложима? Для решения этого вопроса поступаем так, как если бы .Jl{XY была разложима, т. е. вычwсляем переходные сред,ние по (2.5), заменив q:,(y) на f(x, у): -у _ А далее смотрим, ния в правую часть (2.4) значение Mf (х, у), и если это так для всех fE'f!f'xu, то это дает совершенно веские основания считать. что .Jl{XY разложима. Те о р е м а 2.2. О р а зло ж и м о ст и с о в м е ·с т н ы х м одел ей. Если Р (х) >0, Vxetc, то для разложимости совместной модели .Jl{xy на произведение .Jl{x.Jl{ux необходимо и достаточно выполнения при всех x1 etc и любых неотрицательных f+(x, у) из rтхи тождества: мх, [Мбх, (x)t + (x, у) l=Mf+ (x, у), (х1) где мх, есть среднее по частной .Jl{x. При этом переходная модель совпадает с условной. Доказательство вынесено в дополне·ние 2 к параграфу. Пр-ок,о,мментируе-м требование ненулевых верхних ,вероятностей Р (х) >О теоремы. В большинстве реальных задач число о явлении конечно, что соответствует моделям .Jl{xu конечной размерности. Для них (если сразу исключить невозможные исrоды) обязательно верхние вероятнос11и отдельных исходов ненулевые. Нулевые же вероятности Р (х) =0 есть предельный случай ill,PИ неограниченном у�величении модели. Исходя из 4-13 g7 этого должна интерпретироваться теорема 2.2 и ее основное тождество. Посылки теоремы 2.2 весьма серwзны и труднопроверяемы.Отметим одно простое свойство, ,необходимое для разложимости совместной модели. Оно состоит в том, что для всех <р (у) ЕfТхи и с должно быть справедливо равенство {Мбх, (х) <р(у)-сР (х1 ) при� О, _ где условие �О и <0 относится к значению среднего слева. Рассматриваем,ое ,свойство разложимых моделей •вы,водит,ся точно так же, как это ·сделано при с=О при выводе (2.5). Оно иллюстрируется рис. 2.6, где представлен график значений среднего ,какфункции параметра сдвига с. В области положительных значений среднего, а конкретнее, при с таких, что МУх, <р (у) �с, это есть ликейная функция с. Так же, как при отрицательных, .соответствующих МУх<р (у)<с. Между ними функция терпит излом. Рассуждение останется верным, если <р(у) заменить на f(x, у).Тогда бх, (х )[f(x, у)-с] есть, по сути, вертикальный дельта-вырез функции f (х, у)-с по координате х=х1, а рассматриваемоенами ·свойство на срезе -как линейность оператора М к параметру сдвига с, преломленная согласно рис. 2.6 при пересечении оси. Первичные средние разложимых интервальных моделей. Пусть .,l{хи=.,/{x.,l{yx есть разложимая совместная модель и пусть.;/{х= (M:le), .,/{Ух= (МУхЧ') заданы верхнцми первичными значениями мхh (х), hЕЖ; МУхф (х, у), '\j)ЕЧ', где li (х) -частныепризнаки, а ф (х, у) -первичные признаки на � при заданных х,называемые переходными. Здесь изучается связь между первичными средними совместной модели и моделями�сомножителями. Теор е•м а 2.3. Интервальная 111.одель в виде произведения .;J{xY= (fJ.xJfG) (МУоЧ') определяется центрированными признаками х ; ={h(x)-Mh, hE3l}U U{c+(x)['IJ(x, y)-M¾,P],'ljJC'P, Vc+(x)} о о () все с нулевыми первичны1,�и средни1,�и: Mg=O, VgE<.!f, причем согласованным средним МУ х'Ф =МУх'Ф соответствуют согласован о о о ные значения Mg=Mg, g=c+(x) ['lj)-MYx'\JJ].нПрежде чем доказать теорему, дадим ее толкование. Обозна о о чим h(x)=h(x)-Mh, 'lj,(x, y)='\j)(x, у)-МУх'Ф - центрированные, о т. е. приведенные к нулевым верхним средним Mh=MYx,J,=0, первичные признаки как частной, так и переходной модели. Очевид о о но, (MxJl'6')=(MxJl'6'), (MYx1l')=(MYx'I'). Тогда теорема утверждает, что центрированными (с нулевыми средними) первичными приз о о наками произведения останутся частные h (х) Е.16' признаки, до о о полненные совместными вида 'lj)(x, у)с+(х), '\j)ЕЧ', равными центрированным переходным признакам, умноженным на произво.11ьные неотрицательные функции с+(х) переменной х. Для доказательства выпишем общее выражение среднего Mf (х, у) раз.10жимой модели через центрированные первичные значения сомножителей, реа.1изующее согласно (2.4) двухшаrовую процедуру вычисления: x M¾f(x, У)= =Mx C(x)=inf{d:d+ � dtllJ(x);;;.,C(x)}, где C(x)=inf{c(x) :c(x)+�c+ i(X)'Фi(x, y)';?:f(x, у)}. Сводя вместе два ограничения: одно на выбор d, а другое -на выбор с(х), запишем их вместе, тогда окажется в наших руках заменить С(х) на с(х), сведя вычисление cpe нero к нахождению Mf(х, у) =inf{d: d+ �d+jl;i (x)';?:с(х), с(х)+�с+ ;(х)Х Хф; (х, у)';?:f(x, у)}. В силу произвольности с(х) первое ограничение вполне может быть заменено равенством, подставляя из которого с(х ) во -второе огра о о ничение, получаем d+�.d+;h;(x)+�c+;(x),t,(x, y)";?:f(x, у), что соответствует утверждаемым теоремой приз,накам, определяющим модель. 3 а м е ч а ни е. В теореме 2.3 центрированные признаки c+(x)'\j)о (x, у) .не при всех с+(х) будут обязательно согласованными и не все обязательно нужно считать первичными. Например, любая функция с+ 1 (х) есть первичный признак совместной модели, а форма ь+с+ 1 (х) +с дает хотя внешне другой, но фактически тот же самый признак. Сказанное относится и к оо c+ j (X)'lj:>j(X, у), ь+c+j(X)'\j)j(X, у), поэтому коэффиr.r:иенты с+ (х) можно каким-либо образом нормировать, например, полагая их принимающими значения от О до 1. Из теоремы 2.3 следует, что за счет произвольности коэффициенто,в с+(х) как функций переменной х произведение ,моделей будет определяться значительно большим числом первичных значений, иметь большую размерность, нежели составляющие модели вместе взятые. В частности, размерность произведения ИМ несравненно выше размерностей сомножителей и может, в принципе, быть бесконечной. 4* 99 Пример 2.10. Пусть Р(А1), Р(А1), A1c:il;' -две первичные вероятности, определяющие .fl", и пусть-Р,,(В1), Р.,(В1), В1с:оУ, -также две вероятности, задающие переходную ИМ размерности два .f{и,,. Нетрудно видеть, что и .fl", ои .f{u" есть ИРВ. Первичными признаками g произведения .ftx.f{u,,, центриро• ванными к нулевым средним, будут А1(х)-Р(А1), -A1(xJ+P(A1), -О с+ (х)[В1 (у)-Р.,(В1)], с+ (х)·[-В1(У) +Р,,(В1)] и для каждого из них Mg=O. Будем считать O�c+(x)�I. Как видим, хотя сомножителями являются ИРВ, их произведение есть ИМ на Шхау с увеличенным числом центрированных первичных признаков, к которым, в частности, относятся МА (х) [В1 (у)-Рх (В1 )) = О, МА (х) [ -В1 (у)+ Рх (В1 )] = О при любом событии Ас:::Ш. Чем шире пространство .t;', т. е. чем бо.'!Ьше ЭJie• ментарных исходов оно содержит, тем богаче делается состав набора первичных признаков, большей становится размерность совместной ИМ. Минимальной будет размерность при двух исходах Ш={х1, х2}. Тоrда А1=Х1 и первичных средних совместной ИМ всеrо шесть: четыре указаны выше двумя равен• ствами с подстановкой туда А (х)=б"1 (х) и А (х)=б"2 (х), и две исходныеР(х1) и .Р(х1). При этом Р.,(В1) и J>.,(B1), в общем, моrут быть разными при = ХХ1 и x= xz. При возрастании числа элементарных исходов пространства f!В размерно�ть произведения неограниченно увеличивается, несмотря на то, что размерности сомножителей остаются равными двум. Теорема 2.3 дает ответ на вопрос, какими групповыми свойствами должны обладать первичные признаки совместной ИМ для ее разложимости. Из этой теоремы вытекает. Сл ед ст в1и е. Необходимым и достаточным условием разложи�юсти J{XY является представимость ее tfентрированного набора первичных признаков в виде (2.6). Но трудности как раз состоят в представлении набора первичных признаков в виде (2.6). Очев·идно, набор � должен быть достаточно богат. Одной из необходимых предпосылок разложимости является то, что наряду с первичным признаком g набору � должно принадлежать произведение c+(x).[g(x, y)-MYxg], vc+ (x);;;;::о, где при Р(х1) >О: MYx ,g=Mg(x, у)бх , (х)/Р(х1) согласно (2.5). Однако если J{XY не разложима, то всегда можно подыскать более широкую разложимую модель: JtxJtuж -.,l{xY.:::::,JtxY. В худшем случае это будет голая совместная модель :7ху, которая всегда разложима: :7xu=:7x:7yx, что легко проверяется. Так как пересечение двух разложимых моделей не будет, в общем, разложимой моделью, то нельзя говорить о минимальной содержащей .,l{xy разложимой модели. Выбор разложимого расширения оказывается неоднозначным. Вообще, напрашивается вывод, что раз разложимыми являютс·я. совместные модели очень ограниченного класса, то произведение не есть единый способ представления, а всего лишь удобный прием задания моделей ,совместных явлений, отражающий фиэич·ескую природу перехода одного в другое. 100. 3 а ;меч а н 1и я. 1. Сказанное в-сту�пает в диссонанс с общеизвестными ·свойствами точных распределений вероятностей, всегда разложимых, поскольку для них определены точные условные (они же переходные) распределения вероятностей. Так, для точных вероятностей Р (Xi, Yi) на дискретных пространствах fJJ и б// условное распределение по.ТJучается по хорошо известной формуле Рх(Yj)=sP(xi , Yi)/P(x;), ; в знаменателе которой стоит частное распределение (то же и для плотностей на непрерывных пространствах).Внутри этого класса моделей переход к условным (апостериорным) распределениям прост и универсален. 2.еОписания моделей семействами распределений вероятностей •расширяет возможности как самих распределений, так и их разложений, но и здесь имеется барьер в виде громоздкости та к·оr-о типа •ошtса·ний. В ,самом деле, в описа,ниях ИМ будут ,обя Подчиненные произведения. Предыдущими двумя замечаниями подготовлена почва для более широкого использования произведений -моделей в совокупности с множественным их описанием как объединений семейств. Пусть совместная модель задана в следующем виде: �ахи = V .Ji't/ = V •.и� Jt%.x, 0 0 rде правая часть называется подчиненным параметру е произведением моделей. Здесь заведомо семейство .,,f{XY0, 0ЕЕ>, выбираетс я из разложимого t:ласса. Подчиненное произведение есть сокращенная запись следующего представления •средних: 3 а меч ан и е. Произведение моделей .,,f{x.,,f{Yx, если каждая есть ,объединение: J{X:= V.;/{хе, .;/{Ух= V.;/{У(} , х, может рассматрИ• 0 (} ваться как;двойное объединение VV.Jl{X0.Jl{Y(} х, в котором 0 и {} 0 (} пробегают -свои значения ('возможно, из одного и того же множестtва Е>) .нес�вязанно �руг ,м состоит отличие от под о чиненного произ,ведения, для ,ко·юрого 0=-& и, ,следовательно, па раметры е и -6' сомножиетелей ,в значениях синхронны друг другу. lOl Введение подчиняющего параметра 0 обретает наглядность. естественность, и даже если он имеет физическую интерпретая,ию Например, пусть fll описывает количество перегноя в почве, а оУ -урожайность, скажем, травы. Эти два фактора будут зависеть от погодных условий, например от количества осадков. Это количество и может служить подчиняющим параметром 0. Избавиться от влияния подчиняющего параметра можно, переходя к более широкой модели на основании следующего включе ния: V .Jie J!tf. х с.( V .JtIO ( V .;И�. х), в в в Точно так же расширением можно �избавиться от влияния х в переходной .модели произведения .;f{X.,,f{Yx, заменив .;f{11x объединением по х. К чему мы таким образом придем, видно из следующего заголовка. Свободные произведения. Пусть flJ и G/,/ дают исходы двух различных явлений и на flJ Хи/,1 задана совместная .;f{:1.·v. Относительно нее вводится определение. Явление и/,1 называется свободным от flJ, если совместная .;f{xv разлагается на произведение дение моделей называется свободным. Частными для J(x.;f{v, очевидно, будут .;f{x и .;f{v. При G/,/ свободном от flJ совместное среднее м.хv обладает + (х) Мер (у)]; м [f (х) +ер (у)]= м f (х) +мер (у). Свобода и/,1 от flJ имеет тот ,смысл, что, зная исход х явления на W, ничего нового нельзя сказать относительно статистической модели на исходах последующего за ним явления G/,/. Тем не менее из самой структуры формулы (2.7) следует, что каждый исход х может влиять на процедуру выбора исходов явления GlJ в рамках .;f{Y. Чем шире .;f{Y, тем большая степень такого влия ния может ·иметь место. При точных .;f{Y на дис1<ретных G/,/ сво бода, как нетрудно видеть, эквивален тна независимости в клас сическом понимании. Таким образо•УI, по1нятие свободы обретает свой смысл лишь для ,неточных моделей, т. е. если есть выбор, неопределенность. Рассмотрим, как будут «звучать фразы о свободе» в ракурсе первичных признаков. Из теоремы 2.3 и ее следствия имеем. У тв ер ж де ни е 2.4. Для того чтобы явление на б/J было свободным от !В, необходимо и достаточно, чтобы набор первичных признаков совместной Jtxy мог быть приведен к виду ; ={h (x)-Mh, hEN} U {с+(х)[,Р(у)-М,Р], ,РЕ'Р, о о о все с нулевыми средними: MgssaO, ge$. Тогда .Jf, XY = (М j) = (М х :!ff) (МУ 'Р) • Понятие свободы не симметрично. А именно, произведение Jtx.,l(Y есть не то же самое, что .,l{YJ(x. Например, пусть Jtx=(Mh), J(Y=(M,P) -две частные модели, определенные каждая одним своим первичным средним Mh и м,�,. Тогда первичными признаками свободного произведения J{XJ{Y, приведенными к нулевым верхнwм ,ср�ним, ,будут ; 1 ={h(x)-Mh} U {с+(х)[,Р(у)-.М,Р], \fc+(x) ;;;;э. О}, а перевернутого произведения J(YJ(x. -будут уже другие признаки ; 2 = {d+(у) [h (х)-Mh], \f d+ (у) ;;;;э, О} U {,р (у)-М,Р }. Первая модель соответствует свободе fJ//-от !В, а вторая -!В от fJ//-. Разницу между ними поясним примером. Пр им ер 2.11. Пусть f!В= {х1, х2}, 'У= {У1, У2}, при этом Jl" определяется первичной вероятностью Р(х1), а •на 'У ИМ голая Jf'V=:J'11. Тогда для произведения Jl·•:J'-v, отнооитель.но которого 'У свободен от f!В, первичный признак будет всего одня бх, (х) и д.1я конкретного произведения признаков имеем мхми[бх (х)-а]б0 (у)=mах[бх (х)-а]б0 (y)=l-a. 1 1 1 х, 1 у При вычислениях здесь, как видно, первичная вероятность Р(х1) не участвовала. Д,'IЯ произведения :J''V.,/(" с переставленными сомножителями уже f!В будет свободен от'У, а первичными будут[d1+б", (у)+d2б"• (у)] [б"(х)-Р(х1)], поэтому МУМ"'[б"1 (х)-Р(х1)]бу1 (у)=МУбь, (у)М-"[б"1 (х)-Р(х1)] =01 . Это отли• чается от предыдущего прп а=Р(,;1). Таким образом, свобода fJ//-_от f)J не тождественна свободе !В от ау. Хотя у свободных произведений обоих видов одинаковыми будут средние на признаках вида f+(x)q>+(y):е х м м0 t+(x)q,+ (y)=M0 мх t+(x)q,+(y), но, в общем, они будут разными на совместных признаках f (х, у). Еслп эксперимент fJ//-связать с поведением человека, то вкладываемый в слово «свобода» ау ·«житейский» смысл подобен фразам: «I<ак хочет, так и поступает», «что волен, то и делает», как это видно из следующего примера. Пр им ер 2.12. Рассмотрим такую реальную ситуацию. Пусть первый раз монета подбрасывается так, что вероятность исхода равна 1/2, образ}·я экспе рим-ент fJl с двумя исходами. Другой раз монета не подбрасывается, а п1Jказывается так или иначе некоторым лицом. Показ производится осмысленным образом, •поэтому вероятность герба может быть любой от О до 1, в резу.'!ь• тате .ftY=:fY. Ясно, что эксперимент � свободен от fJl·, так что можно sаписать .ftXJ!=.ftx::tu. Тем не менее свобода здесь не означает независимости: решение относительно того, какую монету показать, может созреть на основании результата подбрасывания. Свобода лишь означает, что о намерениях лица, показывающего монету, ничего не известно: они могут быть любыми. Если поменять в этом примере последовательность действиf1: сначала производить эксперимент � (показ монеты), а затем fJl (случайное подбрасывание), то получим совершенно другое произведение :Уи.f{х, относительно которого Ш не только ·свободен от оУ, но и более того, не зависит от � в то�1 смыс.'!е, который будет дан в следующем параграфе. Любой разложимой на произведение .Jl{x.JltYx, всегда минимальную более широкуюа.Jl{XY*, относительно 1-,от•ОJрой и// бЫJl бы -свободен от lC. Для этогоанадо ·взять объе,щи,нение перехщ:ных ИМ .Jftu*= V .Jl{vx и образо 'f/х вать произведение .Jl{xu* =.Jl{x.Jl{u*. Нак-онец, для голой ,совместной модели ,имеет место равенство ::,ху=::,х::,11= ::JY::Jx, так что и// всегда будет свободен от lC ,и наоборот. Дополнения. 1.аТеорем а. Если J5(x) >0, VxEfll, то для разложен11.ч совместной .;f(x1,ана произведение необходимо и достаточно выполнения тоджества -= _- . ху М Mxf (х, у)= Mf (х, у), 'r/JE.?J" где � есть условные средние при заданных XEflJ. Докажем это. Достаточность очевидна из равенства (2.4). Для доказатеJ1ьства необходимости требуется доказать, что условные средние Мх совпадают с переходными ми,., определенными формулой (2.5), т. е. требуется доказать равенство q> max --'---''-'---'---_ (*) !: (x 1 Р(х1)аР(х1 ) В левой части стоит условное среднее Mxq>, расписанное по формуле (1.15), и МР<х,> есть среднее по сечению .f{хил(Р(х1)). согласно формуле (1.9) равное <'lx q,=min{M[q>(y)-c]<'lx (х)+сР(х1)}. Мр(х:1) 1 1 (**) С На основании ,записи (2.4) и свойств средних переходной ИМ имеет место, равенство = мх Mf[q>(у) -с] <'lx, (х)= 1 -с]= Р(х1)М Ух q>(у) -сР(х1)= 1 при с�Мбх, (x)q>(y)/P(x1),а Подстановка равенства (***) в (**) дает Мр (х,) бх , (х) (J> (у)= _ min _е[Мбх, (J>-сР (х1)+ сР (х1)]= с::.Мбх , ФI Р (х,) М бх , (J> [Р (х1 )/Р(х1)]. Отсюда очевидно становится (*), что и требовалось. 2. До к аз ат ель ст в о теорем ы 2.2. Необходимость следует из формулы (2.5), которая не изменится, ecJiи заменить в ней (J> (у) на f (х, у). ДJiя доказательства достаточности нужно формально определить переходные средние для f+(x, у) по указанной перед теоремой модифика1ши формулы (2.5) и продолжить по свойству переноса на все ограниченные функции н далее устремлением уровней усечений к бесконечности -на неограниченные из :Т"'У. Последняя часть теоремы 2.2 о совпадении переходноfr модели с условной вытекает из теоремы дополнения 1. 3.еКак это видно из рис. 2.6, при Р(х1)>О границы переходной ми.,,е1 ср(у)являются решениями относите.'!ьно т уравнения М[q>(у)-т] бх, (х) = О.е Если же Р(х1)>О, но не исключается �(х1) =0, тогда М�, 1р (у)= inf {с: М[(!J (у) -с] бх, (х),:;;;; О}.е Наконец, учитывая, что М[ср(у)-с]бх ,(х) в области положительных ее значений есть прямая по с. находим МУх, ер ка-к пересечение этой прямой (определяемой ее значен,иями при :rюбых двух с1 и с2) с осью, так что для Vc2>c1 с1+М(1р-с2 )бх -c2 M((J>-C1>i>x _ мие 1 1 - М (q>-C2) бх, -М(<р-С1)бх, 4.еПри Р(х)>О, Vx, для разложения совместной модели на произведениеенеобходимым является выполнение следующего тождества: у) бх , (х) ] + + с (х) === О, 'f/c (х). М f (х, [ Р(х1) В самом деле, используя формулу, предшествующую теореме 2.2, имеем мх М� (f-Mf f) с+ (х) = = мс+ (х) [ м� f-м� fJ =о. 2.5. НЕЗАВИСИМОСТЬ Определение независимости. Независимость -это отсутствие как и незнание взаимных связей исходов разных явлений, отраженное .в определенных свойствах совместных моделей. Мы да дим формальное определение независимости как свойств средних, а обсуждать его адекватность нашим представлениям будем в процессе изложения. Зам·ечательно то, что вводимое нами по 1Нятие независимости действует и для неустойчивых в статисти:ческом смысле явлений. 1 Два явления, одно с исходами !В и другое -"V называются :независимыми (или сокращенно, !В и 'У -независимы), если 1интервальное среднее произведений частных (разделенных по де 1 �ременным) -признаков равно произведениям интервальных сред:них, т. е. верна фор м ул а и н т е р в а л ь н о й м ул ь т и п ли1К ат и внос т и средних: 1 : Mf(x)q,(y)=Mf(x)Mq,(y), 'vf(x), q,(у)Е�хи.е(2.8) :здесь произведение средних справа раскрывается согласно пра:вилам интервальной арифметики (§ 2.2), а именно: MfMq, =max{M/Mq,, MfMq,, MfMq,, �fMq,}-(2.9) :-это максимальное число, которое может быть -получено умно1жением чисел двух интервалов Mf, Mf и Mq,, Mq,, причем допус:каются _бесконечные ,значения (если f принадлежит, а '-/ не при:надлежит области существования frxY). Аналогично ниж,нее сред1нее Mf(x)'(Y) будет равно м·инимуму в правой части (2.9), обоз :начаемому MfMq,. : При некоторых положениях интервалов на числовой -оси про:нзведения средних упрощаются (аргументы для краткости опускаются и ниже ;всюду f -признак на !В, q, -на 'У): Mf�O, Mq,�O =>MfMq,=MfMq,, -">1--- Mf�O, м q,�O=>MfMq,е= MfMq,, Mf�O, Mq,:,;;;o=>MfMq,е= MfMq>, - ">1 Mf �O, Mq,:s;;O=>MfMq>= M{Mq>. 1Так, для неотрицательных функций f+ и q,+ всеr да имеет место 1самый первый случай и Mf+µ+ =Mf+Mq;+, Jйf+i:p+=Jйf+Jйеi:p+. В част 1 1ности, для событий Ас!В, Bc°V, подставляя их индикаторные :функции А(х), В(у) в (2.9), получаем Р(А, В) =Р(А)Р(В), :Р(А, В) =Р(А)Р(В). 1 Подчеркнем, что сами по себе эти пропорции между вероят:ностями не могут служить определением независимости (кроме 1 случая точных вероятностей на дискретных пространствах), так • iкак со ыт.ия �б это в-сего лишь узкии подкласс из огромного раз:нообразия признаков. А независимость -емкое понятие, охваты1вающее осе вместе признаки. : Если 3ху -голая совместная ИМ на !В Х 'У, то для всех 1приз'Наков: Mf=inf f, Mf =sup f, и здесь нетрудно убедиться •В еле� 1 дующем: : Mft=infft=MfMq,, Mfq> =supfq,=MfMq,, 1}06 тде инфимум и супремум берутся по переменным х и у. Таким <>бразом, если никаких статистических данных об исходах W и fJJJ нет, то явления независимы. На первый взгляд несколько странный, ,но совершенно естественный, J{ак выя.снится дальш�, вывод, вытекающий из общего правила: чем меньше мы знаем <> явлении, чем более размытыми являются средние, тем меньше ценности несет в себе понятие независимости. Если Mf и М<р являются точными, то интервалы средних превращаются в точки, а интервальное произведение (2.8) в обычное: Mf(y) =P(A)Mq,(y) и далее нужно применить формулу (1.15) дляl условного среднего, убеждаясь в MA(J)(Y) =Mq>(y). 107 1 Таким образом, если fJC и 6// независ-имы, то какие бы наблюдения ни велись за fJC (в виде свершившихся конкретных ;: пли нечетких ,событий) о ча,стной модели на 6//, все ра1вно ·ничего нового не будет известно. Аналогично будет, ес"1и пространства f!JJ и 6// переставить местами (в силу свойства равноправия). 3 а меч ан и е. Само по себе свойство неизменности условных моделей .;f{Y А (как их одинаковость по А c:f!C) выпо.�няется и для случая, когда 61/ свободен от f!C, т. е . .;J{XY=.;f{x.;J{Y, поэтому нельзя положить это свойство в основу эквпвалентного определения независимости. Следующим является с в ой ст в о а .1. .1. и т и в н о с т и. Среднее суммы разделенных по переменныJ.t частных признаков равно, сумме средних: M[f(x) +(J)(y)J,=Mf(х) +М<р(у). В самом деле, так как прибавление постоянных равенства не меняет, то. них, то это доказывает равенство. Характеризационным для независимости, как выяснится из дальнейшего, является с в о й ст в о в з а и м н ой н е к о в а р ии р о в а н ·н о ст и частных пр из н а к о в: если fJC и 61/ независимы, то нулевыми всегда будут верхние средние следую�у_,_их произведений частных признаков f (х), ер (у) Еf!Т.-.:У: 'Vf, <р. (2.10) Равенства (2.10) проверяются непосредственным использованием 12.8) .• Например, М (f-Mf) (ср-М ср) = М (f-Mf) М(ср-Мер)= = max ((Mf-Mf) (М ср-М ср), (Mf-Mf) (М <р-М q>), (Mf -Mf) (М q.> -М 1/!), (Mf-Mf) (М lj) -М q>)} =О. 3 а меч ан и е. В левых частях равенств (2.10) участвуют произведения в известном смысле центрированных призн;�ков. Средние этих произведений называются ковариациями f и с:р. Их четыре, поэтому (2.10) есть обобщение известного для точных средних свойства равенства нулю ковариации независимых слу чайных величин: М (f-Mf) (ср-М<р)=0. Независимое произведение. В тождестве (2.8), составляющем свойство независимости, справа стоит произведение средних, определяемых по частным моделям .;J[x и .;f{Y. Однако это отнюдь• не означает, что частные модели .;J[x и .;f{Y полностью доджны определять совместную .;f{XY. Нет, они обязаны согласно (2.8) определять только часть ее ,средних, а именно, на произведениях разделенных по переменным признаков. Ничто -при этом не мешает еще знать средние Mg(x, у) на неразделяемых признаках более точно, чем это можно было -бы сделать продолжением раздел·енных. Текущий раздел посвящается тому случаю, когда совместная модель .,,f{xu однозначно определяется частными моделями независимых f;C и и//, что даст наиболее широкую совместную модель независимых f;C и иJ/ при фиксированных частных. Ее можно интерпретировать как отсутствие каких-либо «посторонних» взаимных •средних: исследуются отдельно SC, иJ/, и при условии, что они независимы, ставится вопрос, какая совместная модель получится? Определим ее. Совместная модель .,,f{хи, первичными для которой являются средние (2.8) всевозможных произведений частных (разделенных по переменным) признаков, называется независимым произведением .,,f{x и .,,f{Y, ,и обозначается .;ft{,xy = .Jlx Х .J[Y ,их мхи g (х, у)= (МХ МУ) g (х, у), g (х , Y)E.fxu_и Пусть частные моделн заданы своими первичными средними: .,,f{x = (!Jxf!e), .,,f{Y= (МУ'Р'), где Ж -набор частных признаков li (х) на SC, а Ч' -признаков ф (у) на иJ/. Процедура вычисления совместных средних Mg для независимого произведения (!Jxf!e) Х Х (/JУЧ') разбивается на три этапа. Первый -это продолжение первичных средних на все частные признаки, мажорируемые конечными линейными комбинациями первичных, что дает мхf (х), f(x)E:.P+f!e, и MY{f) (y), (J)(y)EO'+'P'. Второй -это вычисление по фо ;рмуле (2.8) средних Mf(f! их ,произведений с учетом формулы обращения мхf=-М-�(-f) (если -fф.O'+f!e, то считается Mxf =-oo). Средние дfrp будут конечными при ±fEO'+f!e и ±qJEO'+Ч'. Наконец, третий шаг -это по набору из всех Mfrp, первичному для совместной модели, вычисление Mg(x, у) уже для .11юбых g по формуле Mg (х, у) = inf [с+ �ct Mf ;М (j);]. c+:Ec;f;(x)q,;(u);;;,g(x, У) Вытекающий из указанной многошаговой процедуры вывод состоит в том, что размерность модели, т. е. минимальное чисJiо определяющих ее первичных признаков, для незав11симого произведения .,,f{XX.,,f{Y определяется не столько сомножителями, сколько размерами· пространств f;C и иJ/. Если число элементов этих пространств бесконечно, то независимо от размерностей .,,f(x н .,,f{Y размерность их независимого произведения будет, в общем, бесконечной (за некоторым 'исключением, налри:\'!ер, 5х х;1и). Пр им ер 2.13. Пусть Аса? и Всб/j есть два события и Р(А), Р(В) --, вероятности, являющиеся первичными для своих частных моделей размернос т11 1 соответственно .l"'=(P(A)) и .IW=(P(B)). Покажем, что независимое произведение .L"' X.L' будет иметь, в общем, бесконечную размерность (исхпючаем случаи, ,когда Р(А) ипи Р(В) равны О или 1, и когда пространства дискретны). Для ограниченных f и ер (составляющих области существования частных моделей), вводя обозначения 1(A)=supf(x), f(A)=iпff(x) и такие же для _ хеА хеА ер(В),_!(В), имеем М f = [f(A)-/(Ac))+P(A) + /(Ас), М ер == ["ip(B)-qi ( ВС)]+ Р(В) + +�(ВС) и Mf=-M(-f), то же Мер. В частности, при 1(А);;.,7(А0 ), q>(B);;.,"(B0 ): Mf=l(A), �ер=!_(В), M/ep=max{M;Mep, f(В)Mf, Lf(A) и ер(В)>ер(В) эти первичные средние совместной модели, как можно убедиться, не поглощают друг друга. Число их бесконечно. Здесь мы видим, что предположение независимости /!В и 'V дает дополнительную пищу относительно средних произведения fep любых ограниченных признаков f(х), ер(у), а не только складываемых из индикаторных признаков событий А, В и их дополнений, т. е. принимающих на них постоянные значения. I(ак указывалось в начале раздела, нужно отличать независимость •как свойство совместных моделей, от независимого произведения ча,стных ·моделей как конкретного вида совместной модели. Для последнего справедливы дополнительные свойства. Свойства независимого произведения: 1. Равноправие: ,.яхх.L11== .L11х,.ях. 2. Сохранение порядка: .Jtf c:.Jt;, .Jtf c:.JtJ�.Jtfx.Jtfc:.Jt;x.JtJ. 3. Дистрибутивность относительно объединения: ( V .Jt; ) х ( V .Jt/fi) = V V .Jt; х .л=, . " w " fll В самом деле, первое свойство следует из определения независимости. Второе -из очевидного соотношения: М1 f :t;;;;,. Мв f, �1 f;;,, � f, М1 ер :t:;. Мв ер, М1 ер;;,, Мв ep=>M1f М1 ер Е;;; Msf Msер. Наконец, третье свойство расписывается в виде зnементарноrо равенства max { max М.,, f max Mw ер, max М.,, f miп Mw ер, 11 W 1' W minM11 f max Mw ср, min М11 f min Mw } = max М11 f Mw ер. V -111 V -W -V,W Если в третьем свойстве в качестве v и w взять средние Mf (х), Mq, (у) и использовать представление частных моделей в ви,1е объединения ,сечений, то получим .;/{/С Jtg = ( V .;/t;i.,) х ( V .JtX..cp) = V V Jt1., х JtX..cp, м.t м.ср А так как .11:,., Х .Jt�."' = (.Jtx Х .Jt8)м.f. м.Ф• то отсюда вывод: независимость сохраняется при переходе к (M.f(x), M.q,(y))-сечениям модели, и наоборот, из независимости в сечениях (по разделенным признакам) следует независимость gc и ау. 4.еНезависимые произведения эквивалентным образом задаются свойством (2.10) нековариированности частных признаков. Доказательство содержится в дополнении 1. Итак, нековариированность (2.10) не только есть ,следствие независимости, но и сама, если нековариированными являются любые пары f (х), q,(у) признаков, служит характеризацией независимого произведения, полностью его определяя. Независимые произведения на дискретных пространствах ис Для дискретных явлений здесь будет дана интерпретация нами независимости с позиций представлений моделей в виде семейства распределений вероятностей. Пусть g/;= {х1, Х2, ..• } и ау= {у1, У2, ••. } дискретны и независимы. Если вероятности элементарных являются точными, то понятие независимости исходов gc и ау превращается ,в тождественное равенство совместной вероятности (также точной)произведению частных: P(xi, yj)=P(xi)P(yj), Vi, j, где P(xi)=�P(xi, yj), P(yj)=�P(xi yj). Это хор�ошо из.вестно, i i и мы им не раз уте пользовались, в векторном виде записы,вая: pxv= рхх РУ. А если вероятности не точные, а интервальные? Тогда соответствующие модели .,,f{xy изображаются выпуклыми семействами векторов совместных вероятностей рху, или, что более экономично, крайними точками, а еще лучше не всеми, а только являющимися вершинами рхув модели: .,,f{XY= VРхvв, где 0 -ин в де 1 к•с м,ножества этих ве,ршин, своего ро�а общий для gc и ау Принято считать, что независимость gc и ау будет достигнута, когда на произведения разбиваются если не все векторы pxyc.,,f{x11, то хотя бы вершины рхив, т. е . .,,f{XY= V рже Х РУв. Но это 0 не так, и вот пример, показывающий, к какому заблуждению это может привести! Пр им ер 2.14. Пусть ВC=vlf и вероятности рхи8, где фактор l:J принимает значения 01, 02, ... , таковы, что P0.(xi, y;)=бii (О пpиi=;l:j и 1 при i=/), .. i т. е. при заданном 0i с вероятностью 1 появляется исход х; и обязательно тот же самый исход у; =Х1 на 'У-Для каждого рхи81, как нетрудно видеть, ВС и 'У независимы: PX110i =P·•0 ixPи0i , потому что детерминированные исходыеформально независимы. Объединение 0 l соответствует совмест•е вi i ному явлению, в котором с неизвестной вероятностью выбирается какой-то исход х;еВС и затем детерминированно -совпадающий с ним исход y;=Xi на OIJ. Несомненно, раз у всегда совпадает с х, о независимости исходов не может быть и речи. Что-то похожее на приведенный -пример будет иметь место, если немного отклониться от точно ;нулевой и единичной частных вероятностей, так ка·к и тогда •представляется возможность по исходу х более или менее точно предсказать фактор е, а через него уже исход у. Таким образом, причина дефицита независимости для модели в виде объединения VPxex Plle кроется в на личин общего для х и у подчиняющего их свойства фактора 0. Для незав1;1симости нужно развязать факторы в соответствии со сJ1едующим утверждением. На дискретных fJJ и б1J совместная .Jl{x11 образует независимое произведение тогда и только тогда, когда она представляется в виде объединения .произведений точных векторов вероятностей Jf/'Y = (2.11) V V Р: х РУ,, " 111 с индексами v и w, несвязанно друг от друга пробегающими свои множества V и W значений. Условиями утверждения гарантируется .Jl{x11=.J1txx.Jl{u, где .Jllx=VPx .,, , .Jl{11=VP11 w, а совместные средние вычисляются из выражения: Mg(x, Y)=sup sup � �g(xi , yj)Pu (xдPw (Yi), 'f/gE.f[�v . ueV wew i J Необходимость -следует из указанного представления частных моделей в виде семейств и свойства дистрибутивности независимого умножения отиоси,-е,,ьно объединений; а для доказательства достаточности нужно подставить в .выражение йg(х, у) произведение g(x, у) =f(x)q,(y) и убедиться в справедливости тождества (2.11). Формула (2.14) может быть взята за эквивалентное определение независимого произведения, ,но толыко для дискретных пространств fВ и бlj. Ее невозможно распространить на непрерывные •пространства в связи с отсутствием там подобных векторам вероятностей атомов модели. Представление (2.11) полезно потому, что ,придает некоторую :ыаглядность доказательствам указанных выше свойств независимых произведений, как это демонстрируется ,в дополнении 2 к параграфу. А теперь -наглядный пример к данному разделу. Пр им ер 2.15. Если независимо два раза -подбрасывается одна и та же гнутая монета, то имеем два независимых эксперимента с одинаковыми вероятностями герба Р(Г1)=Р(Г2) =р при обоих п-одбрасываниях. Из-за неизвестности р: р-,,;;;,р-,,;;;,р, имеем совместную интервальную модель в виде объединения Jt·•"и:= V Р·'ХРУ, где вероятности Р= (р, 1-р) одинаковы на ?lJ и б//. Это Р�Р�Р есть ётациоиарный эксперимент. Здесь вероятности существуют (хотя не известны) и подчинены друг другу, что так или иначе связывает исходы между собо/i, nотому .независимости, .как мы ее определили, нет. ДpyroiI случай, когда каждый раз совершенно неизвестно, какая монета, гну;ая или нет, подбрасывается. Это уже неустойчивый эксперимент с совершенно независимыми исходами в нашем определении, а также и понимании независимого произведения, так как по результату первого подбрасывания уже совё:ршенно ничего нового не скажешь о втором и �«tY = V = V = PjXP�, g_�P,�P g,,,;,_p,�p где Pj = (Pi , 1-р1 ), Р� = (р2 , 1-р2) • .,e=шin !Е• 1 i2 }, p=max {р, ½}. Геометрическая иллюстрация независимости. Для случая двух точечных экспериментов fВ= {х,, х2}, ау= {у1, У2} совместная моде:1ь описывается семействами векторов вероятностей Р= = tP(x,, у,), Р(х,, У2), Р(х2, у,)) в трехмерном пространстве (компонента Р(х2, У2) опущена, так как дополняет до 1 сумму оста:1ьных). Обратимся к рис. 2.7, где поверхность л есть множество векторов Р= рхх pv независимого произведения, т. е. с Р(х;, yj) =P(xi)P(yj). Через эти равенства по границам интерваJ1ьных ;вероятностей Р(х,), Р(х1) и Р(у,), Р(у1) (первая пара задает J{X, вторая -J{Y) определяются четыре точки Pij, i, j= = 1. 2, на л; они и будут четырьмя вершинами тетраэдра независимого произведения .,,f{xX.,,f{Y. Тетраэдр эквивалентно представляется: 1) объединением вершнн Pij, 2) как фигура с четырьмя располагающимися на ·л ребрами, соответствующими границам вероятностей, 3) как множество, окаймленное гранями, соответствующими четырем уравнениям: М [бх, (х)-Р(х1 )] [бu,(у)-Р (у1)] = О; М (бх , (х)-Р (х1)] (бу , (у) -Р (у1)] = О; (2.12) ,И [.Р(х1 ) -бх,(х)] (бu, (у) -Р (У1 )] = О; М (Р (х1 ) -бх, (х)] Ии , (у)-[:_ (у1)] = О. Это есть уравнения (2.10) для f(x)={)x, (х), q>(у)=·бу , (у). Так как при f); = {х,, х2} любая функция f(х) линейным образом привод1пся к бх(х) (на'пример, при f(x2)>f(x1), бx,(x)=f(x)-f(x1))/(f(x2)-f(x,)), то отсюда следует: система (2.12) нулевых средних, соответствующая нековариированности элементарных исходов, дает необходимые и достаточные условия независиМQсти двухточечных экспериментов fВ={х,, х2} и 'V={y1, У2}. �·словия нековариированности (2.12) достаточны для независимости, но не д.1я независимого произведения. В самом деле, если на рис. 2.7 введением допо.�нителыюго первичного значения, скажем j5 (х1, У1) «отрезать» угол тетраэдра, не исказив первичных граней, то хотя равенства (2.12) выполняются, но независимого произведения уже не будет. Сделаем вы в оды. Первый: любые «урезания» тетраэдра независимого произведения .,,f{XY на рис. 2.7, при которых остаются незави• бы ка.кие-нибудь ча,сти -каждой из его граней, сох;раняют независимость 9; и u/j, но нарушают независимое произведение. Таким ,«урезанием» можно учитывать дополнительные свойства экспериментов. Например, их стационарность как результат одинаковости условий проистека·ния (см. первую часть примера 2.15), которая в самом общем случае отражается дополнительными ограничивающими модель равенствами M[f(x)-f(y)]=O, VfEfГ ( об этом пойдет речь ,в следующих двух главах). Второй: независимость есть некоторая пропорциональность размеров и особенность положения тела совместной модели по отношению к -координатным осям, а независ-имое произведение вместе с этим полагает и минималЬ'ное число граней модели. Третий: любую совместную модель .Jf{XY можно расширить до такой, при которой f1J и u/j становятся независимыми, или же расширить до содержащего ее независимого произведения: .,,f{�Yc c.Jf{*еx x.l{.v. Отметим, что справа и .Jfl.еY оказываются, в общем, шире частных .Jftx и .1{.У для .l{xv, и расширение не O1.нозначно. И, ,наконец, четвертый: наличие общего для f1J и u/j подчиняющего параметра 0 угрожает потерей независимости и соответств. ует модели V рх0 Х РУ0, все вершины которой лежат на по 0 верхности п (рис. 2.7). Нековариированность случайных величин. Следствием независимости было выполнение для всех частных, разделенных по леременным признаков f (х) и (р (у) равенств (2.1 О), определяющих нековариированность f и (р. Изучим это понятие подробнее, считая f и (р произвольными совместными признаками, для чего в = (2.10) подставляются: f=f1(x, у), (l)f2(x, у) - на tcxay это ,с;1учайные величины. Случайные величины f1 и f2 нековариированны, если их ковариации, определяемые левыми частями равенств (2.10), равны О. Нековариированность -это свойство совместной модели. Для него верно следующее. 1.иПонятие нековариированности равноправно относительноислучайных величин. •2. Если fI и f 2 нековариированы, то такими же останутся вторичные поэлементные признаки f'1= -b1f1+c1 и f'2= b2f2+c2, Vb1, Ь2, с1, C2Efll_, ( обозначаем •их множества через .PfI и .Pf2). 3.иПризнаюи f1 и f2 будут нековариированными, если и только если выполняется любое из следующих двух условий: при Vc�Mf1 ; = О =0 О } при Vd�Mиf2• = при всех f; E2-f2 и t; E2-f1 таких, что мf; > О; при всех f;E2-f1 и f�E2-f2 так�х, что мf; > О. 4.и Для голой совместной ИМ любые ограниченные признакиипопарно нековариированы. 5.иПри точных средних М/1 и Mf2 понятие нековариированности трансформируется в равенство М (f1-Mf1) (f2-Mbl =0, а если -к тому же Mf1= 0 или Mf2= 0, то совпадает с понятием не = 0. коррелированности: Mf1f2Классы ;Je и Ч' признак ов называются нековариированными, если любой признак hE:le нековариирован с любым ,РЕЧ". Изсвойства 2 совершенно ясно, что нековариированными будут и любые h' Е.Рh с ,р' Е.Р,Р. Независимость, свобода, нековариированностъ. q_/ -два явления. Если считать частныеJlY=(MYЧ") заданными их согласованными средними на первичных признаках h (х) E:le, ,р (у) ЕЧ', то каждое из составляющих заголовок понятий соответствует определенной статистическойсвязи как между первичными h (х) и ,р (у), так и между произвольными всеми остальными признаками вида f(х) и qJ (у). Эта связь плюс частные модели вместе формируют совместную модель. Систематизируя изложенные выше результаты, укажем, какие в итоге совместные модели получаются и какими наборами Независи.мость ?lJ и m-'!Г 1: .,1( xu=Jt·''XJf!I, нз Vf, q,. Свобода б/j от ?JJ: Jt�g=Jt·"JtY, Мсв{(х, у) =1Wх (миf(х, у)), М :К U {Мс+ (х) ['1'(у)-М 1j,), 11'='1'}. Нековариированность ;Je и Ч': Jtхин к, VhEJe, 1j,E Ч". Отсюда видно, что при одних и тех же частных моделях для независимого произведения количество первичных признаков существенно богаче, чем для свободного и чем при �,ековариированности, а так как средние на всех те же самые, то ,Яна С .;/(,св• Равенс'I'во будет J1ИШЬ при точных векторах вероятностей в дис• кретных ·пространствах. Что ·касается понятий свободы .и нековариированности, ,то они, в общем, не сравнимы по включению между собой, так •как Асв и Анк задаю'!'ся разными первичными признаками. В определенных классах моделей такая связь все же обнаруживается, как в следующем .примере '!'очных ('на алгебрах) ра,сдределений ,вероятностей, важ,ном такж,е для осмысливания стату<:а принятого в современной литературе понятия независимости, которое в нашей терминологии оказывается ничем иным, как нековариированностью алгебр. Пр им ер 2.16. Алгебры d"'o на :lJYo и Ш на uJ,/ называются нековарш1ро41анными относительно точной на их произведении совместной модели .l{Ч= =fP"' XfllY, если Р(АВ)=Р(А)Р(В) для любых AE.srl-"'o и BE.flJYo. Совместную модель, для которой эти вероятности яв.qяются первичными, обозначим .llвнДля нее нековариированными будут дюбые интегрируемые (no fllx II fll�)частные признаки h(x) и ,р(у): Мннh'Ф=М/1М1j:, к которым относятся любыое измеримые огран�ченные функции, и эти значения можно считать первичными (что не меняет .Квн). Для произведений неизмеримых признаков f (х)<р(у) продолжением с точных средних значений измеримых признаков Мhф=МhМф находим: М11 к f (х) <р (у)= inf � Mhi (х) М,р; (у), "1:.h; (X)фi(y);;;,,f(x)q:;(y) где инфимум берегся no всем измеримым h; и lрi Пусть теперь nри тех же частных fllx и fPv, определенных точными на своих алгебрах явления считаются независимыми. Тогда для .Кнзе= Мнз f (х)(j) (у) = Mf (х) М <р (у)., l16е Разлагая f=f+-f-, ср= ер+-ер-и считая {f;;;,,O}Ed"' o, {ер;;;,,·О}Е.9911е0, получим: Мни ! q> = :И t+ М (р+ -,щ-Мср+ -мt+ Mq,-+ М 1-м (Г , Мн3 fср= max {(Mf+-мf-) (Мср+-М<Г), (Мf+-м f-)x Х(Мq>+--мср-), (Мt+-,щ-) (Мер+ -МqГ), (Мt+--МГ) (М(j)+-мср-)}. Нетрудно видеть, что Ли,fff �Mн,JCfJ. Это неравенство справед.1иво для произведений любых частных ограниченных признаков f (х), ер(у). Равенство будет 0 в том случае, если оба признЗI<а неотрицательны (в том числе, д.1я событш1): где равенства справед,1ивы отдельно для верхних и для нижних средних.Таким образ.ом, и при точных вероятностях независимость в -нашем определен,ии является бо.1ее строгим понятием, чем нековариирова-нность алгебр. Рассмотрим при тех же частных !J)x и /J,'Y понятие -свободы 'if от fВ .Обозначим .;/{св= [J)x!J)y_ Ддя произведений измеримых (суммируемых) частных признаков имеем те же точные средние, что при нековариированности и не• зависимости: Мсвh(х)-ф(у) = Мh(х)Мф(у). При неизмеримых функциях и том,же условии {f;;;,,O}ed·'o, {q>;;;,,O}e99Yo получим Сравнение с предыдущими формулами ведет к неравенствам Мнз f <р ,;;;;; Мсв f (j) ,;;;;; Мня f (j) • Так что в данном примере .;f{н,с.;/{свС.;/{нк• Таким образом, при нековарииро� ванных алгебрах и точных вероятностях на них категория свободы занимает промежуточное положение между независимостью и нековариированностью. Дополнения. 1. Теорем а. Для того чтобы модель .;/{·'·у представляла со• бой независимое произведение, необходимо и достаточно, чтобы первичными для нее были совместные произведения всевозможных частных нековариироu ср(у). До ст ат о ч н о ст ь. Обозначим .;f{' ИМ с первичным набором (2.10) и заданными частными .;/{" и .;f{Y. Покажем, что .,f{' =.;/{хХ.;/{У. Согласно формуле. (1.3) М' f q> = inf sup [f (х)ер (у)-L с+ gi (х, у)], ct х,у о где g;(x, у) есть всевозможные первичные признаки вида (!-Mf) (q>-Mq>), (f-Mf)(ер-М4,), (Mf-f) (<р-М1р), Так как этот набор есть часть набора (2.8), то .;f{'=:,.;/{·'XJ/{Y и поrо)1у XI'fq:;;;;, :;;;;MfMo= (ep-q,)/( � М" f ер= inf max [/ q,-ct (/0-Mfo)(q,0 -Мер0) - ct Х, g -4(fo-Mto)(еро -Меро )+ cf 0 -Меро)+ + ct (fo -Mfo) (еро -Мсро)]• Нетрудно убедиться в том, что в правой части этого неравенства максимум по х и у квадратных скобок будет достигаться при тех х* и у*, при которых [ и ер (f Пусть fo, q>o максимальны o и q)o) принимают экстремальные значения. (и равны 1) при х=х*1, у=у*1 и минимальны (равны О) при х=х"' при тех же границах MX"&fo 2, у=у*2. = Mfo, M""'fo=Mfo, }И11*q,0=1И<ро, м11•еро=М<ро, мы ненз11еним iИ"fq,= .IIJ""ll*frp. А для двухточечных пространств согласно следующему за (2.12) выделенному курсивом утверждению имеем JИx*ll*f.q,=-М""'fMY*q> = =MfMcp, поэтому iJ'fep:;;;,Mf Мер, что и требовалось доказать. 2.Примеер ис11ользоевания преедставления (2.11) в случае .дискретных пространств SC и 11// для доказательства свойств аддитивности и нековариироваиности частных признаков f(x), ер(у): M(f + q,)= sup sup(Миf + Mw ер)= sup Ми f+ sup Mw ер= Mf +Mq,; V W V W sup sup (Mv /-М/)(Mw ер-Мер)= - М (f-Mf) (ер-Мер)= V W О. 3.Пр и м ер с о о т н о ш е ни я пео н я т и й н е з а в и с и м о ст и и с в об од ы. Вернемся к примеру 2.12. Сначала подбрасывается симметричная монета (эксперимент SC), затем «некто», зная результат подбрасывания, показывает одну из сторон своей монеты, делая это, как он хочет (эксперимент 11//). Игра -идет .на деньги, пр.ичем «некто» ничего с этого не получает. Если «некто» иейтра.'lен, т. е. он может и не учитывать результат первого бросания, то эксперименты ЕВ и °V будут независимыми. Если же о намерениях этого «некто» ничего не известно, то эксперимент 11// свободен от ?В. Например, «некто» может захотеть обеспечить выигрыш одному из игроков или же выравнять выигрыши. Обозначим А -выпадение первого герба и В -показ второго. По условию задачи Р(А)= Р'(А) = 1/2, а так как «некто» может избрать .r�юбую стратегию, например,-показывая только гербы или только решки, то Р(В)= 0, Р'(В)= 1. Для свободного произведения первичными совместной ИМ 6)·.:�.ут P(A)= P(A)=l/2 (средние М(с+ 1 А+с+Ас)(В-Р(В)=О избыточны, так к:жеВ-Р(В)=В-1 :,;;;;О), а для независимого произведения М (1/2-А):В= М (1/2-А)вс= М(1/2-А)В= М(1/2-А)ВС= О. Равенства ведут к точным значениям средних M(l/2-A)B=M(l/2-A)Bе0 =0 иди равенствам Р(АВ) =Р(АВ0), Р(АВ0) =Р(А0В0), которые вместе с первич·ными P(AB)+P(ABе0)=l/2=P(A0B)+P(A0Bc) определяют все включенные ве независимое произведение векторы вероятностей. Отметим, что данный эксперимент от,шчается от двух;кратного независимого подбрасывания монеты, прикотором все четыре компоненты вектора вероятностей равны 1/4. 2.6. ЗАКЛЮЧЕНИЕ В § 2.1 изучается воздеf1ствие преобразованиJ°! пространств исходов одного-· в другое на вид интервальной модели. Всем известны формулы преобразованш·1 плотностей и насколько сложными они становятся для нелинейных и инерционных преобразований (достаточно вспомнить расчеты системы фильтр-ограничитель-фильтр). Для интерв.;льных моделей принципы расчета гораздо проще и универсальнее. Среди огромного разнообразия признаков всегда найдутся согласованные с преобразованием, называемые представимыми признаками, которые, во-первых, совершенно элементарно преобразуются сами, и во-вторых, для них производится непосредственный перенос средних со входа на выход, определяя, таким образом, первичные данные выходной модели. Нужно только рассчитать средние представимых признаков на входе. Процедура расчета упростится, если первичные признаки на входе все представимы и согласованы, тогда действиями будет прямой перенос средних со входа на выход, а модели оказываются подобными. Подобие означает схожесть структур и отсутствие невозвратимого ущерба при преобразовании. В частности, подобны между собой все плотности распределений вероятностей, так как переходят одна .в другую при преобразованиях случайных велич111н. Случайные преобразования § 2.2 как математичеокая запись расплывчатых, неопределенных действий даются интервальными моделями выходного явления 11ри 'Каждом значении входа и называются переходными моде.1ямн. Случайность преобразований добавляет неопределенности на выходе, приводя к расслоению признаков и расширению средних. Их частный случай ведет к интервальным действиям арифметики, заложенным в интерва.1ьном анализе. Случайное преобразование наглядно сравнивается с взволнованным аквариумом полупрозрачной неоднородной жидкости, сквозь которую мы смотрим из комнаты на улицу. Предметы становятся искаженными, нечеткими, трудноразличимыми. ;у·же видим не дерево и машину, а их смутные случайные очертания, по которым рисуются усредненные изображения. Это II будут нечеткие наблюдения § 2.3 как-результат расплывчатых случайных 1 преобразований,огде вход составляет недоступная нам некоторая предметная область (улица), а выход -наблюдения, связываемые в суждения о том, что происхо,:щт. :Кстати, в человеческом языке слова и фразы та1<же имеют предметныJ°! смыс,1 и относятся к предметной области по принципу: мы так привыкли понимать, т. е. среднестатистически. В этом ракурсе человек являет cooOiI разновидность случайного преобразования входа (о чем мы говорим) в выход (что мы говорим). На интервальные ·средине можно смотреть как на преобразования чисед в интервал1;>1, т. е. как своеобразный итог «видения» точных средних (ес.1и таковые существуют) через призму ограниченного эксперю,1ента, вынуждающего прибегать к осторожным оценкам в виде интервалов. Ес.1и посмотреть 1 Именно случайных с заложенными в них статистическим закоtюмерностямиов отличие от теории нечетких множеств Заде (15]. чуть пристальнее, то это уже будут не интервалы, а их расплывчатые ана.лоrи, дающие размытые изображения средних. Определенные для всех признаков, -они составдяют размытую модель (как пример размытых пре-образо,ваний в конце § 2.3 строится размытая арифметика). Этим еделан четвертый шаг на пути от детерминизма к случайности в их с.;1едующей цепи: 1) детерминированные явления, 2) случайные явления, заданные распределениями вероятностей, 3) заданные интервальными моделями, 4) заданные размытыми моделями. Дальше дороги, вроде бы, не видно. Не только преобразования способны отразить совместное поведение двух с,ч:чайных явлений. Более широко и по.'!но это делают совместные модели §о2.4, которые задаются первичными средними совместных признаков обоихо явлений и продоюкаются на все остальные. Средние частных признаков вместео образуют частные модели со своей структурой первичных данных (теоре ма 2.1).о Не всякие модели, увы, .могут рассматриваться как результаты каких-нибудь преобразований,. а лишь подкласс моделей, названных разложимыми. Разложи мые !>!Одели записываются -как произведения частных моде,'lей на переходные. Особый случай, когда переходные модели от входа не зависят, ведет к по нятию свободы выхода от входа, как будто кто-то своеволь-но распоряжается выходом в рамках модели, зная вход, учитывать который или нет -его дело. Независимость есть неведение ничего дополнительного об одном явлении, ссю1 стал 11звестен результат другого, 11 наоборот. Свойство симме'!'ричное. Независимость как объективная и субъективная реальность охватывает явления це.1иком со всеми их признаками и через средние признаков определяется в § 2.5. Шпрота этого понятия оказывается зависящей от данных о явлениях. Ес.ш даны точные значсн.ия вероятностей (средних), то независимость tводнтся к своi1ству мультипликативности, а для 111-нтервальных значе ниi1 -к интерва.'IЬному аналогу этого свойства. А если совсем не известны, то... независимость имеет место всегда ! Разве это не следует из смысла понятия? И интересен отсюда следующий вывод, что независимость может достигаться расширением совместной модели (по сути, забыванием связей). Чтобы выво,::. не показа,'lся чересчур странным, напомним, что модель -это всего JШШЬ зер,каJiо явления, отражатедь его сторон-свойств в своих образах .и на своем языке, поэтому и независимость прояв.11яется в определенной заорганизо_ванности совместной модели, особенностях ее структуры, которых можно дос тичь расширением модели. Сказанное относится к понятиям некоррелированности и нековариированносп1 в их интерва.'lы1ых опре,:r.еле-киях. Это более слабые свойства по сравнению с независимостью, т. е. соответствуют более широкой совместной моде.'lи. Связь между ними разбирается в последнем разделе главы. Нужно сказать, что классическое определение независимости как мультипликативности точных вероятностей на алгебрах событий есть в наших терминах всего лишь нековариированность алгебр, а это несколько слабее истинной незавпсимости. Глава 3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ, ПОСЛЕДОВАТЕЛЬНОСТИ, 3.1. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ, ПОСЛЕДОВАТЕЛЬНОСТИ Определения. Случайной ве.пичиной (с. в.) называется с.пучайное явление, пространством элементарных исходов которого является числовая прямая fЛ, или ее часть. Случайные величины обозначаются заглавными буквами Х, У, а соответствующие им совместные и частные модели -обычным образом: .JltXY, .JJtX, .JltY. Оператор м без индексов означает ;взя'I'Ие :верхнего среднего от следующих за ним с. в. (или их ,преобразований) по совместной их модели. действия между с. в., например Х + У, Х/У и т. д., соответствующие преобразования (сложение, деление и т. д.) на прямом произведении пространств их значений, т. е. fil,Xfil,-+f/1,, а отношения Х<У или Хе:1[а, Ь] есть соот событий есть средние от •индикаторных функций, например Р (Х <У), Р(а�Х�Ь), или просто Р[а, Ь], Р(а, Ь) в зависимости от характера замкнутости отрезка. В принципе, определение с. в. не исключает бесконечных ее значений Х = оо (или -оо). Случай·ная величина называется ограниченной, если .можно у;казать Н такое, что Р ( 1 Х 1 > Н)= О. Случайная величина называется дискретной, если на прямой можно выделить конечное или счетное множество 'fВо= {а1, а2, ... } чисел, образующих достовер k ное событие: P(Xe:fe0) = lim P(Uai) = 1. Оно и будет множест k➔оо 1 вом значений с. в. Х. Случайная величина называется непрерывной в точке а, если вероятность любого отрезка, содержащего точку а, стремится к О при устремлении д,1ины этого отрезка к О, т. е. если независимо от порядка устремления 81 и 82 к О имеет место равенство lim Р[а-81 , а+82 ]=0. е1 , e,,i.o Случайная величина непрерывна в бесконечно удаленных точках ± оо, если Р (Х = ± оо) = О. Случайная величина непрерывная в каждой точке, включая бесконечные ± оо, называется непрерыв ной. Задание с. в. Х производится обычным образом первичными средними Jйg(X), ge:W, которые продолжаются далее на любые функции, мажорируемые линейными комбинациями первичных и составляющими область существования f!ТХ = {f: Mfх) �Р(У>х), VxE.[R, означающее, что вероятности превы шений любых уровней х для с. в. Х больше, чем для У. Это -са мое слабое отношение упорядоченности с. в. среди введенных на ми, называемое в литературе так: Х стохастически больше У. Еще понадобится далее понятие симметрии. Случайная величина Х -называется симметричной, если среднее любой нечетной функции есть точный ноль: Mf(X) =0 при f(-x) =-f(х), fEf!ГX . В частности, если Х симметрична, то М sin иХ =0, VuE.:11,, ·MX2 1t+1 =0 для тех k, для которых x2h+1E.f!ГX. Детерминированные преобразования. Резюмируем применительно к с. в. результаты § 2.1, где изучались детерминированные преобразования явлений. Пусть Х задана своими средними Mf(Х), fE.f!ГX. Преобразование У =s (Х) одной с. в. в другую (а при sEf!ГX с. в. У будет одним из признаков с. в. Х) ведет к модели ..Jtе Y, средние которой, как это следует из записи: Мер (У) =Мер(s (Х)), составляют часть средних модели ..JtX. А именно, из всего многообразия f!ГХ выбираются только средние s-представимых признаков: f(х) = =ep(s(x) ). Их согласованность между собой очевидна и f!ГУ= ={ер: epsEf!ГX} -область существования ..l(Y. Если Х задается набором ClJ первичных признаков, то после ее преобразования в У этот набор, в общем, распадается на все ер(у) Еf!ГУ -все они потенциально будут первичными для что равносильно росту размерности ..l(Y по сравнению с ..l(X. Кроме одного · случая, когда все признаки набора W s-представимы, т. е. g(x)='IJ,(s(x)), VgEW, и тогда признаки 'lj;(y), gEW g будут первичными для JtY, размерности .;f(X и JtY g будут одинаК'()IВЫ, а Х и У будут подо,бным,и между собой (s(x) -"Преобразование подобия). В этом случае по средним s-представимых признаков .;f(X ,во,с,станавливаются остальные. Преобразование s будет ограниченным, если область sf;C значений s (х) -ограниченное множество на rJl,. К ним относятся: гармонические преобразования Su (х) =cos (их) и sin (их) (где и индекс признака) с областью значений s&l'=1[-l, 1], индикаторные s(x) =А (х) со значениями О и 1 и т. д. Многие нужные преобрг.зования не являются ограниченными. Наиболее распространенными из них считаются: тождественное преобразование х, дляекоторого sf:C =fJl,; квадратическое х2, s&l' =fJl,+; логарифмическое ln х, xE.rJl,+, s&l' = fJl,; показательное ехр х, s&l' = rJl,+; гиперболическое 1/х, sf;C =fl/,; В последнем случае в точке х=О преобразование не ·определено, и если эта точка не является первичным событием для Х, то ее полезно исключить из исходов этой с. в., что не приведет к видоизменению модели Х, но зато позволит математически строго пользоваться этим иреобразованием. Нормальная случайная величина. Нормальная с. в. занимает особое положение, обязанное предельным теоремам. Мы рассмотрим ее с ·наших ,общих .конце�пций, дав различную интерпретацию, а связанные с ней предельные теоремы будут рассмотрены через параграф уже после введения ,епонятий сходимости. а2 Нор,иальной со средним т и дисперсией называется с. в. У. определен·ная продолжением (посред,ст,вом ,интегрир,ования и (1.4)) нормальной ,пл,оп-юсти ·вероятностей (,по отношению к мере-длине): 1 р(х) = ехр[-(х-т)2/(2о2)]. 1 1 2:rt а Первичным для нормальной с. в. является следующий набор вероятностей отрезков: а<Ь, (3.2) Р(а, Ь)=Ф 0 -J-Ф (Ь-т'-(а-т \ -0-j, 1 z где Ф(z)=--=Jexp(-x2/2)dx -функция Лапласа (она табули 1/211:0 руется в учебниках и задачниках по теории вероятностей). Вероятности отрезков получаются интегрированием плотности в пределах от а до Ь, тогда как плотность получается из вероятностейекак пределы их отношений к длинам отрезков при устремлении последних к О. Сdответ,ствующая нормальной с. в. модель обозначается .!У' rn,o-• о Если свести ее к нулевому среднему и единичной дисперсии У= = ( Y-m)/cr, то получим стандартную нормальную с. в., соответствующую Л"о,1-Достаточно ее и рассматривать, так как любая о другая к ней приводится согласно формуле Y=m+aY. Область fF .1У' существования точных средних для Ка,н1 составляют все интегрируемые с весом ехр (-у2/2) функции, д.r1я них о 00 1 М f (У) =--==-f f (у) ехµ ( -у2 /2)dy, -V2:i: -оо :где интеграл понимается в смысле Римана. В частности, для гармонических средних Мcos иУ = ехр ( -u2/2), М sin иУ = О, Vu, :а для моментов М (Y)2k+I = О, М (Y)2k = (2k)!/(k!2k ), k = 1, 2, ... (3.4) Те о р е м а 3.1 х а р а кт е р и з а ц и и н о р м а ., ь н о й с. в . . Эквивалентными являются следующие способы задания Ка,1:1°. плотностью (3.1) при т= О, а= 1; 2° . (3.2) интервалов;.3° . гармоническими средними (3.3), принятыми за первичные и (1 У 1 > Н), заданными .достаточно произвольно, но в рамках следующего требования не -о противоречивости: 1-2Ф(Н) �P(I YI >Н) -+ О; Н➔оо 4° . моментами (3.4), взяты1rtи в качестве первичного набора. Действительно, первичным для К0 ,1 можно было бы считать любой плотный в множестве fF .1У' интегрируемых с весом ехр (-у2/2) функций класс, или его базис. Такими являются индикаторы интервалов в 2°, степенные функции в 4° и гармонические в 3° . Необходимость введения дополнительных первичных ве·роятностей в 3° вызвана тем, что гармонические функции образуют базис лишь при ограниченной области значений аргумента.н Случайная величина, описываемая в виде следующего семей-ства нормальных моделей:н V _ _ т, т, а. а' ��т�т ��О'�О' ·называется нормальной с интервальными средним т, т и диспер -о о сией а2 , а2 • Объединение эквивалентно записи У=аУ+т, где У.стандартная нормальная с. в., •свободная от т и а, а т и cr при нимают произвольные значения в отведенных им интервалах, чтон:ведет к среднимн Mf (о У+ т), Vf е:: ;f .Jlf'· При бес-ко,нечных значениях �=-оо, fii=oo обозначаем Ко .а ин ;называем нормальной при неизвестном т и интервальном сr.-Для нее, как это находится из последней формулы, имеем Р(а, Ь)=2Ф(\/), Р(а, Ь)=О. Теми же будут вероятности, если cr не известна, тогда обозначаем К� а если к тому же и о:_ не известна, т. е. �=О, то нормальная с. в. вырождается в голую. Случайные последовательности. Способы описания с. в. непосредственно переносятся на случайные векторы Х= (Х1, ..., Xn),составленные из последовательности •с. в. Не столь по форме, сколь по содержанию описания iПри этом у,сложняются. Нас будут интересовать здесь разные упрощения: такие способы, которые позволили: бы по частным моде.'Iям .Jl(xi с. в. Xi составить совмест ную .Jl{'x. . Для этого-то и нужны понятия независимости, свободы, нековариированности предыдущей главы. Последовательность Х1, Х2, ••• , Хп называется последовательностыо независимых с. в., ес.'Iи она полностью опр·еделена первичными средними вида где справа стоит максимум по всевозможным сочетаниям произ Mfi(Xi) и Mfi (Xi), причем все сомножители должны быть конеч·ны (т. e:-±fiEf!l'"оxi), чтобы правая часть была конечной. Это есть закон интервальной мультипликативности ,средних, положенный в основу независимости II независимого произведения ,с.:в. Для последовательности независимых с. в. справед.т�ивы следующие соотношения·: _ п п_ 1.оМ ·2.ti (Xi)= }:.Mfi (X1)· 1 1 _п п_ п п 2. М Пft(Xi)= ПMft(XМ Пft (Х;)= ПМf1 (Хд.о Xi fi(Xд, (3.5) max 1\1 (0=:М или М 1 ) + ; , 1 1 k п _ -MX;) П(Х;-МХ - )= (Xi _ З. М П ; 1 (О, если k нечетно, = �l fI (MXi -МХ;), если k четно. - 1 k п П (Хi -МХд= - -МХ;) М П(Хi -1 если k четно, (О, п --t -П(МХi -МХд,оесли k нечетно. - 1 4.еНезави·симость сохраня-екя при преобразованиях У1 =f1(Xr) ..еY2=--=f2(X2), ... , Yn fn(Xn) = 5.еНезависимыми будут функции от любых непересекающихсяе поднаборов последовательности Y1= f1(X1, ... , Xk), У2= f2(Хн1, ..• ... , Xn). 6 При i=I= j Последовательность, удовлетворяющая свойству 6, называется нековариированной. Последовательность называется некоррелированной, еСJ1И MXiXj = O, i=/=j. При нулевых средних MXi = O понятия нековариированности и некоррелированности совпадают. Отметим, что. если Xi=:m+si и Si некоррелированы и имеют нулевые средние Msiе= O, то при неизвестном параметре .т -с. в. Xi не будут нековариированными, а будут подчиненно (при каждом заданном т) некова риированными. Последовательность называется свободной, если она опре.Jелена произведением частных JtX,JtX, ... JtX,., что соответствует следующему порядку вычислений средних: Mf (Xr, ... , Xn)= =MX1(JWX•( ... (JИX11f(X1, ... , Xn))...)). Для свободных последовательностей -каждое последующее значение Xi представляется как ,случайное преобразование предыдущих Xr, Х2, ... , Xi-l, причем структура этого преобразования не известна, а известна лишь частная .JtX;. Для свободных последовательностей остаются ,сmраведливы,ми с,вой.ства 1 и 2. Свойство свободы теряется при перестановках последовате.т1ьно·сти, в отличие ·от свойств независимости и нековариированности. ПодчерК1нем еще раз, что ,все указанные нами способы задания последовательности объединены тем, что требуют лишь знания частных ИМ элементов Xi ·с указанием характера взаимодействия xi. Еще одним способом будет, когда это взаимодействие не указано, а заданы лишь частные JtXi (см. пример 2.9). Тогда сред· ние разделенных по переменным призна,ков Nlg(Xi), gEWi, первичные для отдельных с. в., образуют первичный ной модели (отсюда следует соответствующий формуле жения способ вычисления совместных средних). На суммах раз· деленных признаков выполняется свойство 1 аддитивности. При одинаковых частных моделях независимость Xi приводит к наиболее узкой среди остаJ1ьных ,совместной модели, а ,последний случай полностью неизвестных связей между Xi -к са�юй широкой. Однородность и стационарность последовательности. Послrдо· вательность называется одно р одной, если ее совместная иМ не меняется при циклических сдвигах элементов, т. е. для однород· = ной ·последовательности вектора Х= (Х1, ... , Xn) и SkXе(Xk, ... , Xn, Х,, Х2, ... , Х/с-1), отличающиеся циклической перестановкой эле ментов, имеют одинаковые совместные ИМ: .,,f(оX =Jt5kx. . Тем бо• лее од,инаковыми должны быть -ча,стные модели .,,f(X1 = ... =J!X n. Однородность эквивалентна равенству средних при сдвигах: Mf (Х)= Mf (Sk Х), 't/f Е !f. Однородной будет независимая последовательность, элементы которой заданы одинаковыми частными ИМ. Или нековариированная, если определяющие ее .равенства (3.6) я,вляются первичными средними совместной ИМ. Свободная последовательность даже при совпадении частных моделей не может быть о-днородной, так как свойство свободы не является равноправным к перестановкам. Однородность отражает внешнюю симметрию статистических данных к циклическим сдвигам, наделяя ею ИМ. Более тонким является понятие стационарности. Признак f(Х) называется стационарным к циклическим сдвигам Sk последовательности Х, если м rt (Х)-f (Sk хн= о. vsk. Последовательность Х называется стационарной, если стационарны любые пр11знак,, iE:T ·• из области существования средних. М -точное ,среднее. Следствия стационарности последовательно� т и. 1. Для всех частных приз·накqв из области сущест,вования М,[f(Xi)-f(Xj)] =0, Vi, j (очевидно, так как частные признаки принадлежат fГХ). 2. Из стационарности следует од'НОJюдность. В самом деле Mf(SkX)=M[f(ShX)-f(Х)+f(X)] =M[f (SkX)-f(X)] +Яf(Х)=Mf(X). 3. Если бы среднее Mf(X) какого-то признака стало бы вдруг точно известным, то таким же оно оказалось бы при любых циклических сдвигах последовательности: MмJf(SkX)=Mf(Х), где слева-среднее по сечению модели. Стационарность последовательности как род ,статистической ее устойчивости ( отсюда и точные М) вкладывается во внутреннюю симметрию ИМ и проявляется в абсолютной взаимной подчиненности средних ( следствие 3). Стационарность обязана на практике неизменности во времени условий генерации элементов Xi. При стационарности даже голые частные модели не делают совместную голой. Например, пусть последовательность неэависима, т. е. определяется равенствами (3.5), 11 ·стационарна. � классических позиций пмеем независимую однаково распределенную выборку с неизвестными распределениями вероятностей элементов. Это отнюдь не го.11ая модель, так J{aK стационарность есть уже весьма существенные знания. Мы увидим в последней r,,аве, как стационарность облегчает оценку средних частных признаков по длинному ряду наблюдений. Об общения. 1. Ес.чи стационарными являются не все признаки, а только набора Q, то пос.11едовательность называется Qстационарной. Стационарными будем называть и соответствую щие •признакам qeQ па,раметры Mq (это не средние модели, а направления их -сечения). Так можно говорить о стационарности среднего МХ (соответствует стационарному признаку Х), среднеквадратичес-кого МХ2, набора вероятностей и т. д. 2.е Обобщением будет определение стационарности не к сдвигам, а к какой-то другой группе операторов Sя, например группе ·всех перестановок. Оба обобщения относятся и к однородности.е 3. Свойство •стационарности модели эквивалентно в некоторо:иесмысле свойству главной диагоналп: сечение ее по одной координате определит точно такие же значения всех других.е Зависимые посJiедоватеJiьности. Выше уже обсужда.11ась возмож•задания последовательности частными моделями ее ность элементов. На том· же принципе базируется задание последовательности упрощенными совместными моделями (например, то.1ько соседних элементов), ,отражающими ,их связь между собой. Т.l·к,езадавая корреляции соседних элементов МХiХн1 = Ь, МХiХн1 = Б,е i= 1, 2, ... , получаем, если больше ничего не известно, :\Юде.1ьеоднородной последовательности, для которой корреляции и будут ее пер,вич,ными значениями. А ,в общем, заданными могут бытьесредние Mf (Xi, Хн1, ... , Хнh) функций не одного и двух, а любогоечисла элементов, характеризуя тем самым зависимость не то.,ькоесоседних элементов, но и через оtдин, через д,ва и т. д. элементов.е Определенные упрощения дает здесь допущение об однородности, позволяющее средние для какого-либо одного фрагментаепоследовательности сразу переносить на любые их циклическиеесдвиги.е Для задания за·висимых последовате"'Iьностей одна из упрощающих возможностей состоит в выражении ее через более простую, в частности, независимую последовательность 6. Это будетефункциональнь1м представлением вида X=v(s), одной из формекоторой является рекуррентное представление любого из двухевидов:е xi = vi (Si, Si-1•···' 61), xi = W; (Si, Х;-1,···' Х1), где Vi и wi -детерминированные преобразования. Второе представление является частью первого, что будет ясно, если после = довательно выразить из X1=v1•(61) значение s1vг1 (X1), подставить его В X2= V2(s2, s1), из которого снова выразить S2 через Х2 и Х1 и т. д. Рекуррентное представление: = X;wi (si, xi-i•···, X;-1i), i= 1,2, ... , где Si ,независимы, называется k-связным марковски,.,,,,. Односвязное марковское представление Xi= wi(Si, Xi-1) есть способ отражения инерционности значений ,последовательности и может порождаться как самой физической природой, так и диктоваться удобством, экономностью, подчас привычностью. При интерва.,,ьных моделях Si марковс•кое представление (впрочем как и другие) делается универсальным: оно достижимо расширением ИМ �i как средством добиться адекватности выбранного нами описания Jlмарк реальному .,Я, понимая под адекватIJостью включение: Jlмapк-:::::JJl. 3.2. сходимости Неравенства для случайных величин. Пусть Х и У -две случайные величины. Неважно, как они связываются между сооой; например, это могут быть два признака Х ={1 (s), У= f2 (s) некоторой одной -с. в. s, или же совершенно разные с. в. последовательности. Справедливы следующие аналоги классических неравенств: 1)еГельдера. При r>I и 1/r+l/s=l:е МХУ� (MIX1')1 1' (м1У1s )115 , МХУ� (м1х1г )1 1' (MIY/ )1 1s.е 2)Минковского. При.r�l:е (МIX+ YIr)l fr �(М 1x1г )l fr + (MIYl')l fr,е а при OO, а>О:е� (IXI :;> а)� M/Xl'/a', Р (/XI> а)� MIX/'/a'.е 5)Ч.ебышева:е 6)ей е нс е на. Если 'Ф (х) выпукла и имеет производную, тое ,М ,р (Х) � 'Ф (МХ) М 'Ф (Х) � 'Ф (МХ).е 7)еЭ .11 ем е н та р н ы е н е р а в е н ·ст в ае MIX +YI' �с, MIXlr +cт MIYI',е МIX + YI' �с,МIXI'+ с, MIYI',е Где Ст = 1 при r:::;;;; 1 И C7 = 2r-t при Г� 1. При точных средних эти неравенства переходят в классические. Доказательство неравенств. 1. Первая следует из sлементарного если заменить в нем сначала а на X/(MIXl•)1 I•, а Ь -на Y'=Y/(MIYl•)1 t• и взять верхнее среднее от обеих частей, используя свойство полуаддитивности. Вторая формула получается в отличие от первой заменой а на X'=X/(MIXl•)II•, после чего используется 5-13 129 неравенство: �(IX'lr+ IY' l•):s;;;MIX'lr+м1Y'I•- Случаи м1х1r=О, MI Yl•= 0 исключаются, так как при этом неравенства становятся тривиальными. 2.о Первое из неравенств Минковского доказывается по классичеокой схемео[20, с. 50] из неравенства Гельдера, а вторые два являются спедствиями элементарного неравенства: la+b lr:s;;; lal'+ lb I ', O,s;;;г:s;;; 1, при а=Х, Ь=У. 3.о Есть частный случай первого неравенства Минковского при г=2.о 4.о Следует из того, что индикаторы полуотрезков (-оо, -а], [а, оо) сутьодва единичных уступа, простирающиеся от точек -а и а в противоположные стороны, меньшие функции lxlr /ar. 5.о Есть частный случай неравенства Маркова при r=2.о 6.о Доказательство стандартно [20].о 7.о Следует из неравенства Iа+Ь I r...; с, 1alr+с,1Ь /r. Сходимость моделей. Здесь рассматривается сходимость частных ИМ .;f(Хп последовательности Xn при п-оо к частной ИМ J{X с.в. Х, в смысле сходимости средних Mf(Xn) к Mf(X). Обозначим: _g:-xn и [ГХ -области существования для .;f(Xn и .;f(X. Последовательность с. в. Xn называет,ся: а) ИМ-сходящейся к Х в направлении класса � признаков, что обозначается M�(Xn )-M�(X), если limMh(Xn)=Mh(X), n➔oo VhE�; б) ИМ-сходящейся к Х: lim.;f(X,.=.;/{x, если g:-xn=fТX и ИМ сходимость имеет .место в направлении всех признаков из fГХ; в) ИМ-сходящейся в Х: liш.;f(Xпc.;/{X, если lim Mf(Xn) � �Mf (Х), VfEfГX.оЕсли пределы средних не существуют, то в определениях они заменяются Jia lim = lim sup. Теоорем а 3.2. Для ИМ-сходимости Xn в Х достаточно ИМсходимости в направлении набора �х первичных признаков с. в. л: (Хп)-+ Mg (Х), \/ g Е QX =>-lim .Jtx n с .JtX. До к аз ат ель ст в о. Пусть fEtrx. Согласно следствию теоремы 1.1 каждому заданному в>О можно указать такую конечную линеАную комбинацию eв =c+Ic+;g;, что ев(х);;,,,f(х) и/Jgв-мf:s;;;в/2,где/Jgв= с+ Ic+;Mg;, g;E'SZ. В CИJiy сходимости первичных значений будут сходиться /Jg8 (X,.) -+/Jg8 (X),откуда можно указать такое n8, что j/Jg8 (Xn) -/Jg8 (X) 1 ,s;;;в/2 при n>n8• В ре.sультате объединения двух неравенств и g8 ;;,,,f имеем Mf(Х,.) ,s;;;Mg8 (X,.)...;о...; I/Jg8 (X,.)-/Jg8(X)1 +Mg8 (X):s;;;Mf+в при n>nОтсюда limMf(X,. )...; 8• :s;;;м/+в. Произвольность в доказывает требуемое неравенство определения в).оПри fфfГХ резу.'lьтат тривиалЕн, что и требовалось доказать.о Следсотвие. Если .ltxn -:::J.;f(Xдля всех п, то для ИМ-сходи• .люсти Xn к Х ( т. е. lim.ltxn= ..КX) достаточно ИМ-сходимости в направлении набора �х первичных признаков с. в. Х. Случайная величина Х называется дескриптивной, если существует последовательность X(k), k= 1, 2, ... , случайных величин, описываемых конечным числом k первичных значений, при k-+oo ИМ-сходящаяся к Х. Дескриптивность эквивалентна существова t1ию последовательности �x(k)= {g1, •.• , g1i} ·наборов, таких что lim (м�x)=.Jl{x, где (мwх<А>) есть wхщ-расширение .Jl(X (полу k➔оо чаемое, если первичными оставить Mgi=Mgi(X), giEWщ). Дескриптивность -это возможность аппроксимировать модель с. в. Х сколь угодно точно конечным числом данных о ней в виде набора средних ее признаков или первичных средних, это гарантия того, что при уве личении k для любого признака f (из области существования среднее аппроксимирующей модели конечного порядка k будет сходиться к аппроксимируемому: lim Mf (X(k)) =Mf(X), VfE!Гx. k➔oo В частности, дескриптивной будет с. в., определенная точными первичными вероятностями отрезков Р(х, х+,Лх), если плотность р(х) существует и ограничена. Для такой с. в. W(k) образуют деления ограниченного отрезка [-Н, Н] на k частей с устремлением длины каждого деления к О, а Н -к оо. Последовательность Xn называется дескриптивной, если существуют конечные наборы �, такие что равномерно по п: lim (MW�j)=(M[Гxn ). ,.(x);;;;.f(x) и ,. ,.)-Мf(Хп)<,в при Vk>k8• IМ/(Х,.) Теорем а 3.3. Ьсли последовательность Х1, Х2, ••. и с. в. Х дескриптивны, то для ИМ-сходимости Xn к Х достаточно ИМсходимости в направлении объединения наборов первичных сре(Jних с. в. Xn, n= 1, 2, ... , и Х. До к аз ат ель ст в о. В силу , каждой ному в>О можно указать такое kr и такую е8• + 1Ме8, ,.(Хп) -,.(Х) 1 + 1 <,2s+ 1Ме8, ,.(Хп)-Ме8, 1t(X)1-Поднаборы ::fщ всегда можно счиподмножествами объединения W=U::lиxn первичных наборов. Сходимостьи п средних на ::11 "1 будет вызывать сходимость поэтому последнееислагаемое правой части неравенства стремится при к О. Произвольностьи в доказывает сходимость lim Mf(Xn)=Mf(X), что и требовалось.и Условия теоремы 3.3 будут выполнены, если выполняется любое из следующих условий: а) Xn заданы ограниченными плотностями Ра (х), ненулевыми дишь на конечном отрезке и сходящимися к плотности р (х) с. в. Х; б) Xn определены интервальными плотностями [!.п (х), Рп (х) (определяющими вероятности от резков Р(х, у), Р(х, у), х�у), ·сходящимися соответственно ки е_ (х), р(х); в) Xn определены функциями (z) = =P(Xn Мf (Х п) -Мf (Х), 'f/f Е 3f. Смысл теоремы совершенно прозрачен и без формального доказательства (достаточно громоздкого). Если значения Xn приближаю'!'ся к Х, то по непрерывности и f (Xn) будут приближатыся к f (Х), что вынуждает сходимость средних. Если Х принимает значения лишь в ограниченной области Q, то достаточно непрерывности f лишь в Q, поэтому сходимость средних сохраняется на расширенном классе �g = П �m -В исключительном случае, meD ИМ-сходимости Xn к Х =m в когда Q=rn -число, имеем следую щее утверждение. Теор е м а 3.5. СходиАtость в среднеквадратическом к постоян Таким образом, скв-сходимость к постоянному числу является более слабой формой по сравнению с ИМ-сходимостью (на всей �Х), так как гарантирует сходимость на подклассе �тс�х. Интересно отметить, что к постоянному числу эквивалентна сходимости (входящих в �m) признаках и равносильна ИМ-сходимости на �m: 2 Хоп --то,о МХп -т} � {Мf {Х,.)-Мf (т), 'f/f е 3t'm}·о среднего арифметического, закон больших чисел. в: �еории вероятностей и развиваемой нами интервальной теории моделей случайных явлений этот закон носит ключевой характер. По своему внутреннему содержанию среднее согласно объяонению § 1.1 есть физическая величина, достижимая среднеарифметического результатов наблюдений r в серии независимых одинаковых повторений. Для явлений пределом: будет число Mf, причем сколько бы раз мы ни возвращались к новой серии испытаний -одно и то же. А для неустойчивых -это будут в каждой серии разные числа, но располагающиеся на некотором одном и том же отрезке ,[Mf, Mf], тем более широком, чем глубже «поражены» нестабильностью внутренние законы генерации явления. Теперь задача состоит в провер•ке, подтверждает ли сама построенная нами теория тот изначальный смысл, -который вкладывался в ее конструкцию? Это и будет основным критерием состоятельности теории (если относить к следующим критериям доступность теории, интерпретируемость параметров и простоту Все данные для указанной проверки уже имеются: независ-имость и, как форма ее проявления, -нековведены понятия сходимости. Приступим 1К ис следованию среднего арифметического. Пусть Xi, i= 1, 2, ... , -последовательность с. в. Ее элементы можно понимать как результаты наблюдений за самой с. в. или же за некоторым признаком X=f(�) случайного явления s- tiудем сначала считать, что известны и M(xi-mi) (Xj-m;) =0 при i:l=j -это есть следствие независи(см. замечание к (2.10)), названное нами нековариированностью с. ,в. Она эювивалентна (при точных средних) некоррелир, о ванности центрированных с. в. Xi=Xi-MXi, отражаемой равенствами: мxi;=MXiX;=O, i:l=j. Для таких "fi верны неравенства: 0 0 0 2 -( � 0 )11 ,., -2 ( � )2 (3.8) .,,J м � xi � � MXi, м � xi � � MXi. Доказываются онп элементарно следующим образом: Теор ем а 3.6. �·ст ой ч и в ы й в а р и а н т з а к о н а б о л ьш и х ч и с е л. Пусть Х i, i = l, 2, ... , -последовательность нековариированных с. в. с точными средними mi=MXi, такими, что cy l п ществует и конечен предел т = lim -� т1 , и ограниченными n➔oo n 1 дисперсиями М (Xi-mi)2=0'2i:i:;;;;;a2• Тогда при n-+oo среднее ариф2 1 п метическое Sn ... -� Xi этих с. в.: (1) будет скв-сходиться Sn--+-m n l=l к постоянному числу т; (11) ИМ-сходиться к числу т в направАении класса �т непрерывных в точке т признаков, имеющих скорость роста не быстрее х2 (условие (3.7)). 133 о До к аз ат ель ст в о. Обозначим Х, = Х ;-m; -центрированные с. в. для о -о о них M(X;) 2 ,s;;;cr2 , МХ;Х;=О, i,pj, откуда сходимость в направле 3 а меч ан и я. 1. В условиях теоремы 3.6 ограниченность дисперсий может быть заменена ограниченностью MX2i�b. i= 1, 2, ... (так как М (Xi-mi)2�MX2i). п 2. Если MSn = }}mi/n при n-+oo не сходится ни к какому чис 1 лу, то на основании неравенства ---о М f (Sп)= М f (Sп -МSп +МSп) �sup М f (Sп +МSп) мsп с учетом вытекающей из теоремы 3.6 сходимости Sо n-+0 доказывается неравенство f (т), (3.9} rде m=lim MSn, m=lim MSn, справедливое для всех f, непрерывных на концах отрезка [-т, т]. Самый наглядный и самый распространенный вариант закона больших чисел получается, когда все mi= m, i1, 2, ... , т. е. оди = наковы. Тогда, очевидно, MSn= m и среднее арифметическое �n будет указанным в теореме 3.6 образом сходиться к этому т. Поэтому даже если т было первоначально неизвестно, в пределе. взяв среднее арифметическое наблюдений Xi, получим его точное значение. Это и есть классический закон больших чисел, а правильнее, многих чисел, неоднократно подтвержденный экспериментально, в частности, сериями подбрасывания монеты. Пусть теперь среднее m=MXi есть стационарный неизвестный параметр, описываемый частной ИМ .Jllm, т. е. т по i одно и то, же, но не известно какое, а совместная ИМ равна .;ff,X m= .,lf_mX X.Jll хт. От,носительно переходной .JllXm при каждом т с. в. Xi считаются нековариированными и MmXi= m, i= 1, 2, ... Тогда Sn будет скв-сходиться к с. в. т, определенной ИМ Jt mСогласно теореме 3.4 от,сюда будет следовать сходимость Mf(SnVfe�. В частности, пусть Jtm -индикаторная на отрезке '[т, т] ИМ, т. е. известно ли шь, что т�т�т и JtX = V JtXm, Тогда Sбудет скв-сходиться к с. в. т с инди·каторной на [ т, ИМ, n следовать ИМ-сходимость )-+т:r;;.т:r;;.т откуда f·(m) в направлении класса � т признаков, определенного следующими m, двумя условиями: 1) для каждого признака ,из этого класса выполняется (3.7), 2) каждый признак непрерывен на границах отрезка ![т, т] и в точке достижения им максимума. Здесь ИМ сходимость является следствием сходимости значений. Закон больших чисел для неустойчивых последовательностей. Откажемся в предыдущих рассуждениях от предположения, что MXi являются либо точными, либо это неизвестный стационарный параметр. Будем считать, что при каждом i с. в. Xi независимы и их среднее может быть любым внутри интервала .[MXi, MXi], и в этом смысле Xi статистически неустойчивы. Тогда S n не будет скв-сходиться ни к какой с. в. Можно говорить лишь об ИМ-сходимости, Т. е. СХОДИМОСТИ J{8п. Теорем а 3.7. Пусть Xi, ,i= 1, 2, ... , независимы и заdаны MXi, SiXi Тогда при п_,,..оо среднее арифметическое этих с. в. Sn ИМ-сходится в направлении �т . iii признаков к инсJикаторной на [�, т] ИМ, где ---l 1n n m=Iim- - мхi , m=Iim -� мхi . п1и До к аиз ат е п ь ст в о. Нужно показать, что Mf (S,.)-max f(m). Пpeд!!!.:r;;.m:r;;.ni ставпяя .Jf,x1 - V .Jf,�t , записываем �x1:r;;.MXi�MXi Х1 .Jf,x = V _ V _ ... (.Jf,'x.x.Jt�x.x ... ) = ,У .1t1x , х м_х,:r;;.мх.:r;;.мх, !!!_Х,:r;;,мх.:r;;.мх. rде МХ= (МХ1, ... , МХ11) -веiпор средних. Пусть признак fе:М -и пусть !!:,, т Хтц есть точка его максимума внутри [m, fli]. Тогда Mf(Sn)=��Mмxf(S,.).и1 п Взяв в качестве МХ такую последовательность, что -�MX;-+Xma:r, получими n l .согласно теореме 3.6 Ммх f(Sn)-+f(xma:r), откуда !!:!_�mE;m Осталось доказать противопопожцое неравенство. Для любого г>О: М f (Sn):s;;; М f (Sп){�-в,s;;;Sn � т +г} + +Mf (Sп) {Sn т+ F}. 1:З5 Покажем, что при n-oo поспедние два спагаемые стремятся к О. Имеем Mf (Sn){Sп< m-s} =supMмxf (Sn){Snm+s}-0. В резуnьтате lim Mf (Sn)е;;;; limMf (Sn){m-в е;;;; Sn �т+ в} е;;;; max f (т). -n➔oo n➔O _!!!-B�m�m+в В сипу произвопьиости в>О и непрерывности f(x) в точках m и m имеем lim Mf(S,.) :е;;; max f(om), что и требовапось доказать.еn➔oo т�т�т 3 а меч ан и е. Независимость в формулировке теоремы 'd.7 может быть заменена на нековариированность Xi для каждого сечения Jt мх совместной ;МоtЦели �вектором средних МХ. Смысл теоремы 3.7 наиболее легко раскрывается, когда все MXiе= m, MXiе= m, i= 1, 2, ... , одинаковы, в частности, когда выборка однородна, т. е. средние элементов могут «прыгать» неконтролируемым образом внутри одного и того же отрезка \[m, т]. Точно так же будет «прыгать» и среднее MS,.. Причем сами по себе значения S" могут отклоняться за. отрезок L�, тJ, но в пределе при п-оо эти отклонения становятся все менее и менее ВQЗМОЖНЫМИ.С платформы эксперимента серия неограниченных ,повторений опыта ведет в пределе к некоторому числу m=IimS,.. Так вот, если в устойчивом случае согласно теореме 3.6 это должно быть в любой серии одно и то же число, то в неустойчивом мы каж дый раз будем получать новые числа, и теорема 3.7 утверждает, что они должны лежать в отрезке [т, т]. Это и будет наиболее ТОЧНЫЙ ИХ диапазон ПрИ крайне НетОЧНЫХ даННЫХ, когда О ВЫ· борке известно лишь, что ее среднестатистическая мощность ограничена: MX2i,:;;;;;b, и даны диапазоны ,средних MXi, MXi, Дополнения. 1. Сход им ость среднего арифм е тиче ск ого в сечениях. Пусть Х« независимы и имеют ограниченную среднюю мощность: MXZ,:e;;;b, i=l, 2, ... Тогда при п-оо их среднее арифметичес1СОе S,.= !,X«/n для ка:нсдого заданного m=MS,. (т. е. в каждом своем m=МS,.-сечении) сквсходится К, т. Утверждение спедует непосредственно из закона бопьшнх чнсеп 3.6, при· мененного к m-сечениям. Утверждается, что если бы средние ,m, зпемеитов. стапи точно известны, то к их предепьному среднему арифметическому m= 1 = lim-1:m, СКВ·СХОДИJIОСЬ бы s ... n➔oo n 1 2. Р а з н Q в и д и о с т и с х од и м о ст е й. Последовательность Х,., при n-+oo, называется сходящейся (по своим значениям) к с. в. Х: r а) в среднем (Х,.-+Х), если м'IХ-Х ,.\'-0, где r>O; в б) по вероятности (Х,.-+Х), если Р(\Х-Х,.\ >е)-0, Vs>O; пв n в) почти всюду (Х,.-+Х), если Р(П{\Х-Х,.\ >s} )-О, Ve>O. 1 Верны утверждения, близкие по своей сути и по способу доказательства к классическим [ 1] : r ■ пв 1) Хп.-Х=>Хn-Х-ФХп -х. r r' 2) Хn-+Х=>Хп-+Х, Vr' :;;,;;;,. в r 3) Х" равномерно ограничены (:ilh: P(X,.>h) =0, Vn) и Х,.-+Х=>Х,. -+Х. 4) EcJl'И Х" сходится (r, в., пв) к Х и Х" равномерно ограничены, то мх,.-мх, мх,.-мх. 5) При-условии конечности моментов M\Xnl'Хп.-Х, 'f/r' :;;;;;r=>Хп.--Х=>М Хп.-МХ, МХп.-+МХ. 6) Если f(x) абсолютно непрерывна, то сходимость Х,.-+Х в., r или пв. влечет точно такую же сходимость f(X,.)-+f(X), причем если f(x) ограничена, то Mf(X,.)-+Mf(X), .м'f(Х,.)-+Мf(Х). 7) Пустьмоменты MIX\' и M\Xnl', Vn, конечны. Тогда из сходимости в среднем будет следовать сходимость моментов: r -, -r r r Хп.-+Х=> М IXn.l -+М IXI , М IXn.l -м IX! · 3.3. ДОПРЕДЕЛЬНАЯ И ПРЕДЕЛЬНАЯ ПРОБЛЕМЫ Аппроксимация модели суммы независимых с. в. Рассмотрим сумму �Xi (дJIЯ краткости пределы суммирования, где они не обязательны, будем опускать). Слагаемые считаются независимьвш и по праву независимого произведения совместная им. вектора Х= (Х,, ... , Xn) полностью определяется частными: JtX = =.;J(X,x ... X.,/{Xn. Первичными для совместной .модели .,,f(X будут всевозможныеепроизведения частных признаков Пgi (xi) с перенесением на ,них сре,J.ннх по закону интервальной мультипликативности (3.5). Расчет модели суммы производится по формуле продолжения М f ( � Xi) = inf { � ПMgu (Хд: � П gu (хд � f ( � xi)}, j l i t где ншкняя грань ищется выбором gij (xi) нз области существования-f!ТiX; частных моделей. Вычисления по этой формуле весьма громоз,:щи. Исключение составляют те признаки f, которые при подстановке в них на место аргумента суммы �х. сами разлагаются на суммы произведений �Пgi;(xi), тогда среднее на произведениях находится по свойству мультипликативности, а для средних сумм приближенные значения получаются по свойству полуаддитивности. ,lJассмотрим примеры конкретных f, 1их разложений и средних от сумм. Л и н ей н ы й п р и з н а к: f (х) == х; f ( 1:. xi) = 1:. х1; М 1:. Xi = � МХ1. Здесь считается xEfJ:"iX;, Vi, а равенство в правой части (вместо полуаддитивности) �имеет место на основании свойства аддитивности средних сумм независимых с. в. К в ад р а т и ч н ы й п р и з н а к: = х2; f (}:. х1 ) = }:. М (}:. Х;) 2 i"Fi где неравенство обязано свойству полуаддитивности и считается Vi, (ниже это молча предполагается). Правая часть неравенства и является оценкой верхнего <::реднеrо более точную оценку можно получить, если взять МХ= (МХ1, ... , МХn)-сечение модели; тогда для верхнего среднего в силу того, что в сечениях случайные величины Xi остаются независимыми, верно равенство Ммх (1:. Х1 ) 2 = 1:. МмхХ�+ 1:. � МХ1 MXi. i"Fi Теперь если взять максимум правой ча,с11и по MXiE{MXi, MX i], i= 1, ... , п, то с учетом того, что Ммх X2i�MX2 i и максимум ДОС• тиrается при MXi, равном MXi или МХ;, получим окончательную оценку в виде правой части неравенства М ( 1:. Xi)2 � }:. МХ1+ max 1:. Мщ Х1 МШ Х1• Подобное выражение верно и для нижнего среднего, тольков этом -случае неравенство меняет знак, верхнее среднее заменяется на нижнее, а максимум на минимум. Такой же путь возможен для оценки нижних и верхних средних M(�Xi)r, М (�Xi)r степенных r>2, называемыХ:Йача.JJьными моментами, а также для оценки средних их линейных комбинаций -полиномов: .М (a1 �Xi + ... +ап (�Xi)h), так как они тоже разлагаются на суммы произведений Xi. Оценки в виде правых частей неравенств д.'IЯ средних значений степенных функций (отсюда и полиномов) образуют набор,аппроксимирующий сверху модель суммы, т. е. позволяющий сформировать расширенную модель суммы, пользуясь лишь знаниями моментов слагаемых. Одно из достоинств именно та1<ого расширения зак.1ючается в непосредственной физической интерп.ретируемости хара,ктеристик, на которых оно -основывае-гся: первый момент есть среднее с. в., второй -средняя статистическая мощность и т. д. А другое -важное достоинство обязано тому, что согласно первой теореме Вейерштрасса Г23, стр. 39] любую непрерывную (и кусочно-непрерывную) функцию на ограниченном отрезке можно сколь угодно точно в равномерной метрике аппроксимировать полиномам,и, что делает класс степенных признаков весьма распространенным. Степенные признаки xk , k= 1, 2, ... , образуют первый универсальный класс признаков. Некоторое стеснение при работе в этом классе вызывает необходимость полагать, что x11.iEfГiX1, Vi, где k -порядок старшего момента. А так как х11. -неограниченная функция и она не обязана принадлежать области .существования модели, то становится вынужденной формальная фраза: «Пусть существуют моменты k-ro порядка случайных величин Х(». Голословность этой фразы оправдывается, возможно, тем, что для практики преобладающее большинство с. в. являются ограниченными и моменты существуют. В дополнение к степенным и полиномиальным признакам укажем еще на экспоненциальные признаки как возможное направление для аппроксимации моделей суммы: ехр (их), М ехр ( � и Xi ) = П М ехр (и Хд, где в последних формулах использовано свойство мультипJiикативности верхнего и ·нижнего средних на произведениях частных неотрицательных признаков независимых с. в. Незначительность в применениях экспоненциальных признаков обусловлена не сто.1ько их нео,гра,ниченностью, хотя и это тоже �влияет, сколыко неудобством разложения произвольных функций в ряды по ним, взятым ,в качестве оазиса. Гармоническая аппроксимация. Второй универсальный класс признаков для расчета средних сумм образуется набором гармонических функций fs(иx)=sinux, fc (ux)=cosux, где и -параметр, -оо<и<оо -своего рода индекс гармоники. Гармоники ограничены и формируют плотный класс в том смысле, что (согласно второй теореме Вейерштрасса .[23, с. 41]) их линейными комбинациями могут быть сколь угодно приближены любые ограниченные непрерывные на конечном отрезке функции (аппроксимацию дает разложение Фурье). Гармонические функции при подстановке -на место аргумента сумм разлагаются на суммы произведений, что позволяет произвести подсчет их средних, которым сейчас и займемся. Назовем \M\f=max{\Mfl, \мf\} -абсолютным средним при -анака f. Обозначим !_i (и)= М cos и Х1 , � (и)= М sin и Х1 , :V1 (и)-М cos и Xi , }:1 (и)=М sin иХ1 и назо,вем гармоническими средни,чи с. в. Xi. Введем абсолютные гармонические средние: lvil(u)=IMlcosuXi, Ai(u)=IM/sinuXi, � (и) при � (и)> О, ( (и)= i_ i о (и), /vi l mn/v(u)I = { при �(и)� о �vi ...!,,i;;;vi,i;;;v, l -v-i (и) при vi (и)< О,еочевидно, являющиеся не отрицательными и lvi1 (О)= /vi 1 (О)= 1, Лi(О)=О. По существу, l_!il (и) есть минимальное по М::;;;;;М::;;;;М абсолютное среднее IM-cosuX;I с.в. Xi, /vi/(u) ее •максимальное по модулю значение, а Лi(и)= f):i1 (и) -то жедля сwнуса МsinиХi• Т е о р е ма 3.8. О с н о в ны е н е р а в е н с т в а д л я r а р м он и чес ,ких средних сумм. Пусть Х1 , ••• , Xn независимы. Тогда для всех и и q,: А для тех и, для которых mi nVi (и) >О, а также - lп fP1.: (и)= � arctg (Лi (u)/vi (и))�:п/2, -l=l справедливы следующие три неравенства: _ ii 11 _ (11)М cos и � Х i � П vi (и) ; 1 1 п п (111)М cosи � Х; � П V -1 1 (IV)IMI sinu � xi �A1:(u)sin [ f arctg(Лi (u)/v; (и))Jе Д о к а з а т ел ь с т в о. Используем при каждом фиксированном ttElflпредставление (м3<Х) = v... v(мv А 3) = max Re П (vi (и)+j 'J..i (и)) el Ф = 1 11, А 1 = max П V v1 (и)+ 'J..j (и) Х cos [ i arctg ('Л; (u)/v; (и))+ q>].е(3. 10) v, А 1 1 Так как косинус меньше 1, то неравенства ,(1 ) теоремы отсюда становятся оче видными. Докажем остальные. Выделим какое-нибудь одно значение индекса i=k и преобразуем фрагмент правой части (3.10), зависящий от k (опустив для краткости аргумент и и по ложив q>=0) у "i + ')..� cos [q>k + arctg (Лk/'Vk)] = 'VI!, cos 'Pk + Лk sin (J)k• где q>,. обозначена сумма в аргументе косинуса (3.10) ··без k-ro слагаемого. те перь видно, что при l1; + arctg Лi/vJ = l'J..i cos q>; + 'Vi sin q>; 1 � < 1Лi I cos 1(j)i1 + v; sin ICJ>i 1 • qro ·И требовалось. _,__ Теорема позволяет по гармоническим средним слагаемых получать оценки гармонических средних сумм , эти оценки даются правыми частями неравенств (1)-(IV). Перейдем к одному ее упрощенному •случаю. Допредельная проблема, однородный случай. Рассмотрим однородную последовательность. Для нее по определению гармонические средние для каждой из ·с. в. Xi будут одни и те же при i=l, ... , п.: М cos и Xi = ":_(и), М cos и Х1 = v (и), IM I sin и Х1 = А (и).е Любая последовательность может быть сделана '!'аковой, если расширить ее модель, доводя интер,валы гармонических средних объединением до самого широкого: v (и) =min М cos uXi; v (и)= -- i = max М cos иХi, и то же самое для синуса, и оставляя их в качестве первичных. Из теоремы 3.8 вытекает: У тв ер ж де ни е 3.9. Для сумм однородной последовательности независимых с. в. Х1, ••• , Xn при всех и и ер верно неравенство ([) !MI cos (и� Xi +ер)� (v 2 (и)+Л2 (u))n/2, а при Л:(и)/v(и) �tg(n/2n) справедливы уточненные неравенства (11)М cos (и f Х1) �;п (и); (111)иМ cos {'и :i: Х1 ) � (v2 (и)+ Л2 (u))n/2 cos (п arctg Л (и) ) 1 -v(u) (IV) /M/sin(u � х,) �(v2(и)+Л2 (u))n/2 sin(narctg л(и) ). , �м. Суть допредельной проблемы применительно к гармоническим признакам заключается в упрощении, унификации .правых частей введенных только что неравенств при достаточно большом числе п слагаемых. Наша цель -проследить, как по мере роста п иувеличения да·нных о слагаемых ,сужаются в .направлении гармонических, а затем и степенных ,признаков модели сумм. лишней трудоемкости. Вернемся к правым частям неравенств утверждения 3.9. Вопервых, упрощения в них возможны для биномов, записываемых(для простоты аргументы у v (и) и Л (и) далее опускаются J : (v2 + Л2)n/2 = [l -(1-v2 _ Л2)Jn/2, где v равняется либо нижнему значе (напомним, что lvl :::;:;;I) = 1-v2-Л2 (причем У�О), [1-F (v, Л)]п/2 ( F(\Л) n)} при /F (v,Л)I� n �1. где б(У)= -у-..!!_ Iп (1-�) = 1+ -1L(�\ + JL (.ElL \) 2 + .. , n 2 п 2 nJ З п :(получается, если подставить y=Fn/2, взять логарифм и разложить в ряд Маклорена). Поправка бn (у) возрастает при увеличении у>О (равна оо при у=п/2) и убывает при росте п. И во"вторых, при малых 1-v2 и Л2 упрощаются аргументы при косинусе и -синусе в (111)-(IV). А именно, так как arctg х:::;;;:::;;;х при х>О и косинус на первой четверти периода убывает приувеличении аргумента, а синус -возрастает, то имеем: У тв ер ж де ни е 3.10. Для сумм однородной последовательности независимых с. в. Х1, ••• , Хп при всех и и ер верно неравенство: а при таких, что пА(и)/v(и) �л/2, справедливы уточненные неравенства: (11°) Мcos и '7 Х; ::;;:;; ехре-" l - ( ) Л (III0 f Х;) ;;;;,, ехр { -<'1n ( )} cos (п, -) .' 2еV F (v, Л)п(IV0) 1МI sin (и f Х; ) ::;;:;; ехр {2 _ <'lп ( F (: Л)п )} sin (п. ; ) . Здесь P(v, Л) = 1-v2-Л2. не·равенства имеют содержательный смысл, когда F настолько мало, что Fn/2-•небольшая величина. Чтобы проследить зависимость средних значений, даваемыхпра•выми ча·стями неравен•ст,в (1°)-(IV0), от п удобно нормировать сумму "l:,Xi/ Vп. В новой сумме при росте п диапазон случайного разброса каждого слагаемого Xiп= Xi/ fn стягивается к О, отсюда к нулю устремляется A (и)= 1МIsin uХ;п, так ,как аргумент синуса и ,сам ,синус -становят,ся ,нич-гожно .малыми, а к единице устремляе'!'ся V(u)=McosuXin (тем более" V(u)),так как 1юсинус в пределах малых изменений аргумента будет близок к 1. Отсюда F(n> = 1-v2<п>-Л2 уменьшае-гся, причем приопределенных условиях пропорционально п, и тогда произведение F<п>п будет стабилизировано по п. Соответственно стабилизируются и правые части неравенств утверждения 3.10, дающие допредельные оценки гармонических средних для сумм (,см. дополнение 1). Допредельная проблема была бы не полной, если не рассматривать степенные признаки и связанные с ними оценки и упрощения. Это можно сделать лишь для определенного типа слагае '2k: MX;2r-Тогда моменты нечетных порядков суммы вшють до 2k-1 будут нулевыми: М(�Xi/Vn)е21·-1 =0, так как при разложении ("1:,Х;/ J/п)е2•·-1 на слагаемые в каждом пз них будет обязательно присутствовать хотя бы одна с. в. Xi в нечетной степени, среднее которой -ноль. Для четных моментов сумм симметричных с. в. прямое раз:юженне на слагаемые с ,последующим взятием среднего и исполь зованием свойств полуаддитивности и независимости ведет к -неравенству 2k М ( f Х,!Уп ) [nµ2k +п (п + � --2/ -1) � f.1,2(1i-J> µ2J C2k/21 + п (п -1) (п 1 + + -1) ... (n-k+ 1)+µ: 2 где ,µ2;=1ИXiJ. Противоположное неравенство с заменой верхнихмоментов на нижние .µ2 Xi/Vn)2k,В частности, при k= 1 в силу независимости х2-;: а как след ствие, аддитивности средних от суммы, имеет место равенство: (3.11) М ( f Xi!Vny =й2, М ( � XitVn)2 =!!, (3.12) где Ь2= µ2 = МХ;, o2 = µ:.i= MX;. Вместе с (3.12) -:правые части (3.11) и есть допредельные оценки моментов сумм симметричных с. в. Самым замечательным в (3.11) является то, что значимым при увеличении п становится лишь последнее ·слагаемое. Этот факт за,нимает ключевое по которой для однородных последовательностей и переходим, оставив на § 3.4 развитие допредельной 1И предельной проблем на Введение в предельную проблему. Суть ее составляют те пре упрощения, которые получаются с точными значениями или с приближенными в виде правых частей неравенств для средних значений ключевых признаков нормированных сумм. Предельные теоремы, во-первых, дают ответ на .вопрос,для каких конкретно признаков и при каких условиях средние допускают нетривиальные приближения. И во-вторых, указывают на предельные при n-+oo значения приближений, формирующие расширенную предельную модель сумм. Наша конечная цель -.проследить, как по мере накопления и уточнения данных о слагаемых (сужения их моделей) сужается предельная модель нормированной суммы и, в конечном счете, сходится к нормальной. Сходимость к нормальному закону прослеживается в двух универсальных направлениях: на клас·се степенных признаков и •На 1<ла,ссе гармонических ,cor ласно теоре Для степенных признаков сходимость означает сходимостьмоментов к нормалЬ'ным значения:.\1 MY2�-t=O, MY21•=o-211 (2k)I/ /(k!21!.) (см. 3.4)), что в случае симметричных с. в. Xi вытекает непосредственно из (3.11) и ,(3.12) и приводит к следующему: У тв е р ж д е н и е 3.11. Пусть последовательность Хi независима, однородна, ограничена (существуют все моменты), симметрична (средние MXi и моменты нечетных порядков все равны О) и пусть MX2i = a2 .МХ2i = �2Тогда при k= 1, 2, ... , справедливы , • такие соотношения для моментов нормированных сумм: ° _)2k-1 1.М fXi!Vn =О; ( п 2° � o2k (2 k)l/(k! 2k) ; . lim м ( i: X1 !Vn ) 2k n➔oo 1 2k 3° . !l� м f Х1/ п � o_ (2 k) 1/(k 12k). ( " v-)21l В самом деле, в выражении (3.11) все слагаемые, кроме последнего, исче2u зают при увеличении п, а последнее и дает правую часть неравенства . Для нижнего среднего неравенство (3.11) заменяется на противоположное, откуда следует 3° . Правые части неравенств утверждения 3.11 в качестве первичных определяют предельную ИМ, сужающуюся по мере уточнения интервала •о2, о2 дисперсий •К нормальной модели. С л е д•с тв и е:-Если в условиях утверждения 3.11 дисперсия является точной о2 = о2 =о2, то имеет место ИМ-сходимость сум мы к нормальной с. в. 3 а меч ан и е. Чем старше порядок k, тем, в общем-то, медленнее имеет место сходимость моментов к их нормальным значениям. Сказа-иное верно хотя бы потому, что при этом в правой части (3.11) будет большее число ·слагаемых помимо последнего, неисчезающего. В направлении гармонических признаков согласно теоремам 3.1, 3.8 и формуле (3.3) нормальной считается сходимость к нулю синусоидальных средних сумм М sin(u�Xi/ Vn) (для симметрич - ных слагаемых они точно равны нулю) и к ехр(-о2и2/2) косинусоидальных М cos (u�X;/Vn) при контроле условия, что lim Р (�Х;/ уn> Н) -+ О. Последнее условие всегда выполняется n➔oo 1-f➔oo для независимой последовательности с нулевыми средними . МХ; = О и ограниченной дисперсии .МХ2;�о2 слагаемых, так как из ана,11ога неравенства Чебышева (§ 3.2) с учетом равенства (3.12)по.1учается: Р ( � XJJ/n>H) � а21н2 -+ о. Н➔оо При усJiовиях следствия совершенно резонно полагать, что гармонические средние также должны сходиться к нормальным их значениям. В самом деле, равенство нулю синусоидальных средн•их следует из симметрии слагаемых. А сходимость к нормальным значениям косинусоидальных средних будет следствием предельных теорем для сумм общего вида, о которых будет говорить Таким образом, имеются два направления доказательства предельных законов нормальной сходимости: степенное и гармоническое. В предверии нормального закона, когда либо п конечно (допредельный случай), либо условия на слагаемые недостаточны для нормальной сходимости, оба направления не подменяют, а дополняют друг друга; каждое из них дает свои грани допредельной модели, каждое по-своему характеризует приближение к нормальной ·с. в. Нами сформулирован простейший вариант предельного закона, демонстрирующий основную •идею, генеральную мысль. При этом требования к слагаемым предъявлялись очень жесткие: все имеют нулевые средние и нулевые нечетные моменты, а также точные одинаковые дисперсии, что само собой подразумевает стационарность этих параметров и необходимую для этого статистическую устойчивость выборки, а в ·конечном счете -абсолютное знание. Допусти,м хоть · на миг, что последо,вательность «·чуть-чуть» статистически неустойчива. Это вынуждает рассматривать вместо точных средних интервальные MXi, МХ;. Причем как бы ни были они близки к нулю, ·скажем, [МХ;, МХ;] ='[-в, +в], в>О, т. е. сколь бы малым мы не взяли е, все равно границы интервала средних нормированной суммы, равные М ( � X1!Vn) = -Vпв, М ( � X1 !Vn) = + Vп в, при п-.оо будут неограниченно «разбегаться» в разные стороны, делая бессмысленной нормальную сходимость. Это есть демонстрация крайней критичности классических предельных результатов к вариациям условий. Мы избежим упомянутой критичности, если не будем исклю у чать законо,в с.мм к другим, более широким, че:м нормальная, моделям. Это и будет предельная проблема в ее расширенном понимании. В следующем параграфе мы и начнем постепенное продвижение по ней шаг за шагом от самых слабых допущений на слагаемые, имея в виду н1::устойчивость и неоднородность посл·едовательности, к более сильным, приходя в конечном счете к классическим условиям, при которых имеет место ·нормальная сходимость. Дополнение. Д о п р е де ль н а я т е о р е м а д л я од н о р о д н о й п о с л ед о вате ль но ст и. Пусть Х1, ... , Хn, п;;а,З, независимы, имеют нулевые среdние МХ;=О и конечную дисперсию MX21 =cr2• ированная сумма Sn·= 'f.X;/ Vп включается в с. в. у (в смысле .К5 пс.Р), задаваемую первичными средними МУ=О, Mf2 =cr 2 и части равенства меньше n/2, при и таких, что в D с.=0,3184. До к аз ат ель ст в о. Во-первых, в силу нулевых средних слагаемых таким же будет Ms,. = 0, а вследствие (3.12) .1Иs2,.=а2. Они дают пенных признаков нормированной суммы в направлении линейной и квадратичной функций. Для гармокических «направлений» неравенства (3.13) и (3.14) следующего раздела ведут к таким двум неравенствам: F(!! Л) = 1-�-Л2� �1-v2 �a2 u2/n, пАN�с.аи2/[1ч2и2/(2п)] -и их подстановка в (Ш") утверждения 3.10 доказывает теорему. 3.4. ПРЕДЕЛЬНЫЕ МОДЕЛИ СУММ ОБЩЕГО ВИДА Центральные допредельные неравенства. Рассмотрим суммы общего вида �Xin, понимая Xin, i= 1, ... , п, как последовательности серий незавиесимых с. в. Видоизменим неравенства утверждения 3.10 примениетельно к сумме общего вида, как и ранее обозначая F(v, Л) = 1-v2-Л2 , V,n=�,cos uXin, lvin 1 = IMlcos uXin, Ainе= IЛiilsin uXin, переменную и для краткости опуская, где можно. Теорем а 3.12. Доп редел ь н ы е не р а вен ст в а для гармониеческих средн·иех. Пусть Xin, i=l, ... , п, -последовательноС1·ь независимых с. в .. Тогда для всех (J) и и верно не равенство 1 :i: F (/vinl, Лiп>}, Vер, l=I и; �ехр {- 2 п А (и)= � ....l!!. � -верны 1t min vin (и)> О и '1"1: l а при неравенства i (1-v,п )} ;е ) (и),е l=I �ехр { --1 �п F (vin• Лtn) 2 l=I - } si.n -) (п� Ainl'Ytn До к аз ат ель ст в о. Следует из неравенства (1) теоремы 3.9, если про п изведение П (v2;,.+Л2;,.)1l2, которое в нашем с.,учае будет стоять в правойе C=I часш этого неравенства, 'iаменить на 2 i=I и воспользоваться неравенством ln(l +z) ,e;;;z. Также вытекают II из (II) утверждения 3.9, а IV -из (IY); в последнем с.11учае арктангенс заменяется на аргумент, так как arctglxl:e;;;lxl, а sin,(, при jфj:е;;;л/2 есть неубывающая функция аргумента. Наконец, 111 получается из (111) с помощью предыдущего неравенства для арктангенса и с.1едующего нетрудно проверяемого неравенства: lп(l-e) ln (1 -z);;;;, z....:.:..�-.:.... при О� z � е, ',:/е > О, 8 � учетом того, что косинус на первом полупериоде есть убывающав функция аргумента. Доказательство закончено. жения относительно слагаемых приводят Х;пнеравенств для их гармонических или степенных средних и к «>ерабатыванию» тех или иных допредельных неравенств дущего раздела, правые части которых при устремлении и дадут предельный закон нормированных сумм. Теорем а 3.13. Xin, i= 1, ... , п, независимы в кажdой, серии и выполняются три ,условия А0 lim max мх� =о; • - n➔oo i=I •... ,п Б0 • lim � n➔oo l=l tl В0• lim � 1м1xin= m. n➔oo l=l Тогда при n-+oo их сумма 1:Xin ИМ-сходится в с. в. 6, определенную первичными средними: IM/s=m, Ms2 = rn2 +о\ � cosи s= ехр(-и2 о2 /2) cos 'l'I: (и), = где '1'1:(и) = lиlm+c*u2cr2, с*еО,3184, а nеременная и пробе:!ает значения, заклюv.енные неравенством Ч'1: (и) �n/2. До к аз а т-е .1 ь с-тв о. Степенные средние IМIs и Ms2 получаются .�еrко из соответствующих допредельных неравенств, доказанных выше. Обр:нимся к косинусоидальному направлению, отправляясь от основополагающеil ieo· ремы 3.12. Из неравенства cosy-;;;:,,l-y2/2, согласно которому косинусоида ма• жорирует располагающуюся под ней параболу, подстановкой у=иХ1n и взя•· тием среднего получаем • -2 ;:_in= M ,cos (иХiп);;;., 1-и2MXtпf2. (3.13)· Из него F('Vin, Лin) =l-v2;n-Л21n�l-'V21n�u2дX2 ;n и l·п� �и2 max MX2 1n, i Из другого неравенства lsiпy-yl�c.y2, где с. = 0,3184 и равенство достигается при у=3,124 (показывается проверкой), подстановкой у=иХ;n и взятием -среднего, находим Ain:E;;; /uJ /М/ Хiп+с.и2МХfп· (3.14� Используя оба по:1ученных неравенства, выводим Подстановка найденных неравенств в формулу 111 теоремы 3.12 с учетом l·n-+O (на основании А0) и пренебрежение ч.ленами второго порядка малости доказывает результат. полнены, если IMIX;п = min И MX2in =a2/n. Как видно, если X;n = =Xi/fn, ro условия теоремы 1,11:остижимы лишь пр1и MXi = O (иначе m=•oo). Слеедствие 1. Пусть MXi = O, MX2i::::,;;;a2• Тогда нормирован._ · ная сумма 'J:,X;/ Vп при ИМ-сходится в с. в. �. определен� первичными средними: М� = О, М�2 =:02, M-cos и;= =exp(-u2oi2),cos(0,3184u2o2) при и таких , что аргумент косину1 са меньше ;r,/2. Этот результат, кстати, может быть получен и из теоремы дополнения .цредыдущего параграфа. Если усилить формировку, взяв Xin = Xi/n, то при MX2i)лишь одному неравенству 111 допредельной теоремы 3.12. Пойдем дальше, вовлекая другие неравенства. Вторая ослабленная предельная теорема. Определим те условия, .при кото-рых срабатывает неравенство I теоремы 3.12. Эт о не 149, но возникают дополнительные требования. Теорем а 3.14. независимы и пусть выполняются условия: а0 lim max MX2in O; = • 1i➔co l=l, ... ,n n➔co Тогда /MI cos (и � Xin +ер)� ехр { -�2 -а2) u2//,2}, 't/ и, ер, .где a1=lim � 1м1 2 xin (.обозначено IMl 2X=,(IMIX) 2). n➔co До к аз ат ель ст в о. Во-первых, из (3.13) видно, что неравенствое и min v;,.(u) >О будет верно для тех , при которых и2 max MX2i,...,;;;2, т. е.е l -l u2..,;;;2/max МХ 2;,., а так как знаменатель первой части по условию а 0 стремитсяе ' к О при n-+oo, то в пределе оно будет верно для всех и, и следовательно, дляевсех и верно равенство IVinl(и)=Vin(u). Из неравенства cos у...;; l-(l-s2/12)y2 {IYI �в}/2, при лю,бом ,е>О, подставляя у=иХiп, получаеме (3.15)е Теперь подстановка полученного неравенства для 1�,.(и), аетакже неравеиства (3.14) для Л;,. в правую частьI теоремы 3.12 и заменаеб=г/и с нс•еnо.11ьзованием 11И IХ � у МХ2 дает после небольших упрощенийе 11 �F(lv1nl, Л1п);;..и2 ( 1-и:: ) �МХ�п { IX1nl�б} -с2 и•� (МХ� )2 in • В силу условия в0 второй .и два пос,1едних члена правой части последнегоенеравенства стремятся к О. В результате nроиsвольности б имеемеIim �F (lvtnl, Л1n) ;;., и1(u11-a2) • - n➔co и утверждение теоремы теперь следует из I теоремы 3.12, что и требовалось.е Следствие 1. При условиях теоремы 3.14 сумма �Xin ИМсходится в с. в. ТJ, определенную первичными средними вида / М / cos (и !1 +ер)=ехр { -(�2 2/2}, 't/ и, ер. С л е .:i. ст в и е 2. Пусть Xi, i= 1, 2, ... , независимы, пусть, 1м1хi�т и MX2i= o2т (условие отрицательности показателя экспоненты в теореме 3.14), а именно, грубо говоря, когда случайный разброс слагаемых, т. е. их независимые колебания превышают неконтролируемые ,(неустойчивые) флуктуации средних. Собственно, в этом и в отсут·ствии ограничений на суммарное верхнее среднее и дисперсию состоит основное отличие второй предельной теоремы от первой. Заемечания. 1. �'словия теоремы 3.14 не исключают неограниченности как абсолютного среднего 1.М 1 �Xin суммы, так и ее «мощности» .М (�Xin>2 а0 и б0 2.еУсловия теоремы будут выполнены, если об X;,iизвестно только, что они незавИ'симы и ограничены числами en, т. е. P(IXinlH)-+0 при автоматически вернС> на основании неравенства Чебышева и условия Б0 • Теор ем а 3.16. Пусть Xin независимы, имеют нулевые среdние MXin = O, точные дисперсии MX2in = ,a2in, причем !,cr2in = 0'2 б}=О, \f б>О. n➔oo Тогда l;Xin И М-сходится в нормальн ую с. в. Л"о,а• До 1К а з ат ель ст в о. Проводится .на осн,овании теоремы 3.15. Во-первых,. покажем, что Ч' .:i: (и)== О. В самом деле, из двух неравенств, верных при любом в от О до 1: . e-sin8 /у-sшу/ �у2 ---при lyl�8, га у2 /y-siny/ :;;;;.с,.. , \fy, выводим 8-sin8 /y-siny/ Е;;;у2 ---{IYI �8} +с,.. y2{IYI >8}. 82 Раскрывая соответствующим образом модуль, подставляя у=иХ;,. и беря среднее, получаем с учетом MXin= O: _ . [ в-sin в -2 2 в }Ain IM/s1nuXin�u2 = МХ;п { IXtпl�-;-+82 IXinl >-;-}]! Теперь, принимая во внимание, что max v2;,.-+l (вытекает из (3.1·3) и условия i убывания дисперсии), имеем для Ч'_:i: (u)1:Л1n/vin в пределе при n-+oo: = 8 -sin 8 . -2 в 2 [ о2 + с,.. l1m �МХ;п /Xinl> -, \f в>О. и)�и 82 n➔oo { U }] При любом е>О в силу условия ЛФ последняя сумма стремится к U. А пер С учетом доказанного из неравенств 11, III и IV теоремы 3.15 получаем нормальную сходимость гармонических средних, что и требовалось. Следствие. Пусть Xi, i=1, п, независимы, имеют нуле вые средние MXi = O и точные дисперсии MX2i (понимаемые как пределы (1.4)) и пусть выполняется условие Yl: YI. lim Н2Р_( IXi/ >Н) =О равномерно по i. Н➔оо Тогда нормированная сумма !,Xi/yn при n-+oo ИМ-сходится в Л"о,о- В самом деле, среднее неограниченного признака определяется как предел xz среднего от усеченного варианта этого признака, откуда для имеем: а2 = МХ7 = lim М (Х1)<-Н, Н). - н ... оо .Далее, используя ус.1ювие Yl, получаем -2 2 2 -·2 2 -[ MX;{IXil >Н}=М Xc-X;{IXil �Н}] �MX;-MX;{IXil ,,;;;.н},,;;;. ,,;;;.а2-м [(хн<-Н, H) _H2{1Xil >Н}} � ,,;;;. а2-� (х1)<-н. Н> + Н2P(!Xil > Н)о.и при устремлении Н к оо правая часть стремится к О. А тогда выполняется условие ЛФ: � М (X;/Vn)2 {!X;i/Vn> б}�mах MXz { IXil > б -Vп}-,. Q n➔oo i и нормальная сходимость имеет место согласно теореме 3.16. Смысл условия Yl в том. что вероятность превышений при увеличении уровня Н должна уменьшаться быстрее значения 1/Н2, предписанного неравенством Чебышева, что, конечно же, выполня·ется, если Xi ограничены одним числом. В следствии требуется обязательная ,стационарность параметров m=O и а. К случаю, когда это требование не выполняется, сейчас и перейдем. Интервальная нормальная сходимость. Основное препятствие в применениях теоремы нормальной сходимости �остоит в требовании точного ,нулевого среднего слагаемых и точной дисперсии. Постараемся отказаться от этого требования, считая эти параметры неизвестными и меняющимися. Для этого пусть с. в. Xin раскрываются через некоторые ,«стандартные» независимые с. в. Si с нулевыми средними и единичными диспер-сиями X;n=O;S;IV-п+m;/n, Ms;=O, Msi2 = 1, i= 1, ... , п. Здесь Si считаются свободными от параметров mi, ai, тогда и Xin будут независимыми. Делением на Jfn и п уже учтена потребная для нормальной сходимости скорость убывания среднего и дисперсии Xin при n-+oo. Использованное нами представление называекя аддитивномультипликативны,ч. Хотя, в общем, оно является весьма специ фичным, но для предельных теорем оно как раз оказывается универсальным. Дело в том, что для нормальной сходимости основным является выполнение условия ЛФ, базирующегося на сле дующем наборе признаков Х2;п { 1 Xin 1 >б}, Vб>О. А этот-то набор признаков в асимптотике с учетом малости mi/n пересчитывается в такого же типа набор, но уже с. в. Si: s2i{1Si 1 >� Vп/а}. Поэтому, считая для Si первичными именно средние от этих признаков, = дополненные Msiо= O, Ms2;1, получаем расширение: Хiп� =aisil Vn+mi/n. Применим к правой части предельные результаты, и мы придем к теореме. -v(J�, Теорема 3.17. Пусть Xin1=cr/si/yn+mi/n, i=l, ... , п, гdе Si независимы с нулевыми средними Msi= O и единичными дисперсиями Ms2i = 1 и свободны от параметров mi и ai, меняющихся в отрезках ,[mi, mi] и .[:O:i, ai]. Пусть все Si удовлетворяют условию Yl следствия, и пусть ai ограничены сверху:. a2i�bH} = О, Н➔ао где мы за,менили Н=б у n/b и пренебрегли членами, стремящимися к нулю,Индексы m и а у М соответствуют последовательно сначала m, а затем а-сечению модели .,f{X вектора Х=(Х1, Х2, ... , Хп), поэтому согласно теореме о представлении имеем .JtXc V V мхm, а , и также для суммы .,(('1:. = V V .J(,'1:.т, т f1 т а а где m=°'J:.m;/n, a2=°'J:.a2;/n. Установив выше условие ЛФ, мы доказали lim .Jt'; 0 c:.JV' т а, поэтому и lirn .Jtот,c:.JV' т т а O, что и требовалось. n➔oo ' • n➔oo -' • -' В условиях теоремы ничего не надо было знать о связи элементов mi, cr;, i= 1, 2, ... , между собой. Это могут б ыть стационарные параметры, тогда mi=m, cri=·cr, Vi, что соответствуетоодинаковым средним и дисперсиям для Xin при i= 1, ... , п, но неоизвестным и принадлежащим своим интервалам. Это могут бытьои полностью нестациона·рные параметры, когда mi и cri несвязанноодруг от друга и неконтролируемым образом «скачут» внутриосвоих интервалов. Сдучай, соответствующий неустойчивой выборке. Наиболее жестким является требование теоремы 3.17, чтобы средние mi/n слагаемых скоро стремились к О при росте п, причем в Vп раз быстрее, чем сходится к о параметр разброса Gi/ vn: Нетрудно убедиться, что это условие может быть ослаб лено, и теорема останется верной, если абсолютные средниео1МIXin слагаемых убывают не со ,скоростью 1/п, а гораздо медленнее, а именно, IMIXin,.._, 1/па, где а -любое число изl/2 1/2 должно быть строгим, д.11я норма.т1ьной сходююсти необходимым является требование малости средннх: среднпе должны стремиться к О быстрее, чем средние квадратпческие отклонения. Иначе нормальной сходимости не будет и допустимы лншь сла бые предельные результаты, на связь с которыми мы и укажем. В случае интервальной нормальной :-.юдели У нмеем: -00 1 М f (У) = sup sup J f (у) ---=-ехр { -(у-т)2/(2о2)} dyе т а -оо -V2:n:a для всех интегрируемых (по Риману) функций, где т 11 о про.бегают свои интервальные значения. Обозначив т* =max{ 1 т 1, 1ml}, имеем м cos и у= ехр (-о2 u2/ os (ит*) при /и/� 1t/(2m*). Эти значения нужно сравнить с первой преде.11ьной теоремой 3.13, где получены почти такие же первичные признаки предельной с. в. s-Почти, но не совсем, так как условия теоремы 3. 13 слабее: в них нет требования ЛФ и, следовательно, не будет интервального нормального закона. И как видно, нижнее среднее для косинуса там ,получается менее точным. Аналогичное замечание можно сделать по отношению к другим слабым предельным теоремам. Таким образом, основное уси.ление теоремы интервальной нормальной сходимости в отличие бова'нию мал-ости средних. Дополнения. 1. Предельная модель при ограниченности средних мод ул е й с л а г а е м ы х. Везде в предельных результатах требовалась оrран.иченность 1ИХ2 ;,.. А чт о, если эти значения не даны? Теоретически они впра• -ве быть бесконечными, если х2фf!Т хi. Насколько предельные модеди сумм оу• /J.YT зависеть от существования МХ2 ;,.? А если вместо них заданы .IИjX;,.I, то что будет? На эти вопросы проливают свет следующие две теоремы. Теорема. Х;., независимы и при n-+oo; А) шaxмjX;nl-+0, L Б) 1:MI Х;,.1-+а. Тогда при u,..;n/(2a) справедливы два неравенства: lim М cos (и!Хiп) ;;;.э, ехр { -с0 lиl а} cos (иа); п�оо lim I М/ sin (и� Xin) =,;;;; sin ( lиla);n➔oo 2де Со = О,725. Доказательство. Из неравенств 1-cosx:s;;;colxl (где cu= 0,725 есть постоянная, которая находится, как решение относительно со и х0 системы уравнений: sinxo= co, CoXo l-co:.xo) и lsinxl:s;;;lxl, подстав.�яя X=IIAеin и беря среднее, получаем = 1 -�п (и)�Со lиl М IXinl, Л;п (и)� lиl М IXinl, Теперь на основании неравенств lиl а I ul i - () �М IX;11I = ШIП 'Vtn U , '2. F (�п• Atn)�2'2, (1-�n(и))�2со /и/'2. М IXinl; Fn = maxF ('Vin• Atn) :о;;; cJ /иl maxМ IXtnl, - i l подставляя которые в неравенство 111 допреде.1ьной теоремы 3.12, по.�учаем п ри переходе к пределу n-+oo первыii результат теоремы. В орой результат неравенства 1\' теоремы 3.12, есди учесть в пределе !.Лin/V;n-+-I.A;n,s;;; lиp::дjX;n 1-+-lиla и монотонность синуса при l111a:s;;;n/2, Следствие. Пусть Х; нез авuсимы и MIX;l= a. Тогда !.Х;/п при ИМ-сходится в с. в. Z, определенную первичными средними: IJ.flZ = a, = М exp(еuZ) ехр(-1 иl а), Лf �os aZ=exp(-co I иla)cos иа, IMI sinuZ =sin lиla при - Тиl ,s;;;n/(2a). Этот результат доджен рассматриваться вместе с теоремой 3.7 о сходимости среднего арифметического. O-:новная особенность в том, что при столь слабых условиях, как ограниченность средних абсолютных значений с.�агаемых, для получения сходящейся суммы нормировать не множителем 1/fn, как в предельных 7еоремах, а множителем 1/n, и при этом сходимость не к постоянному чис.'!у, как в законе бо.1ьших чисел, а ИМ-сходимость в с.в. z. 2.С л а бей ш и ii предельны ii р е з ул ь тат. Пусть не тодькоеМХ2;п, .но и ,W I Xin I не являют ся -ограниченными . Оказывается, и в этом случае предельная модель все еще не будет тривиа.�ьно голой. Теорем а. Пусть Х1, Х2, ..., есть последовательность независи1,1ых с. в. и пусть MX;=m, МХ; =tri. Тогdа при n-+-oo среднее арифметическое !.Xi/n ИМсходится в с-:В. ; (т. е. liш ..Кс..я'С), 011реде.1енную 11ервицны,ни ср�дними: МС=�• MC=m, М ехр (u �)= ехр(И:!!), М ехр (-и�)=: ехр (-ит), 'ffu ;;;а, О. До к аз ат ель ст в о. Из неравенства схр х;;;;,, 1 +х получаем � ехр (иХ);;;;,, � 1+МиХ. Далее на основании независимости Х; и1,1еем �ехр (и � Xtfn) = МП ехр(иXt/n) ;;;а, П Мехр (иXt/n) � (1 + ,'\.1uXt/n)".l i i lim что ,в требовалось. - 3.иНа прямое разложение моментов сумм опирается следующее утверждение.и Пусть Х1п независимы, симметричны, ограничены и существуют е и tf такие, что е,;;;;;,пм.Х2 ;п,;;;;;,Н, Vin. Тогда 3.5. ЗАКЛЮЧЕНИЕ Если в предыдущих двух главах рассматривались общие пространства п.:ходов, то здесь и далее --числовые пространства. Результатами случайных явлений будут случайные величины (с. в.), последовательности, затем процессы. Исходы теперь уже будут связываться не только множественными отношениями, 1:10 и числовыми: их .можно упорядочивать, складывать между собой, умножать на скаляр, преобразовывать по правилам действия с числами, векторами, функциями. Так-не возможности реализуются как в новых способах зада1111я с. в. и последовательностей (см. § 3.1), так и новых формах представлений. Случайные величины (и последовательности) в общей конструкции задаются средними признаков, а признаками являются всевозможные преобразования на числовой прямой -функции (многих) переменных. В том чис.'!е те неограниченные, которые мажорируются первичными. Вот почему не всегда существует как среднее самой с. в., ибо признак-и в виде тождественного преоб• разования прямой не являются ограниченными, так и моменты, в частности, среднеквадратическое значение (при точном среднем -дисперсия). Самым распространенным представителем с. в. является нормальная, в нашей конструкции задаваемая тремя эквивалентными способами, тремя разными наборами средних: 1) с помощью плотности, следовательно, вероятностями отрезков; 2) моментами; 3) гармоническими средними в виде характеристической функции. В направлении этих наборов и удобно судить о степени приб• лижения к нормальной с. в. Нужда предельных результатов, составJ1яющих наиболее весомую часть главы, потребовала определить понятия сходимости моделей (ИМ-сходимости), состоящей в приближении средних одной модели к другой. Главная причина введения ИМ-сходимости состоит в ее нацеленности на предельные результаты для сумм независимых с. в. В частности, с ее помощью формулируется закон больших чисел применительно к статистически неустойчивым посJ1едовательностям ( теорема 3. 7). Все давно пр-ивык,1.и, что при сложении независимых с. в. вправе ожидать нормального предельного закона, полагая при этом выполненными известные условия Линдеберга -Феллера. А если эти условия не выполняются, что вполне естественно при их исходной жесткости, состоящей в точном знании средних слагаемых и их дисперсий, а также неограниченном росте их числа? Пред• ставьте на миг, что средние слагаемых не совсем точные, т. е. хоть да чутьчуть, а интервальные, и тут же окажетесь в тупиковой ситуации, так как средним нормированных сумм .станет разбегающийся по ширине интервал, и предел просто теряется. Потеряется в рамках классического подхода, но не интервального, способного охватить любые промежуточные случаи, причем даже для �конечных сумм, т. е. допредельного случая. Вообще допредельные и предельные результаты важны потому, что операция суммирования самопроизвольно участвует в практике рождения многих с. в. Так, погрешность изготовления детали есть результат наложения друг на друга разных факторов. Сложение лежит в корнях процедуры фильтрации и т. д. И полезно знать, что не только щшные о признаках слагаемых (в частности, вероятностях, среднем с. в.) переносятся по соответствующим формулам на .суммы, но и само суммирование полагает внутри себя уточнен.не сред них по характерным направлениям, даваемое степенными и гармоническими признаками. Такие направJiения универсальны в силу сугубо арифметических свойств, ·проявляемых при подстаноВ1Ке на место аргумента сумм. Их средними будут границы моментов, гармонические средние, при точных распределениях вероятностей объединяемые в характеристическую функцию (д,1я нас В зависимости от чис.'!а слагаемых и данных о них для сумм получаются то более, то менее широкие интервальные модели, определяемые своими средними по универсальным направлениям как степенным, так и гармоническим. Интересно проследить, как характер данных о слагаемых влияет на ширину допредельной и предельной моделей. И как в .крайнем с.'lучае точных данных, удовлетворяющих классическим ус.1овиям, предельной станет нормальная модель (см. теорему 3.17). Изложение результатов построено так, что сначала в § 3.3 рассматривается случаi1 однородных с.1агае"1ых, позволяющий вникнуть в суть, а затем в § 3.4 переносится на неоднородные суммы общего в1ща, где закономерности более общие, но и более сложные. Новые допредельные и предельные утверждения позволяют в по.'!ном объеме в терминах ИМ выявить вытекающие из суммирования данные еще задолго до того, как суммы ста.'lи предельно нормальными, п даже если таковыми в преде.1е не смогут стать. Г JI ав а 4. СЛУЧАЙНЫЕ ПРОЦЕССЫ 4.1. ОПИСАНИЯ СЛУЧАRНЫХ ПРОЦЕССОВ Принцип описаний. Время -неумолимый движите.1ь, без устали бежит-бежит. В этом безостановочном беге и возникают события, названные случайными на том основании, что факт их появления или непоявления не прогнозируется абсолютно точно. Но время дает нам еще одно проявление случайности: можно достоверно знать, что событие произойдет, но не знать момента возникновения, и событие становится случайным по времени, т. е. случайным процессом. Вообще любые случайные или неслучайные события, если учесть их положение во времени, образуют процесс. А удобна ли такая абсолютизация случайных процессов? Наша цель -построение математических моделей -обязывает не усложнять, а упрощать. Вв,едение времени как самостоятельного параметра оправдано при следующих обстоятельствах. Во-первых, если важным представляется момент появления со бытия, например в радиолокации, где запаздывание отраженного импульса несет сведения о расстоянии до цели. Во-вторых, при описании физичес�их нвлений:, связность и естественность хо,1.а развития которых без времени проследить немыслимо, таких как рост агрокультуры, технологические процессы, сигналы динамической: системы, шумы, помехи и так далее. Процессы в природе могут быть •самыми разнообразными: дробовые и атмосферные шумы, транспортные и промышленные, импульсные и гармоничес;кие помехи, всевозможные потоки в системах массового обслуживания и др. Задачей исследовате.11я ставится разработка как можно более экономных и простых описаний:, достигаемых выявлением наиболее существенных, важных сторон, :своего рода «анкетных данных» процессов с последующп:-.1 облачением этих данных в «тогу» первичных средних. Собственно, в самой уже модели за счет выбора первичных признаков заключена потенциальная возможность к упрощениям, направленным редукциям, и чем экономнее модель, меньшим числом данных она задается, тем проще процесс в нашем представлении, т. е. в том виде, как нам удобно с ним иметь дело. =:)то принципиальное положение теории. И переход к дискретному времени тогда естествен как одна из разновидностей: редукции. Реализации и признаки. Формально случайным процессом (и.11и просто процессом) называется система случайных величин А1, te:T, индексированная числовы.м пара,четром t -текущим временем. Здесь Т -множество значений: t, в частности, это отрезок [О, Т] числовой: прямой, а в пределе -полупрямая fll,+ пли вся числовая ось fll,, Если t -векторный параметр, например t= (t, z1, z2, zз) -время и три координаты пространства, то Xt называется поле,+�, наше изложение распространяется и на него. Наконец, если Т -дискретный: набор временных отсчетов: Т= = {t,, ... , tn }, то процесс вырождается в случайную последовательность, а при n= 1 -в случайную величину. Переход к пос.1е довательности связывает процесс с исследованием предыдущей главы, хотя сейчас нас в основном будет интересовать непрерывное время t. Пространством элементарных событий, соответствующим процессу Xt, te:T, в общем, является множество всех возможных реализаций: х1, te:T ( функций времени). Множество llJ реализаций:, имеющее единичную вероятность Р (lll) = 1, называется дос товерным для данного процесса. Все реализации, не прннад.1ежащие lll, оказываются невозможными. Если Т есть интервал прямой (либо вся прямая), а достоверным является множество llJ непрерывных реализаций:, то процесс будет непрерывным. Если это множество дифференuируе;1;1Ых реализаций:, то и процесс будет дифференцируемым, если ограниченных (т. е. 1х1 1 �а), то -ограниченным и т. д. Таким образом, некот,ор,ое свойство в-сех реализаций: будет достоверны::v� свойством процесса, т. е. выполняющимся с вероятностью 1. По нашему мнению, для реальных, физически, так сказать, осязаемых моделей каждая возможная реализация должна иметь = ненулевую верхнюю вероятность Р (XtXi) >О, XtEfJC. Так и будет получаться, если первичных данных о процеосе конечное число и они не абсолютно точны, т. е. в известном -смысле размыты. Для нужд теории, несмотря на сказанное, нельзя исключать и тот крайний вариант, когда вероятности всех отдельных реализаций нулевые, понимая его как предельный или ·идеальный, соответствующий неограниченному набору дан• ных. В этом варианте достоверное множество реализаций Ш может не быть определенным однозначно (эквивалентно неоднозначности нулевого множества). В самом деле, если f!JJ,,, k= 1, 2, ... , -разные •варианты Ш, то их конечные .пересечения обязательно будут достоверными, но никак не счетные, так как пересечение всех Ш" не приводит к достоверному множеству, а значит, минималь-ное из них не существует (эквивалентно тому, что объединение счетного числа нулевых множеств не ведет к нулевому множеству). Любое множество реализаций, включающее хотя бы один какой-нибудь вариант fJC, будет достоверным. Не всегда fJlJ нужно стремиться сделать как можно уже, но желательно, чтобы оно было как можно проще (даже за счет некоторого его расширения). Прежде чем подойти к описанию процессов, напомним общую конструкцию интервальных моделей. Она остается единообразной для любых случайных объектов, будь то случайные величины, последовательности, процессы, наконец, поля, и состоит из трех шаго·в: 1) анализируется структура признаков с взаю,1ной их полуупорядоченностью; 2) выделяются первичные, на которых задаются первичные средние; 3) первичные средние продолжаются на все остальные •признаки, образуя модель. Сложность модели будет определяться числом первичных признаков и, конечно, их структурой, а «подводными камнями» будет размерность пространства fJlJ и ·связанные с ней трудности контро.1я упоr. >tо...�. Очения признаков, о которых пойдет речь ниже. Обратимся к случайным процессам. Их признаками будут всевозможные функционалы f{Xi}, -ставящие в соответствие каждой реализации х1 одно число. Примерами таковых для процесса с непрерывным временем являются линейные пр из на к и, к которым относятся, во-первых, интегралы т где ht -весовая функция; во-вторых, «выхватывание» из процесса одного отсчета f,{X1} =Х,, соответствующего моменту 't (может быть получен из интеграла при ht в виде дельта-функции Дирака); в-третьих, взятие первой производной f{Xt} =dXtfdt (если реализации процесса дифференцируемы), второй производной и т. д. К в ад рати ч н ы е пр из на к и X2t, XtX'f, д2XtX'f /dtd't, fн{Xt} = J J XtX 'fHt, 'fdtd't. тт 6--13 161 Индикаторные пр из н а к и есть индикаторные функциисобытий {Х1 �а}, {а1a}, тсостоящий в фиксации превышения линейным признаком уровня ас формулировкой результата в виде О (нет) и 1 (да). Г а р м о н и ч е ·с к и е п р и з н а к и даются произведениямин sin п (иi Xt.) ii cos и связываются с предельными теоремами предыдущей главы. Вообще, признаков неисчислимое множество, а то, что здесьуказано, лишь узкие их подклассы. Разберем упорядочение признаков как внутри подклассов, так и между ними. Для линейныхпризнаков имеем ·fh�f,,.-$=>-ht�h*t, VtcT. Для квадратичныхfн�fн•-$=>-H1,-r-H*t, -r -неотрицательно определенное ядро. Jlинейные превращаются в квадратичные посредством возведениян fh в квадрат: f2л = JJ d,fd,: с Ht,-r= hth-r , в результате че т т го f2h�fн• эквивалентно неотрицательной определенности hth-r -H*t,-r-Связь линейных и квадратичных с индикаторными признаками осуще·ствляется через мажорирование индикаторных функций па1ра'6одами, и наоборот. Так ·1,а,к {lxl :::;;;а}�с0-с+ 1 х2 принс0 :::;;;1, с+1 �с0/а2 , то сдвигом по оси абсцисс подучаем неравенство: й2 +а1 ) 2 { а1 � хt � а2} � Со-С1 + (хt ---2 при с0 а ,в правойнвложенная парабола. Помещаяпараболу ,сверху, получаем а2 01 {Xt > a2 }�ct ( Xt -� ) 2 , V а1 < а2, ct > 4/(а2 -а1)2 • Кстати, взя-в среднее от ,обеих частей, придем к неравенству Чебышева (см. § 3.1). Модель процесса. В форма.,ьном определении модель процесса есть совокупность согласованных средних Mf на классе g:функционалов-признаков, составляющих область существованияверхних средних. В !!7' входят, по крайней мере, все ограниченные функционалы. Но могут включаться и неограниченные, скажем,. линейные и квадратичные. Это будет совершенно законно, если процесс ограничен, а если нет, то будет некоторый волюн таризм, но оправданный энергетической конечностью реальных физических процессов, а также практической невозможностью (даже в ·смысле из,мер1ить) сколь уго�но больших его значений. К этому вернемся в конце раздела. По способу задания модель согласно общей нашей конструкции порождается любым непротиворечивым набором первичных средних Лg, gsCS, где CS -выделенная совокупность первичных признаков-функционалов. В частности, первичными будут вероятности, если CS ·составляют индикаторные признаки. Конечно же, по первичным средним вовсе не обязательно искать все Mf, а нужно удовлетвориться мыслью, что они существуют и в случае нужды вычислимы конструктивным путем, даваемым формулой согласования и продолжения (l;l). При движении к основной цели: научить·ся экономно описывать пер!вичными ;средними знакомые и наиболее хараJктерные типовые черты и свойства процессов, полезно придать этим средним прикладную интерпретацию. Вот некоторые из примеров: текущее среднее значение процесса: ffiоt MXt; = среднее интегральное значение:� Xtdt; текущая средняя мощность ftо= MX2 t; интегральная средняя мощность: MJ X2 tdt; текущие начальные моменты: MXkt; корреляционные функции: f(t,т) =МХtХт:; вероятности превышений: J5 (Хt >а); совместные вероятности: P.(a1�Xt�a2, VtET1). Здесь черта над и под буквами предохраняет от ·повтора, означая, что соответствующее выраж-ение верно отдельно 1<ак для нижнего, так и для верхнего средних. В отличие от MXt и MXt, которые равноправны, между ниж ним и верхним средними других признаков имеется большая разница. Нижнее среднеквадратическое значение_!t указывает на ту границу, ниже которой ни при каких условиях не может упасть среднеквадратическая мощность процесса, а ft -выше чего она никогда не сможет подняться. То же самое относится к вероятностям. Таким образом, !._t, М, J: служат для описания необходимых, обязательно присутствующих статистических ·свойств процесса, а в свою очередь, f1 и .М, /5-возможных, не исключенных, не Любое из приведенных нами средних, -а ими, конечно же, не wсчерпывается необозримое богатство выбора, -может быть включено в набор первичных; все за.висит от того, какие среднестатистические данные о процессе доступны или могут быть из многообразия доступных разумно выделены для формирования математической модели. Например, если измерения значений процесса производятся с помощью инерционных технических средств, � 1� выдающих на выход не значения ·са!vюго процесса, а лишь интегральные его данные на отрезках [ iЛt, (,i + 1 )·Лt), то все первич и+1 )лt RЫе признаки будут иметь вид g(Yi), где Yi= f X1dt. Если iлt принципиальными для процесса мы считаем выбросы, то цеJ1есообразно в первичные включать вероятности превышений, тогда ими и будет характеризоваться выделенная нами черта процесса. Если доступным для наблюдений является не вся, а часть Т1 временной оси, то признаками будут функционалы от Xt, tETо1, инвариантные к поведению реализаций вне Т1• О характерных признаках подробнее поговорим в следующем разделе. А сейчас продемонстрируем процедуру продолжения первичных средних на остальные признаки. Пр им ер 4.l. Пусть Х, ю1еет достоверным некоторое �шожество реализаций l!lJ и задан своими точными первичными значениями текущего среднего MX1е= m1, teT. Ничего, кроме этого, о нем не пзвесгно. Формулой продолжения средних будет = inf {[со+� ci mti ]: f {xi} :а;;;; Со+� Ci Xti }, неравенство на поиск инфимума должно выполнять при всех ограниченных реализациях Xt, а инфимум определяется выбором дискретов f; и коэффициентов с, конечных сумм. Из данной формулы получаем _М(со+�с;Х1)= ,.=co+�c;MX1е' т. е. оператор среднего, будучи точным, проносится за знак l конечных сумм. По формуле продо,1жения могут быть наi!дены сре,:�:нпе ,'!ИШЬ от функционалов, представляемых в виде f{x1}=fo{x1}+Ic;X1l' где нал /о{х1} равномерно ограничен на Ш; они-то н обrазуют об.1асть существо13ания fF средних и для них: Mf {Xt} = sup fo {xt} + � Ci mt • i xtefC Если теперь текущее среднее ,не яв,'lяетсi! точным, а за,:�,аеtся интерваJ1ами !!3:.t, fiit, то все формулы остаются в силе с той .1ишь разницей, что c;rn1 i заменяются на c;ffift• при с;;;;,,О и на c;m1. при ci:s;;;O. i _i Рассмотрим упрощения на пути построения модели. Какова бы ни была исходная модель, любой процесс можно «подвести основанием» под фиксированный набор признаков :Уе, вычислив для этого Mh, hE:le и взяв их за первичные для новой модели. Это соответствует :Уе-расширению модели Jt и позволяет соответствующим выбором :1е упростить описание процесса, представить его в типовом виде. Уже отмечалось, что вид первичного набора открывает возможность редукции самого процесса. Так, если первичными яв.11яются функционалы g{Xt} =g{X}, зависящие лишь от отсчетов Х= = (Xt, ... , Xtn ) процесса в дискретные моменты, то переход от Xt к вектору Х, называемый дискретизацией процесса, будет преобразованием подобия ( см. § 2.1). Здесь этот переход, по сути ни дeJia, не меняет данных о модели. А поскольку к указанному виду первичных функционалов могут расширением быть приведены .любые модели, то дискретизация, в общем, есть не что иное в смысле теории, как упрощающее расширение модели процесса. То же может быть сказано относительно квантования, состояще го в приведении значений процесса к заранее выбранным уровням. Итак, любые преобразования процесса влекут за собой рас ширения его модели, кроме преобразований подобия, так как они сохраняют все известные свойства процесса. Характерные черты процессов. Первый и прямой путь задания процессов состоит в выделении характерных статистических свойств и облачения их в форму первичных средних. Для этого мшкет быть выделено, в общем, любое их число. Причем удач_ным считается наш выбор только тогда, когда без серьезного расширения тела модели меньшим оказывается число первичных значений, так как в результате будет проще модель. Поймать в чертах процесса наиболее важное, отличительное и воплотить в мо,,1.ель -есть искусст,во обладания мате:.vrатичес1шм языком на базе инженерной интуиции. Рассмотрим некоторые типовые свойства. Сведения об о r р а н и ч е н н о -с т п п р о ц е ,с с а по абсолютной величине числом а формулируются как Р ( 1 Xt 1 >а) =0. При t, пробегающим Т, это даст не одно, а целый набор первичных значений. И н ер ц и о н н о ст ь п р о ц е с с а в смысле невозможности быстрых его изменений описывается ограничениями на производ ную процесса в обычном или среднеквадратическом смысле: /5( /dX1/dtl >а) =О; IИ(dX1/dt)2 =c. Это определит локальные свой ства реализаций. Глоба.JJЬный же характер их изменений отра жается видом гранпц корреляционных функций !... (t, -r), f (t, -r). Отметим, что при несовпадении нижней и верхней границ корреляций свойства непрерывности ими ,не о,пределяют-ся. Тогда непрерывность процесса воплощается, например, в способность средних вида /И (Х1 -Х,) 2 к О при т-t. ВозмоЖ'НЫ другие средства описания непрерывности, например ограниченностью производной. Глобально (и достэточЕ·::> грубо) пз:v1енчивость процесса определяется интервп.-,0,11 1-.орреляции 'tкор -минима.'lьным числом таким, что /MIX1Xt+т=O при т>ткор• Охарактеризовать макси-· мально допустимую интенсивность выбросов процесса выше уровня а помогают первичные значения P(IX1l>a), тогда как гарантированная доля вероятностей этих выбросов эквивалентна ненулевой нижней границе P(IX1l>a). Причем на основании нера венства Чебышева верхняя вероятность превышений для ее сог /а2, ласованности со значениямм 1ИХ2 1 не может быть выше 1ИХ21 .иначе при согласовании она должна замениться на это более точное значение. Нижняя же вероятность пр&вышения автономна, так что если вдруг Ol'!a окажется больше 1!!_Х2 1 /а2 , то это никак на саму нее не повлияет, зато при Сi}гласовании приведет к уточ 165 нению МХ21, а И:менно, к росту до значения МХ21 =а2Р (1Х1 1 >а)� ~ Рассмотрим, как можно задать ,конкретный процесс. Пр им ер 4.2. 3 ад ан и е им п ул ь с ной помех и. Особенность рассматриваемого процесса -наличие на оси времени хаотических импульсов. разной, в общем, амплитуды, формы и -продолжительности. Отсюда основная черта -это редкость ненулевых значений процесса. Поэтому первичными нужно -сделать вероятности P(Xi*O)=q, P(Xi*O)=q. Отрезок [q, q] указывает на вероятности присутствия в момент t импульса (ненулевого значения) процесса, а конечная его ширина -на незнание этой вероятности или же на неустойчивость процесса. При q=O не исключается, что импульсов вовсе не будет, а q>O гарантирует обязательную долю вероятности их пrпсутствия. Значение же q задает макс-имально допустимую их концентрацию. Дополнительно к q, q более детальный характер лревышеню·1 мог бы быть. отражен вероятностями �(IX1l>a) !И P(IX1l>a). Дробление процесса на составляющие. Исследуем одну полезную интерпретацию процессов, вытекающую из теоремы 1.3 о· представлении. Назовем процесс 'S'-простым, если модель его есть (M'S') и задается точными на наборе 'S' функционалов первичными сре;:r.ними Mg, gE'S'. Согласно теореме 1.3 о представлении модельлюбого процесса с первичным набором 'S признаков .записывается как объединение 'S'-простых составляющих моделей при ,;gr более подробном, чем 'S: (М 1) =..;а= V (М ; '), 2+ � '::, з . (M;§')c:..Jt Чем шире 'S', тем из более «мелких частиц» складывается модель. процесса. Наиболее экономно считать 'S' =':9. Иногда удобнее вместо «модель» говорить «процесс», а объединение интерпретировать как семейство простых процессов. Тогда рассматриваемое представление позволяет вообразить себе Xt так, как будто бы вместо него действует любой из этих 'S'-простых составдяющих процессов, но неизвестно какой. В более общем представлении модели имеем: J{=V.;/(0, где е 0 -неизвестный (задающий) параметр. Функциональные представления. Даются записью Xt = = Ve{s1}, определяющей Х1 посредством преобразования «стандартного» процесса s 1 и неизвестного произвольного параметра 0. Оператор Ve включает те действия, какие нужно проделать с 51 для получения Xt, а в 0 вкладывается неизвестная часть этих действий. Для последовательности (дискретного времени t) примеры функциональной записи были рассмотрены в конце § 3.1. Они обобщаются на процессы. Одним из них является л и ней но е п р е д с т а в л е н и е: = Х,еf h (t, т) si d'f. При подробном описании st импульсный отклик h(t, 't') фильтра может играть роль носителя априорного дефицита 0, разрушителя подробности. К примерам линейных пр·едставлений процесса относится запись в виде решения дифференциального уравнения CkdkXtfdtk+ ... +c1dXtfdt+coXt+C=st• Для процесса на выходе канала связи с замираниями характерно мул ь тип ли к ат и в но е п р ед ст а в л е н и е: Х1 = =e+tst, где st -процесс с установленными сво йствами и, главное, с точным значением М621 = 1, Vt, а 0+1 �0-параметр замираний. В зависимость от того, быстрыми или медленными являются замирания, ставятся корреляционные свойства 0+t. Размах между максимальным и минимальным значениями 0+t характеризует глубину замираний, а разность .М (0+1 )2-М (е+1 )2= =MX2 1-MX2t -неточное знание мощности процееса х1 :-что касается связи процессов е+ 1 с st, то часто они независимы. Но может e+t ,быть свобоцным от 61, последнее оправдано физ·ической возможностью влияния значений 6t на 0+1, ког,да St есть передаваемый по каналу сигнал, а Х1 -то, что получилось в канале сеучетом замираний. В этом •варианте 0t может зависеть от �t, а точ•нее, подст.раивать-ся по� него непредсказуемым ·образом. Обратное лроблематично. Аддитивное представление: Xtet+st, Mstе= O, поз = воляет развязать медленно меняющуюся составляющую 0t от быстро флуктуирующей st, и -плюс к этому -явно выделить в виде 61 ту часть процесса, о которой статистические данные имеются, от той 01, о которой кроме множества е возможных реализаций ничего не дано. Различные аддитивные представления. Функциональные представления, в общем, ограничены по своим возможностям ввиду детерминизма их связей. Не всегда удается подобрать такие V, Е) и 6, чтобы получить требуемые свойства Xt, да и итог может оказаться настоJ1ько сложным, что станет ненужным. Облегчения можно достичь заменой равенства на включение: XtcVe{st}, означающее, что ИМ правой части включает ИМ левой, т. е. правая часть воссоздает расширенную :модель исключением некоторых сторон процесса Х1 (желательно наименее важных). Будем это включение рс1соrатривать применительно к аддитивному пред Поставим вопрос, всякий ли процесс Xt можно записать как аддитивную смесь т1 + st среднего его значения mt и добавки st с ну.�свым средним Mst= O? Оказывается, и мы сейчас это покажем, что нет, если иметь в виду равенство, и да -если включение, т. е. расширенное представление. Рассмотрим произвольный процесс Х1, заданный моделью -.JI{. Любое (mt=МХ1 )-сечение модели J!,tmt = .J!f, Л (МХ = m1) • t соответствует допущению, что среднее процесса известно точно. Каждому mt-сечению соответствует то же достоверное множество реализаций, что и самому процессуЕсли Jlm1 непусто, то реали . зация mt среднего ,называется собственной. Множество m= {m,: .д,m, =1= Jo} называется собственным семейством средних. Поскольку модель любого процесса представляется объединением ее сечений, имеем: д = V дm, , m1e!JЛ m,e!JЛ где нижняя формула -суть расшифровка объединения в верхней, а процесс Xt,m соответствует -сечению Jlmt• Собственное семейство средних задает так называемые свойства первого порядка процесса. На основании этого ·семейства могут быть рассчитаны верхние (и нижние) средние конечных линейных комбинаций отсчетов процес-са: М 1-: Ct Xti = SUp 1-: Ct mtt •е mte!JЛ Рассмотрим теперь возможность представления процесса Xt в виде суммы среднего и остатка. Если среднее mt является точным, то собственное семейство !Dl= {m,} состоит всего из одной реализации mt и очевидной становится запись: Xt= mt+st, Mstе= O,где st= Xt-mt есть процесс, определенный через Xt значениями = Mf{st} Mf{Xi-mt}, VfEfF. Если Xt задан своими первичными срещ�ними Jйg{Xt}, gErs, то пер1вичными средними для st будут 1Иg{6t+.mt}, gErs, и они получаются смещением на mt функционалов g. Символьно это записывается Jt�+m=Jtеx или Jti=.lltеx-m, m={mt, tET}. Пусть теперь MXt = mt не является точным. Аналогом предыдущего будет так называемое под ч и·н е н но-аеддитиевное пр ед ст а в л е н и е, cor ласно которому аддитивная запись верна для �каждого МХt"сечения .Jf{ m исходной модели Jt: Xt,mе= m,.+st,m, Mm St,mе= O, т, Е: m, (4.1) где процесс s,tm определяется моделью Jt:,m =Jt::i-m и имеет приекаждом mt нулевое среднее. В этом представлении первое слагаемое mt при неточном его значении «вбирает» в себя статистически неустойчивую составляющую среднего процесса, а все имеющиеся статистические данные о Xt переносятся в остаток. Процесс Xt же сам складывается из семейства составляющих его Xt, m при mt, пробегающим множество !Dl. Некоторым неудобством подчиненно-аддитивного представления является то, что остаток st,m, в общем, будет зависеть от значения т1• Чтобы освободиться от этой зависимости, заменим st, m на более широкий (в смысле модели) процесс s1=>st,m, определенный объединением: .Jft� == V .лtJt,m. mE!JЛ Оказанное наводит 'На ,следующее р а,с шире н но е ад д и т и вн о е преод ст а в лен и е произ•в,ольного процесса: Xt S:; mt +st, m1 Е !Ю, М St = 0, (4.2) где т1 принимает произвольные значения из семейства Шl, а процесс st свободен от imt, Символ = означает, что расширение, стоящее в правой части (4.2), однозначно определено и является минимальным расширением подобного рода, включающим Xt. Смысл перехода от (4.1) к (4.2) состоит в том, что �<забываются» связи между остатком st,m =Xt, т-m1 и средним mt, приводя к расширению st по сравнению с st,m, как это записано в (4.2). Опасно только, не станет ли это расширение чрезмерным. Например, если st в результате расширения окажется голым процессом, то включение (4.2) становится тривиальным. Такая опасность иллюстрируется примером. Пр ;им ер 4.3. С угу б о о гр ан и ч е н н ы й пр о ц е с с. Пусть процесс Х1 определен первичными вероятностями P(IX1l;;;;.a)=O, Vt. Это есть процесс, о котором известно только, что в любой момент он ограничен по модулю значением а. Для такого процесса !!JX1=-a, МХ1=а и собственное семейство Wl средних образуют всевозможные реализации, заключенные между значениями -а, а. В представлении (4.2) здесь будет s1==0, так как нельзя из такого процесса :выделить случайную составляющую с Msi=O. При замене включения (4.2) на равенство, что будет, когда все St,m от mt ·не зависят, т. е. St ,m= st, Vm, приходим к свобод" о-аддитивном у п р ед ст а в л е н и ю процесса с неизвестным -средним: = = Xt mt +St, mt Е m, Ms10, где s t считается свободным от imt, Его чаще будем просто называть аддитивным. Не всякий процесс допускает такое представление, а лишь тот, для которого т1-сечения модели одинаковы между собой за вычетом т1. Дополнения. 1. Точное распреде,1ение вероятностей про;ц е се а. Абоол ютно точным распределе-ние процесса Х,, tET, может быть лишь в с.1учае, если Т дискретно и Х1 при каждом tET принимает дискретные значения. Если это не так, то нужен -остов в виде а,1rебры dt, на событиях которых задаются точные совместные вероятности Р(А1,, А1о2, ... , At), А1о1е n ed1 i где t1, t2, ... , t,. -произвольные выборки отсчетов из Т. :Корректностьовероятностей и вместе с тем их согласованность эквива.�1ентна конечной адди тивности. Тогда вероятности, взятые в качестве первичных, и определят процесс с точным на пересечении d=Пdt ашебр распределением вероятностей.о t Еслм d1 есть счетные алгебры, принцип построения модели процесса сохраняется, порождая конечно-аддитивную меру на d (для которой, однако,вероятности Р(А 1 , А 1 , ••• ) не будут, в общем, точнымп при счетных множест- ' . вах отсчетов). Конечно-аддитивной мере соответствует счетноадд.итивная мера согласно известной теореме Колмогорова о согдасованныхораспределениях 1• Меры может и не существовать, а задаваться на сопряженном пространстве, тогда лроцесс в классическом определении называется обоб•о щенным 2• На,пример, это процесс, у ,которого У;-= J X1(J); (t)dt, i= 1, 2, ... , есть нормальные с. в. с нулевыми средним,и и МУ; Yi = J (j); (t)(J)i (t)dot. При нашемоподходе в невыполнен•ии счетной аддитивности нет «криминала», а обобщенныйпроцесс естествен :как задание ,средни,ми на линейных преобразован.иях. 2.З а д а ни е п р о ц е с с а п е •Р е х о д н ы м и м о д е л я м и. Этот способо состоит в после.11;овательном задании переходных моделей ,,И/t' xt х t, •.Jtx ... , при произвольном выборе отсчетов t= (Xt, ... , Xik), а ffiщ -первичные значения. В частности, это могут быть границы средних М.Хt и кор реляций !.,t,-r при всех или некоторых t и -r. Любой процесс расширением приводится к процессу второго порядка, для чего за первичные берутся средние вида ( 4.3). Первичный набор продолжается на остальные корреляционные ·свойства в соответствии с общей формулой (с одновременным согласованием т<н), если исходно они заданы несогласованg:�:ыми): x(k));;,: ет х+хт DX},+x(k) D(k) :где двоеточием отделено условие, при котором ищется инфимум ·в (4.4) выбором с, c+,i, Из этого условия становится ясным, чтоонетривиальными могут быть средние только для квадратичныхоформ от таких векторов хт = (Xt,, Xt., ... ) , компоненты которыхо:Встречаются хотя бы в одном Хщ.о Сказанное порождает неудобства, поэтому подчас разумнымои наглядным -следует признать существование определенной гладкости корреляционных свойств по времени t, что дает основаниеопереходу к фиксированному набору отсчетов t1, t2, ... , tn, а в резу.1IЬтате -к единому вектору Х, считая, что между отсчетамио-будет иметь место нечто промежуточное. Тогда условие в (4.4)оперепишется:о с+� ct (e<> Х+Хт D(k) Х)> ет Х+Хт DX. k Если принять еще одно допущение, что процесс имеет нулевое среднее MXt=O, Vt, и что заданными Яiвляются тм=м.ХтDщХ, 1'0 возникают дополнительные упрощения: М (ет Х+Хт DX) = М хт DX = inf { � ct тщ: � ctx;;,: хт DX}. Здесь в отличие от общей формулы т o(k) Х;;,:о (4.4) свободный коэффициент ,с по.�южен равным О, ибо таким он будет получаться при нахождении инфимума в (4.4) и принятых допущениях. Неравенство в условии формулы (4.5) эквивалентно неотрицательной определенности матриц �c+kD(k>-D, что символически выглядит следующим образом: LC+1tD(k)-D�0. Буде:м говорить,что �c+ яDu,> мажорирует D. Итак, продолжение средних на квадратичные формы при симметричных матрицах D эквивалентно поиску среди -матричных ,конечных линейных сум:м 1:c+нD(k), ')l[ажорирующих D, такой, которой соответствует минимальное значение �с+ятщ. Пример 4.4. Пусть заданными являются МХ1. = 0, МХ21. = и', мх�,, = ! ! -• =�2 =-М (-Х21 ;) , i = 1, ... , п. Они всегда бу.]ут непротиворечивыми, еслие ��u2. и согласованными. 3.]есь первичными бу.]у_т единичные матриuы ±1 со средними соответственно а2, -u2 (приведенными к верхнему). Неравенство после двоеточия в (4.5) запишется-так: cl-D;a,:O, то г.]а инфимум в (4.5) ,]ОС· ри с, равном максимальному Лтах собственному числу матрицы D, и в зависимо,сти от ero знака мхтDХ=mах{лтахи2, Лта.,u2}. Представление процессов второго порядка семействами средних и ковариационных функций. Процесс называется простым второго порядка, если он задается точным средним МХ1.е= т1 и точной ковариацией Ь (,t, .-) , определяемой формулой Ь (t, т)= М (Xt -mд (X ,; -m,;)· Обозначим модель простого процесса второго порядка как (m, Ь), где ,со1 кращенно m= {т1}, Ь= {Ь (.t, т) }. Объединение простых процессов записывается: .J!t= VV (m, Ь), me:!JЛ be:!8m где множество 1JЛ называется собственным семейством средних, а множества !8m -собственными семействами ковариаций (в общем, вид которых может быть разным для разных средних m).Объединение (4.6) ведет к процессу второго порядка, задавае;,..10му средними М(� c;Xt.+ � � duXtt Xt .) = sup [� с;т1 .+ '' 1 me:!01 +� � dii m1. m1 .+ sup � � diib (t;, tj)].е(4.7) 1 ' Ье:!8 m Причем все ковариации семейств !8m должны но определенными в том смысле, что 2:;�с;с;Ь (t;, бом выборе отсчетов t; и коэффициентов с; конечных сум:ч. кажем, что такой способ задания процессов второго Jiяется универса.11ьным. Теорем а 4.1. Каждый процесс второго порядка эквива.;ентным образом может быть задан в виде (4.6) собственными выпуклыми се,иействами 1JЛ средних и !Вт, mEIJЛ, ковариаций. До к аз ат ель ст в о. Запишем ..1( = V ..1( m• где ..1( m=..lt /\ (m) есть m-.:eчe- mE!JJ} Jl'Re. Обозначим ..1( m, ь =..lt m /\<Ь) модель �pouecca с точным средним т 1 н точяой ковариацией Ь(/, -r), которая будет собственной, если пересечение непусто. Заметим, что (Ь) предполагает точное значение mt и имеет смысл лишь для m1-сечения Jtm. Так как Х1 есть процесс второго порядка, то его т1, а затем b(t, 't')-сечением будет Jtm. ь= (Jt;\(m));\(b)= (m);\(b)= (m, Ь), что соответствует простому процессу второго порядка. Обозначая !J'J m = {Ь: Jtm,ь* = �} и выражая Jt m2. Это дает описания двух простых процессов, составляющих Х1, а вместе задает модель Х, в виде объединения: Jl=.L1V.L2, где .L1= (т,, К1), .L2=(m2, К2). Тогда Ь1 (t, ,;)= miп {К1 (t, ,;); (m2 -m1 )2 + К2 (t, -r)}, b2 (t, -&)=min{K1 (t, ,;)+(m2 -m1)2 ; K2 (t, ,;)}, b8 (t, ,;)=b4 (t, -r)=max{K{(t, -r); K2 (t, ,;)}. Здесь Ь1 (t, -с) и Ь2 (t, -r) могут оказаться чуть завышенными по сравнению с минимальным из двух з.начений K1 (t, -с) и K2(t, -с), тем не -менее min{b1(t, ,;), Ь2(t, ,;)}=min{K1(i, ,;), K2(t, -r)}. Если все четыре ковариации равны О, то Xt и Х-.: называются нековариированными (см. (2.10)), что может быть следствием не только того, что в подчиненно-аддитивном представлении (4.1)случайные составляющие 6t, m при каждом mt некоррелированы между собой, т. е. Mm6t, m S-.:,m =0 (тогда Ь1 (t, 't')=inf (тt-т1)Х m Х (т,--:тt ) =0 и аналоrиqно для остальных ковариаций), но и того, что просто слуqайная составляющая отсутствует, т. е. Xi =m1, как ·в примере 4.3 сугубо-ограниченного процесса, о котором известно только, что его реализации не могут по модулю превышать некоторый уровень. Используем расширенное аддитивное представление ( 4.2): Xtc:: mt +6t• Так как 6t описывается объединенным по т -семейством U!8m, то границами ковариаций будут Ь (t, 't')= inf inf Ь (t, 't'), -mE!JЛ bE!5аm Ь(t, 't') = sup sup Ь (t, 't'). mE!JЛ bE!5аm Это будут расширенные границы, так как, в общем, �(t, 't') � min {Ь1 (t, 't'), Ь2 (t, 't') }, Ь (t, 't') � max { Ь3 (t, 't'), Ь4 (t, 't')}. Равенства имеют место, очевидно, при !Вm=!В, Vm, но не толькоо(см. пример 4.5). Рассмотрим связь ковариаций с корреляционными функциями:онижней .!_(t, i-) =МХtХт и верхней f(t, -т) = MXtX,:. На основанииорасширенного аддитивного представления имеем: r(t,-т)= inf mim1: +bm(t,'t)J� mtm1: +b(t,i-); [inf -mie!IЛ -mte!IЛ г(t,-т)= sup [mtm1: sup mtm1: +ii(t,-т). mte!IЛ mte!IЛ При t=-т получаем соответственноо МХ; � (IMI Xt)2 +� (t, t), МХ; � (IMI Xt)2 + Ь (t, t). Все эти неравенства заменяются на равенства при свободно-ад В этом случае точные з.начения корреляций r(t, i-) эквивалентны точным средним MXt=m't и точнойоковариации Ь (t, 't). Вообще ·при точных средних mt границы корреляции ·с поправкой на слагаемое mtm1: совпадают с границами ковариаций: r_(t, -т) =mt т1: +� (t, -т), ,-:-(t, 't) = mt т1: + Ь (t, 't).о Разложение процесса по базису. Смысл любых разложенийпроцесса сводится к упрощающей его замене дискретным набором коэффициентов. Пусть ej(t), j= 1, 2, ... , есть система ортонормированных функций, заданных на отрезке [О, Т]: S ei (t) ej(t)dt={,н= {0о1, l= /· Здесь и �далее интелрал от О до Т -по мере-.длине. Функцииоej(t) являются координатными <<осями» Гильбертова пространства22 всех интегрируемых с квадратом функций: 22 = {ct :J C2tdt<о< оо}. Скалярным произведением в этом пространстве будет (ct;а1) = f Cta.tdt. В этих обозначениях ортонормирован1ность записы Система ej (t), j = если l, 2, ... , ортонормированных функций назы,J.ЛЯ любой функции CtE22 имеет место вается полной,равенство В этой формуле сумма внутри квадратных скобок есть разложение фуНJкции Ct ,в .ряд по ej(t). Полная ортонормированная система функций ej (t) называется базисом в 22• Например, базисы в 21. на i[O, Т] образуют: 1) нормированные полиномы Лежандра,о2) гармонические функции у 2/Т��� (2njt/T), j= 1, 2, ... , дополненные постоянной e0 (t)= =1/VT.Рассмотрим разложение процесса по базису 00 Xt = � Х (j )е1(t), Х (j)= f Xtei (t) dt, t Е [О, TJ. {4.8) j=I Считается, что множество W=.22 достоверных реализаций процесса Xt должно состоять из интегрируемых с квадратом функций. Свойства коэффициентов разложения будут полностью опреде.1яться свойствами исходного процесса. В частности, корреляционные свойства процесса однозначно определяют корреляционные свойства коэффициентов разложения, что видно из цепочки равенств, справедливых для конечных сумм: М [� ci Х (l) + � � di1 Х (i) Х (j)] = =М [� c1 f Xt e;(t)dt+ � � diJJ Xt ei (t)оdtx х s xtej (t) dtJ= м [J Xt g(t) dt+ s s Xt 't h (t, ,:) dtd,:J = x = lim М [ � xt g (tт) (tт+1-tт)+ т IЛtl➔O т +� � Xtm Xtn h(tт, iп) -g{Xt+1 J=g,: {Xt }E�, \f,;; 2) .М g {Xt }= М g {Xt+1J, \f g е �, \f,;. Примером однородного является процесс, определенный пос МХ1=т, MX1=ifi и текущей мощности MX2t = r, MX2t = f. Первичный Йабор здесь ,создают всевоз :можньiе отсчеты процесса И ИХ квадраты: � = { ±Xt, ±X2t, -оо < < t < оо}, и видно что этот набор не меняется при сдвигах ;во .времени, как и средние на нем. Объединение и пересечение однородных процессов приводят к однородному процессу. Сужение же может привести к нарушению свойства однородности, поскольку внутри однородного процесса существуют неоднородные составляющие, которые могут «выскочить» при этом наружу. Любой процесс Xt расширением (,«забыванием» его неоднородных особенностей) может быть приведен к однородному процессу Yt. Для этого нужно положить .Мf{У1} = sup Mf{Xн't}, -oo<'f (t), то процесс будет уже только частично {±х, ±х2}-однородным, а среднее и мощность его однородные параметры. Процесс, корреляционные свойства которого не меняются В() времени, называется однородным в uщроко,,t с,нысле. Д.1Jя такого процесса тождественно по 't Это частично-однородный процесс, но если других кроме корреляционных данных нет (т. е. процесс второго порядка), то он однороден в общем смысле. Рассмотрим однородные процессы второго порядка. Собственное •се:v�ейс11во !JЛ ,средних для них не должно меняться при •сдвигах во времени m1Е!JЛ*тн,Е!JЛ, V't, и то же самое можно сказать о •собственных ,семействах ковариа,ций: Ь (t, t') Е�т, *Ь (t+'t, it' +'t)E2:lnit+1:· Границы ,ко.вариа�ий должны зависетьотолько от разности аргументов: Ь (t, t') = Ь (t-t'), Б (t, t') = = Ь (t-t'), хотя, в общем, каждая из ковариаций собственногоо семейства, как будет видно, таким свойством не ьбязана обладать.о Детерминированная функция с1, рассматриваемая как процесс с единственной возможной реализац11ей, будет однородна, если только эта реализация есть тождественная постоянная с1 ==m. Процесс второго порядка, определяемый точным средним т1 и ковариацией Ь (t, t'), будет однородным, если только среднее постоянно: т1 = т, а ковариация зависит от разности аргументов: Ь (t, t') = Ь (t--t'). Назовем такую ковариацию однородной. Ра,ссмотрим сечение одrнор,одного процесса Х1 точным средним т1 и ковариацией Ь (t, t'), записав следующим образом: .,f,tm ,Ь = .J/tt Л (m, Ь). Сечение мо.жет быть непv,стым, даже если т1 за•висит от t и ковариация неоднородна. -Следовательно, для однородных процессов в собственные семейства !JЛ и 2:lm входят, в общем, неоднородные функции т1 и Ь (t, t'). Отсюда однородный процесс складывается и из неоднородных состав.1яющих. П р им ер 4.6. Од н о р од н ы й п р о ц е с с п ер в о r о п о р яд к а. 1 lусть однородный процесс Xt задан постоянными границами среднего: М.\, = � МХ1 =ifi. Имеем процесс первого порядка. Для .него м LCiXt ,= � с;т+ � с;т. ciV {Xk, Xk, k= I, 2,.•. }= м <р {i/; J Xtsin (k 2; t) dt,о if; J xt cos ( k 2; t) dt, k = 1, 2, ... } где <р -функционал в пространстве значений коэффициентов Фурье, а f,p -его изображение в пространстве реализацийе(см. .§ 2.1). Если ограничиться рассмотрением только корреляционных свойств, то точным средним mt и ковариациям Ь (t, t') процесса Xt будут соответствовать точные средние ,msk, mck коэффициентов Фурье и точные их ковариации, определяемые выражениями: ,. т ь;; = � S т о о т о о т т � S S Ь (t, t') cos (k 21t t) cos (l 2:rt t') dtdt'. Ь�1 = т о о т т Обозначим матрицу этих коэффициентов через ВФ . Собственным семействам средних !Dl и !В m ковариаций процесса Xt будут соответствовать собственные семейства средних !JЛФ = =SФ!JЛ, где SФ -обозначение преобразования Фурье, и матриц !ВФ, m ковариаций в пространстве коэффициентов Фурье. Это соответствие взаимно однозначно. Перейдем к тому случаю, когда Xt есть ст а ц ион ар н ы йев ш и р о к о м см ы с л е с к в-:н е п р ер ы в н ы й п р о ц е с с, полагая для про,стоты MXt =O. Тома все функции собственного семейства !8 будут непрерывными, зависящими от разности аргументов, а ковариации коэффициентов Фурье будут равны ьscki = •=О -это для перекрестных синус-косинус, а для совпадающих.уже не будут нулевыми и для отдельной Ь (t-t') Е!В записываются:е T ьs:z 2 Sе1е(k + l):rt't • (k -l) 1t (Т-,:) ± = -Ь ( ) [--COS -'---'----"-SIП -'----'----'-- bkl :rt о 't k-l т т 1 (k-l) 1r,,: ·пе(k+ l):rti: -'---'---'-- ± --COS ---'---S1 J d't , k =1= l; k+l Т Т ss се [ T-i: 2k:rti: 1 'е bkk = bkkе= 2 b(-r) -т-cos--d-r+o (т ) 6 т Из данных выражений видно, что при Т-+оо и k2n/T-+ro имеет о .называется энергетическим спектром процесса, а бk1 =1 при k=lе и О при k=/=l. Каждой точной неотрицательно определ·енной кор реляционной функции Ь (t-t') соответствует энергетическийспектр В (ro), обладающий свойствами: В (ro) � О; В (ro) = В ( --ro) ; В (ro) -+ О ; 2 00 J В (ro) d ro = Ь (О). lro(➔oo О Собственному семейству !В ковариаций, таким образом, ставится в соответствие собственное семейство энергетических спектров. Рассмотрим следующие спектральные преобразования процесса: т "1-т .. ; х�.т = V ; { xt siп (j) tdt, х� т = V ; [ xt cos rot•dt. . Здесь (j) называется част от ой, а Х8 оо,Т и хс ,т -спектральными составляющими процесса. Очевидно, Х82лk/Т, теrо = на основании чего можно сделать вывод, что спектральные со.ставляющие X8ro,7' (f)E.fR, ДаЮТ ОПИСаНИе На ИНТервале (О, Т) скв-непрерывного •процесса. Задать модель .JI{ процесса Xt -все равно, что задать соответствующую ·ей модель в частотной области при -00<<0<00, где процесс Xt, O�.f� Т, заменяет,ся на пару процессов Х8 00 ,т,Хс оо ,т, которую удобно записать в комплексном виде Хro,т = Х � т+ j Х� т= -. f 2 { ХI ехр (j ro t) dt . . у т о и называть спектральным двойником Х1. Это комплексная функция ro. По формуле (4.11) можно, зная спектральный двойник, о:днозначн,о -,и Хоо ,т эквивалентны. восстановить Xt, поэтому Х1 Спектральные процессы. Понятие спектра процесса имеет под .собой твердую физическую основу и защищено с практической стороны экспе1рИtментами, а ,с научной -теоремой Винера Хинчина. Мы дадим отличающуюся от классической математическую интерпретацию спектра -ту, которая логично вытекает из наших построений для стационарного непрерывного процесса. Понятие спектра так или иначе предполагает бесконечное время, поэтому пусть процесс задан на ,[О, Т] и Т-+оо. СчитаемMXt =0. Спектральный двойник Хrо,т, рассматриваемый при каждом фиксированном ro как последовательность индексированных параметром Т случайных величин, при Т-+оо не является скв-сходящимся ни к какой предельной случайной величине; скв-предела не существует. Но это не столь важно. Важно то, что для стационарных процессов «перекрестные» корреляции между разными частотами при Т -+ОО стремятся к О, а именно, верно следующее: . * lim М(Хrо,т Хrо,.т) = 2 В (ro) «50 (ro-ro'); - Т➔оо -. * - lim М (Xro, т Xro', т) = 2 В (ro) «50 (ro -ro'), Т➔оо где В (ro) = inf 2 J Ь ('t) cos ffi-т:d,:, В (ro) = sup 2J Ь ('t) ,cos ro-т:d,:, а -Ье'5 0 ье5 0 6o(ro-ro') есть 1 при ro=IO)', иначе О. Отсюда видно, что к ну.1ю стремит�ся корреляция между действительной и 'М'НИ'.\l!ОЙ частями спектральною двойника. Обозначим Хш процесс, обладающий предельными при Т -+ОО· корреляционными свойствами процесса Х(/) ,т, и назовем его спектральным процессом. Согласно написанным выше соотношениям для спектрального процесса имеем следующие определяющие его равенства: мхе хе = мхs xs = мхе xs = мхе xs = о О) -J... ro' (4. 12)е ' -т-• ш ю' ю ro' ro <0' m ro Корреляционные свойства ХО), ,е учетом (4.12) приводятся к виду 8((1)) где В ( ,(j)) способствуют собственному семейству кова риаций. Отсюда = М [(Х�)е2 -(Х�)2] М [(Х�)2 -(Х�)е2] = О.е(4. 13) Из полученных уравнений видно, что для задания модели спектрального процесса достаточно задать либо Mici (Xc(/)i )2, либо M�ci (X8roi )2, либо М � ci / Х.(1)е1 /2 = sup � c·i В (roi), 'r/ roi . (4. 14) B((I)) Доказано такое утверждение. Спектральный двойник Хrо ,т скв-непрерывного стационарного в широком смысле процесса Xt с нулевым средним при Т-.оо ИМ-сходится в направлении корреляционных свойств ·к спектральному процессу Х(/), заданному первичными значениялщ (4.12), (4.13), (4.14). Констатируемая утверждением сходимость является необходимым условием стационарности в широком смысле -скв-непрерывного процесса. Но не достаточным, так как спектральный двойник процесса, являющегося нестационарным лишь в некоторой локальной области времени (пример: Xt = mt+st, где st стационарен, а mt -любой урезанный вне фиксированного интервала процесс: mt= O при ltl>To) и -стационарным на остальной временной оси, также будет сходиться к Xli) . Необходимо отметить, что спектральный процесс Xli) , определенный первичными значениями (4.12)-(4.14), в общем, не имеет аналога во временной оси, поэтому его нужно рассматривать как: 1)еспособ задания предельных (при Т-.оо) корреляционныхе ,евойств исходного стационарного в широком смысле процесса Х1; 2) самостоятельный способ задания не существующих, но удобных в каком-то смысле процессов (как белого шума, для которого B(ro) =const и для 1<0торого аналогов во времени даже впредельном смысле нет). Одним из основных достоинств перехода к спектральному процессу является простота и наглядность его пересчета при однородных линейных преобразованиях, о че�1 речь в с.педующем параграфе. 4.4. ЛИНЕЙНЫЕ ПРЕОБРАЗОВАНИЯ ПРОЦЕССА Гладкость преобразований и непрерывность процессов. Линейны�tи называются преобразования впда т Yt=J h(t,-r)Xтd-r, (4.15) о где h(t, т) есть импульсный отклик фидыра, т. е. его реакция надельта-скачок на входе в момент t; У1 -процесс на выходе, еслиона вход поступает Xt. Считается, что реализации процесса интегрируемы с весом h (t, -r). Многие процессы обязаны своему виду и свойствами линейным преобразованиям, вызванным характерной: для систем наблюдений и измерений инерционностью среды, устройств и звеньев.И чем больше инерционность фильтрующей системы, чем У1едленней меняется h(t, -r) по -r, тем плавнее, глаже будут пропускаемые на ее выход реализации У1 в силу способности такой системы нивелировать скачки и быстрые колебанпя входного процесса.Сказанное подтверждается неравенством IYt+лt-Ytl = 1 { [h (t+Лt, т)-h(t, -r)] Хт dтl � т � (max IХт /) J lh (t+лt, т)-h (t, -r)I dт, о из которого видно, что при ограниченном входном процессеmax\Xтl �Н скорость из!.1.1енения выходного за промежуток Лtоопределяется тем, насколько отклик ф�шьтра изменится, еслидельта-скачок на входе сдвинуть по времени на Лt. Поделив обе части на Лt п устремив к ну.1ю, получим неравенство для производной т /dY/dt/ � (max IХ1 1) J /dh (t, -r)/dtl d-r. о Такое же неравенство верно и для старших производных. Расчет выхода фильтра. Расчет моде.rш процесса Yt, опреде•ляемого в (4.15), производится строго -по общей ,методике § 2.1.Сначала выявляются h-представимые признаки входного процес 188 са, т. е. записываемые в виде функционалов g{J h (t, т)Хтdт} = =gh{X}. Для них рассчитываются средние Mgh{X}, и они же напрямую переносятся на аналогичные средние Mg{Y} процесса Yt, в совокупности своей и определяющие его модель. Проследим этот путь на примере входного процесса второго порядка. Первичными для него являются средние .111нейно-квадратичных признаков, записанные в интегра.'Iьном виде -[J J ' -. М Ct(k) Xt dt+ SXt Dt.t' X1,didt] =mh , k= 1,2, ... , или •СОКiращенно для левой части: М(с<11 >, D(h>) =mh , k -11омер первичного признака. Первичные значения и определят по формуле согласования и продолжения средние от любых пар .М (с, D),составляющих все вместе корреляционные •свойства. Из них h-представимые признаки, т. е. допускающие записьо = CtJ h (t, т)e-r: dт, Dt,t' = J J h (t, т) H-r:,-r:' h (t', т') dт dт'о или -сокращенно (по анало,гии с векторной формой) (с, D) = (he,hHh), определят модель выходного процесса своими средними -у -х М (е, Н) = М (с, D). Напрашиваются следующие вы в оды. 1.о При линейных преобразованиях процессы второго порядкаопереходят также в процессы второго порядка, т. е. корреляционные свойства в корреляционные свойства. 2.о Если все первичные ·прпзнаки входного процесса второгоопорядка h-предста.вимы, т. е. (c) = (he, hнh), k=l, 2, ... , то первичными для выходного процесса будут (e, H) с теми же средними. Тогда входной п выходной процессы будут подобными. 3.о Если преобразование обратимо в смысде существования отклика h-1 (t, т) обратного фильтра, опреде.1J.яемого уравнением J h (t, т)h-1 (t', т)dт=б (t-t'), то преобразование наводит подобие между процессами Х1 и Yt, Линейные преобразования можно изучать с помощью подчиненно-аддитивного представления: X1о= m1+st,m, где для проuесса второго порядка слагаемые опреде.1яются собственными семействами средних ЭЛ и ковариаций �m (см. (4.6)). Тогда такое же представление будет иметь выходной процесс, записываемый = YtJ h (t, т)m-r: dт+ J h (t, т) 61:,m d-r=nt+'l'Jt,n и рассматриваемый как отдельное прохождение через фильтр среднего и случайной добавки, что и определит нам собственное семейс1'ВО с.редН'ИХ 91 и ко•вариаций � n на выходе: !Jl = {nt: nt= J h (t, 't) т,; dт, т,; Е !lD}, 5'n = {Kn (t, t') = s s h (t, 't) h (t', 't') ь ('t, 't')d'td't', ь Е !8m}· Они и определят полностью выходной процесс второго порядка" по ним могут быть рассчитаны корреляционные свой-ства. Но расчет легче дается использованием собственных семейств входного процесса, что и продемонстрируем на примере. Пример 4.8. Расчеот гр а.ниц ковариации. Пусть Х1=т1+§1, где Ms,=0 и s1 свободен от т1, в резулъ'Тате чего !8m =!В, Vm. Пусть также отклик фильтра неотрицателен h(t, ,;);;;;.о. Тогда границы ковариаций выход• ного процесса рассчитываются как максимум по вх-одным K(t, t')=JJh(t, -r:)h(t', ,:')!(-r, ,;')d-rd,;'. Пусть однородный процесс второго порядка (для него Б(f, t')=Б(t-t')), имеющий конечный интервал 't'кор корреляции (т. е. 6 (t-t')-;,O при It-t' 1 > >tкор), пропускается через инерционный фильтр такой, что отклик неотрица телен h(t, ,;);;;;.о и как функция переменной ,; мало меняется за 't'кор: h(t, -r+ +t,wp) �h(t, ,;). Тогда границы ковар,иаций: выходного процесса будут пол•оностью приобретать черты линейного звена, как это видно из следующегооупрощения .предыдущего выражения:о K-r)d-r. -оо Как и для всякого стационарного процесса, выходной спектральный процесс задается некоррелированностью его действительной и мнимой составляющих (4.12), равенством их мощностей (4.13),а его особенности (4.14) отражаются следующими корреляционными свойствами (записанными в интегральном виде): -оо С позиций собственных ковариаций правая часть равна 00 /Н• 00 8(00) -оо где E(ffi) -преобразо·ва-ние Фурье от Ь(т) и супремум берется по соответствующим собственному семейству спектрам. Например, Х1 был о;лределен r,раницами .В(u>) энергетического спе•ктра, то У1 будет ,определен границами lfiool2B(ffi). Нетрудно видеть, что если В (ffi) -широкополосный спектр, а \йоо/ -узок, ТО lfioo/2 B(u>)�B(u>o)lfioolо2 =y2 lfi1ol, где u>o средняя частота «настройки» фильтра, т. е. выходные 'Свойства определяются только видом фильтра с точностью до энергетического множителя. Любой стационарный процесс второго порядка (с нулевым средним) может быть представлен как результат линейного преобразования некоторого «стандартного» процесса Z(t), имеющего заданный ненулевой rпри каждом ro спектр B0 (ro) >0, ·с помощью фильтра. В самом деле, выходной процесс будет определяться следующим семейством энергетических спект ров: Stю = {К (ro) = /Йю /2 В0 (ro), Йю Е S')}, и всегда можно подобрать такое множество S') частотных характеристик фильтра, чтобы получить заданное собственное семейство !8. Стандартным может быть любой формальный спектральный процесс :iw, заданный своим энергетическим спектром. В частном случае, если им являе тся «белый шум»: Bo.(ro) =Ьо, то IRw/::е= =K(ro)/b0 и тогда с точностью �о ,постоянного коэффициента се мейство !Вw идентично i>. Отметим, что «белый шум» как спектральный процеос :i00 не только не имеет аналога во вре:!'>1енной области, но не является в пределе спектральным двойннком никакого реального процесса Xt. Однако он определен сю.1 по ,себе в частотной области и дает удобную форму для представлений других процессов. Узкополосные процессы. Получаются при фильтрации ширс,!;ополосного стационарного процес-са узкополосным фильтром, :,астроенным на среднюю частоту ro0• Импульсный отклик фильтр..\ с узкой полосой частот пропускания записывается h (t-t')= Н (t-t') cos [ro0 (t -t')+ер], где H('t) -огибающая, медленно меняющаяся по сравнению с периодом 2n/ro0 частоты настройки. Подстановка отклика в (4.11:i) убеждает, что все собственные выходные ковариации обязате.'Iьно 1 К ('t) � 2 у2 J Н (t) Н (t+ 't) dt cos ro0 't = V2 КO ('t) cos ro0 't,е к включающему колебательный множитель. А пос-оль.ку точно таки.ми же 1ко,вариация,ми обладает представление Yt = 11; sin ro0 t+11f cos ro0 t, где 'l'Jct и Ч8t, называемые когерентной и квадратурной составляющими процесса, некоррелированы, стационарны, имеют нулевые сред,ние и 1ковариацию y2Ko('t) прихо,д;им к выводу, что любой узкополосный стационарный процесс в комплексной форме заппсывается 1\ = �t ехр (-jroo t), �t = 'l'Jf + j11; , где �t -комплексная огибающая процесса, а сам процесс У1 равен действительной части Yt: Yt= Re Yt. Такое представление широко используется в статистической радиотехнике и при обработке узкополосных ·сигналов. При переходе к спектр3:льным процессам указанная запись запись превращается в Yw= 'l'Jw_(iJ0 • 4.5. ЗАКЛЮЧЕНИЕ Процесс -это явление, исходами которого являются реализации непрерывного времени. Современная теория знает разные к описаниям случайных процессов. Самый общий, состоящий в процесса согласованным.и между собой многомерными распределениями вероятностей, оказывается сложным, неэффективным и трудноприменимым. Исключение, пожа�1у!1, составляют нормальные процессы, и то из-за их близости к другому подходуопределению процесса его корреляционными свойствами. Корреляционный по.:�:ход прост в понимании, полагается на фиэичес.кую природу инерционности процессов, интерпретируется через спектр и находит широкое применение во всех областях. Еще один подход состоит в использовании функциональных преобразований стандартных процессов, обычно белого шума (так задаются диффузионные процессы), и занимает промежуточное положение между указанными двумя. Всем классическим подходам свойственны абсолютно завершенные rю детализации конструкции: если известны вероятности, то вся совокупность, то же с корреляциями. Все же в самом существовании корреляционного подхода и его успехах усматривается тенденция вынужденного отхода от абсолюта в сторону упрощений, 1160 корреляции суть лишь составная часть, тол1и.ка всего необозримого арсенала вероятностных свойств. Требование дальнейших упрощений вызывает необходимость открыть простор любым частичным, сокращенным описаниям, заданиям процесса его отдельными свойствам,и, и не обязательно в точном, а можно в ,размыто).!, интервальном виде. Незавершенные для классической теории, такие конструкции оказываются совершенно законченными и строгими, даже естественны�ш. для интервальных моделей, где любые вероятности, ,корреляции, моменты {точные .или интервальные) как фрагменты средних, если их принять за первичные, уже как-то определяют процесс, причем чем в меньшем числе, тем проще. Сохранение обязательных, наиболее видимых, характерных черт и «забывание» всех второстепенных доводит сложность описаний процесса до уровня, мало отличающегося от моделей явлений с простыми исходами (типа дискретных и непрерывных случайных величин, последовательностей) и к ним нередко свод1Ится. А для этого требуется направленный подбор признаков, которы�ш служат функционалы на пространстве реализаций, и задание их средних. Таковыми для импульсной помехи могут быть вероятности превышени�"1 одного и.щ сет,ки уровней. Для процесса, рожденного инерuионным устройством, характерными являются частично известные корреляц.ии, интервал корреляции, свойства непрерывн·ости реализаций и т. п. Любые желаемые черты при соответствующем навыке переводятся на язык первичных средних. Новый подход требует пересмотра некоторых положений современной теории. Так, не всякий процесс записывается как ,сумма его среднего и остатка, а верны более 9бщие аддитивные представления (конец § 4.l). Необычно определяется коварнацня, если среднее интервально. Используются и известные приемы. Так, процесс, заданный корреляционными свойствами (второго порядка) , ,представляется семействами точных собственных средних и ковариац:ионных функций. Упрощение структуры описаний может достигаться за счет евойств процесса во времени, что позволяет, задавая средние при начале •отсчета, перенести тем самым 7--15 193 число первичных данных. Сказан,ное охватывается понятием однородносm продесса как инвариантности во времени -внешнего облика в виде первичных средних, а отсюда и всех остальных. Значительно более тонким и сложным оказывается понятие .стационарностя как сохранность во ,времени внутренней, подчас незримой ма�:кроструктуры модели процесса. Стационарность позволяет перенести процес.с в спектральную область, и не столько перенести (так как это можно сделать и для других процессов), сколько выделить простые свойства спектра, особенно полезные в задачах с'Гационарной фильтрации и при описании процессов через спектральные двойники. Спектральные опнсаНЗfя в такой степени автономны, что позволяют 0адавать вырожденные процессы типа белого шума, не являющиеся ничьими двойниками, но .крайне удобные для представлений свойств других, вполне реальных процессов. Часть вторая. Статистический ,синтез Глав а 5. ТЕОРИЯ ПРИНЯТИЯ РЕШЕНИЙ 5.1. СТАТИСТИЧЕСКИЕ МОДЕЛИ Что такое математическая статистика? В любой деятельности, будь то 1производство, социальная сфера или быт, приходится принимать решения. В последнее понятие вкладывается научный смысл, причем значительно более объемный, чем обиходный. Считается решением, во-первых, ответ на вопрос, каково значение интересующего нас параметра, определяющего положение объекта или состояние системы, тогда имеем задачу оценивания параметров. Например, определение дальности до цели. Проблемой оценивания охватываются решения, преподносимые в форме интервала (интервальные оценки) и вообще в виде нечеткого события (расплывчатые оценки). Такое оценивание называется доверительным, когда расплывчатость служит гарантом надежности. Во-вторых, решение -это непосредственное выделение значе ний некоторой физической величины в ее течении во ·времени, тогда имеем задачу фильтрации. В-третьих, решением будет выбор одной из двух гипотез типа есть цель или нет, параметр ноль или не ноль, быть или не быть и пр. и пр. В-четвертых, это проверка одной из многих гипотез, например, в каком из нескольких рабочих (частотных) каналов присутствует сигнал, кто из представленных для опознания есть преступни·к, на ка;кую отме11ку -знает студент, сдающий экзамен, и т. д. Если это есть выбор одного из дискретного набора значений числового параметра, то при сближении дискретов и, соответственно, увеличении их числа задача проверки гипотез сближается с оцениванием, так как решение будет все больше с�юдиться к выбору конкретного значения параметра. Таким образом, общая проблема принятия решений распадается на предметные области, которые между собой тесно соприкасаются. Что же необходимо для принятия �решений? Пищу для решений дают наблюдения, так или иначе связывающиеся с интересующими нас параметрами состояния системы. Если искомые параметры можно наблюдать либо измерять напрямую, то проблемы нет и мы получаем абсолютно точный результат. Jlучшего не может быть. Труднее, если наблюдения косвенные, искажены погрешностями, помехами, измерения неточные и результат завуалирован шумами. Тут-то и возникают потребности в статистических методах. 7* 195 Само по себе прилагательное «статистический» означает, что используются усредненные по многим наблюдениям данные, свое го рода собирательный среднестатистический опыт. И новизна -нашею nQДхода по сра.внению с ;классическим .в том, ·что оформ ляется этот опыт в виде интервальных моделей средних, что поз воляет охватить практически самый разноликий статистическийо материал в е-го ·бедности •и богатстве, с ,учетом формы, объема,о неопределенности и степени доверия к нему.о Сами решения в статистических методах имеют статистическую окраску: они не обязаны быть совсем точными всегда, раз это невозможно сделать однажды, но в среднем должны приводить к наилучшему результату. Это и есть основная задача статистических методов -оптимальный синтез, которому посвящена вся вторая часть книги. Математическая статистика -наука ана.'шза решающих правил и их синтеза -имеет давние традиции, корнями ух<;щящими -в историю теории вероятностей. Р,осли эти две нау�ки вместе, подтягивая друг друга. Математическая статистика давала пищу теории вероятностей -требованием освоения новых моделей, развиваяодля них методы. И в результате бурного совместного роста, обяза'нного ХХ веку, -мы оказались перед поразите,'lьным :разнообразием. моделей и методов. Доходило дело до абсурда, ·когда исследователи сначала -придумывали на основе здравого смыслаоправила, а затем «н-а:водили нв. •них наукообразие», по�Цы,ж•и,ваяомодели, для которых эти правила оптимальны (если это и естьоспособ оправдания, то лишь своего существования). А потреби•отеля.м ·ничего не ,оставалось, ка·к верить или деJ1ать вид, •что ве;рят,оследуя известной .сказке про голого короля.о К-ор•ни подобных абсурдов лежат в т,ом беспрекословном подчинении, незримом фатализме, с которым выбор модели обуславливает метод синтеза и в итоге вид оптимального решения. И еслиопользоваться арсеналом точных моделей, то их кажущееся многообразие, с одной стороны, и ненадежность с другой -порождаютоодинаковое сомнение в вариантах выбора, делают равноценнымиосовершенно разные модели, тем самым обезличивая оптимальныеопроцедуры решений.о Напрашивающийся ,выход состоит в расширении apceнa.JJa моделей, дополнения его простыми, грубыми, надежными моделямиодля удов.'lетворения спр-оса такими, ;которым -вполне мож-но и нужно доверять. Не набирать I(аждый раз модели как семейства точных, поскольку это долгий путь, а иметь готовые образцы на всеослучаи жизни -вот наша цель! Принципиадьно то, что в реальных задачах данных всегда конечное число и они не могут бытьоабсолютно точными. Именно таковыми являются основные развиваемые нами модели, обретая потенциальную надежность воущерб утерянной точности. И именно в этом заложен смысл подготовленных нами алгоритмических методов, ориентированных наоконечное число даНJных, а n-р·и неограниченном увеличениио рассыпающихся в «фейерверк» современных аналитических мето дов (так или иначе находящих разумное свое обоснование в рам ках предлагаемого общего •подхода). Новые модели пригодны для любых •«климатических» условий: «переносят» как изобилие, так и дефицит исходных статистических дaHHI!IX, работают в условиях статистической неустойчивости (отраженной в интервальных средних), а также при частичном и полном отсутствии статистических данных. При этом в рамках индикаторных моделей интервальные ,средние могут подменяться указаниями интервалов, допусков на наблюдения, приближая нас к интерва.1ьному анализу, и в этом плане теория еще ждет своего ,развития. Статистические интервальные модели. Приступим к строгой математической формулиро·вке проблематики. Задача состоит в обработке наблюдений yEu/j с целью подготовки данных и вынесения решений относительно состояний xElC объекта или явления. Примером состояний может быть наличие либо отсутствие сигнала, скрытого шума, направление или дальность до цели и т. д. Переменную х будем называть параметром состояний. Область lC значений х, в общем, весьма произвольна: дискретное множество, векторное или функциональное пространство и т. п. Предмет матема11ической ,статиспl'КИ ,возникает тогда, ко•гда прямое наблюдение за состоянием х либо невозможно, либо затруднено наличием внутренних и.11и внешних случайностей. Чтобы задача имела смысл, от состояний х должны зависеть овойства наблюдений yEu/j, и тогда у будет описываться не одной, а семейством моделей .JltYоx, xElC. Это есть переходные модели, эквивалентные некоторому случайному оператору Q (каналу), в соот Q ветствии с ,�оторым le-u/J. Само состояние х также, в общем, априори описывается моделью .;Jtx, так что .JftY=Q.Jltx. Произведение .;JtxY=.Jftx.Jltvx дает ,совместное мате:11атическое описание исходов на и// и значений ин тересующего нас параметра х состояний. Совместная .;Jtxv называется статистической интервальной лtаделыо (СИМ). Статистическая 11нтервn.1ьная модель .;Jtxv в зависимости от того, распадаетсq ,--:на на произведение .;Jtx.;Jtv�, нет, называется соответственно разложи.мой и Различие между ними состоит в способе формирования модели. Для неразложи:-.1ых это делается с помощью первичных средних Mg(x, у), gEW, содержащих данные о сою1естном поведении х и у. Эти средние могут быть найдены экспериментально, когда состояния х находятся вне нашего в"1ияния, так что можно лишь пассивно следить за значениями х и сопровождающими их реализациями у. Разложимые модели являются резулыато::-,1 анализа поведения наблюдений у при 1<аждом xElC в отдельности. Они будут иметь место тогда, когда на этапе формирования модели можно управлять значениями х состояний. Поясним разницу между моделями на примерах. Пр и м е р 5.1. Пусть синтез модели осуществляется на основании повторного совместного наблюдения x и y, n= 1, ..., N, при этом собираю1:ся сведения о ,сред-них значен,иях признаков g(x, у)е$. Далее усреднен•ием границ на:,юдятся первичные значепя l N Mg(x, у)=-�g (x, у<п>)-Л; -N n=J l N Mg (x, и>=-�g(х<п>, у<п>)+л.е N n=I В этом случае СИМ получается неразложимой. Если же имеется возможность управлять состоя-ниями х и набирать статистику о среднем MY"g(y) при каж дом значении хЕfВ, то будут получаться доверительные границы �Y.,g(y).MY.,g(y), задающие п.ереходные модели разлож.имой СИМ. Пр им ер 5.2. Пусть состояний всего два: Хо и Xt, и каждому из них соответствует своя модель .КУо и .К1J1, интерпреmруемая как семейство точных распределений вероятностей f/JY: .,к11,.V fJJ11, х=хо или х1. Тогда если = ,'!РУ е .Jt�9'Р могут выбираться произвольно внутри .КУ" вне связи с тем, равно хе=х" или Х1, тогда Mf(x, у)=Мх [бх0 (х)• sup M'!J,f(x, у)+бх,(х) sup M�f(x, у)]8'c.Jt\ flPc.Jtf и имеем разложимую СИМ, причем .,КУ" =.Кllo, ,ЯУ., , =.К111, Если же fJJ111 из .К111 0 каким-то обр азом подчннены 9'110 из .кuо, так что выбор одного распределения вынуждает вид другого, то, обозначая связь f/J111=SfP110, получаем - -1' -у -, Mf(x, у)= sup М [бх (х)М.'!Р f(x, у)+бх (x)Ms?P f(x, у)]. 8'oE.Jti о о • . О В этом случае СИМ сужается и становится неразложимой. Параметрами состояний могут быть средние характеристики случайного объекта или явления, ,скажем x=Mq (у), где q-некоторая функция. Тогда .lf{Yx суть Мq-сечения из представления: XEfC и f-C= {х: .lf{Yx =#:0}. Модель разлагается на произведение .lf{XY= =:J'X.lf{Yx, где ::,х есть голая на ?,С модель. Это произведение эквивалентно следующему порядку вычисления средних: Mf(х, у)= =supMYxf(x, у), и соответ,ствует полному отсутствию априорных х данных ох. Одним из способов возможных упрощений СИМ является ее расширение, так как этот способ видоизменения СИМ не ухудшает ее надежности (а скорее наоборот, в отличие от сужения). Например, расширением неразложимая СИМ может быть приведена к разложимой. Вообще расширением можно свести СИМ к любой из за;ра·нее выбранных упрощенных форм. Вопрос в том, к •каким nотерям точности это приведет, так как при не удачно выбранной форме приведенной СИМ расширение может обратиться в «раздевание» в•плоть до голой модели ;Jxu, 'Следовательно, к потере любых данных как относительно х, так и у. Приведение возможно и к другим формам, о которых пойдет речь, и задача инженера-исследователя -подобрать т·акую, какая ближе всего стоит к решаемой задаче с целью составить наиболее экономное описание. Функциональные представления наблюдений. Одной из форм задания СИМ является функциональное предста,вление вида У= Vx s, х Е /!С, у ЕG/f, s ЕЕ, (5.1) s -некоторое случайное явление, называемое флуктуация ми (либо шумом, помехой), а V есть оператор связи у с х и 6, отображающий произведение •пространств f&XE в оУ-В этом случае достаточно совместную которая вместе с V однозначно ·определит СИМ Jtxu. ния (5.1) будут ощутимы лишь тогда, когда простой форме являеrея Jtx, (или без особых потерь в расширении ее удастся , упростить). Например, когда Jtx'f.=JtxJt;, т. е. флуктуации s свободны от х. Можно заранее выбрать оператор V и расширение,м свести СИМ к виду (5.1). Тогда возникает вопрос о ,правильном выборе V, извлекающим из s все отличительное, что только требуется с мешающими параметрами. В определенных задачах выделяют та,к называемые мешающие параметры 0Е0, считая СИМ Jt0хи подчиненной 0. Если 0 может быть любым внутри 8, так что а·приори его модель является голой Jt8,=!78, то введение 0 эквивалентно представлению СИМ в виде объединения .кхи= =VJtвxY. При этом СИМ будет также частной к произведению в _,К8ху =;!/8 J{ ху_ 8 Мешающий параметр может входить в функциональное пред где он отражает неизвестные данные об операторе V. имеет смысл только вместе с упрощающими предположениями о совместной модели 0, х и s, :что рассма11ривается ,в примере. Пример 5.3. Пусть имеет место представление u1 = e+,(x1+sе1), гд е есть сигнал, передаваемый по каналу связи; &t -аддитивный шум. мешающий параметр 0+1 ;;;:,,О отражает замирания в канале. В случае .независимости совместная модель запишется ..КВ:r'f.=..КВХ L"' X.L'f.. Если сведения о нет, но имеет место свобода s от 0 и х (означающая, что шум «подстраиваться» под значения 0 и х в рамках Наконец, возможен и дру параметр 0 может такmчеСJКи Получаются заданием или интерпретацией :моделей семействами распределений вероятностей, оформленны ми как некоторые окрестности в пространстве распределений. Так может описываться и сама по себе СИМ, и модели флуктуаций (или параметра ,состояний) в функциональном пред-ставленин наблюдений. Задает,ся семейство .,1( = V g, в виде метрических ограничений типа {.о/>: d (.о/>, .о/>0)� 8}, где d -�«расстояние» от распределения вероятностей g, до «центра» g10 • gJ, отстоящих от g,0 не более, ,чем на 8. Разные метрики d ведутк разным семействам, разным моделям. Одно из распространен·ных семейств дают интервальные ,плотности: e(z), p(z) -•семей ство всех плотностей, располагающихся между нижней и верхней границами (здесь z заменяет переменные х, у или обе вместе). Выделим «центр» Ро(z) =i[e_ (z) + р (z)] /2, он формален (это мо жет и не быть плотность); тогда семейство {р(z) : Е (z) �р (z) � 2 Ча•стные варианты интервальной плотности, соответствующиер (z) !!!!:: оо, дает семейство •«засоренных» 1[ 11] распределений, эквивалентно представляемое: (1-е)ро (z) +ePv (z), где Po(z) -заданная, Pv (z) -совершенно неизвестная плотность, и тогда e_(z) =,(1-e)p0 (z). записывается через функции распределения: (1-e)Fo(z) +eFv (z), где F(z) -произвольна. По v нимается такая модель так, как будто с вероятностью ( 1-е) случайный исход z подчиняется заданному «чистому» распределению вероятностей, соответствующему Fo (z) (или Po(z) ), а с вероятностью 8 может быть все, что угодно, что и вызывает -<<засорение» чистых знаний и появление -семейства. Роба·стный подход имеет поддержку в виде теоремы 1.3 о представлении, по которой модели интерпретируются как семейства распределений вероятностей. И этот подход мог бы быть универсальным, если бы не огромные трудности, встающие напути описания метрическими ограничениями самых разнообразных семейств и свойств, особенно таких, как зависимость между случайными величинами внутри последовательности или процесса. Угроза ·получить громоздкий ком описаний вместе с вытекающими отсюда трудностями синтеза очень ограничивает сферу действия робастных моделей и методов. 5.2. ОПТИМАЛЬНЫЕ ПРАВИЛА Расплывчатые решения и решающие правила. Целью статистических методов является вынесение решений относительно состояний хЕ!В по наблюдениям у. Каждое решение есть некоторое суждение о состояниях. Это суждение может выражаться в де терминированной форме в виде указания конкретного элемента i пространства fJJ, так и в нечеткой форме в виде подмножеств f;C, или в виде нечетких событий q(х), ij (х) ( с. 88), где специфично для решений границы обязаны совпадать и обозначаются d (х). Решениями называются любые на пространстве состояний fJJ, описываемые XE'?lJ, такими, что o::::;;;.d(x)::::;;;l. Функция di(х)е-·изображеtние мнения относительно .возм.ожных х, выраженного •,юривой предпочтений разным значениям х по шкале [О; 1]. Это же при каждом х и степень уверенности, даже вероятности, с которой элемент х включается как возможный представитель решения. Множество всех возможных решений (всех функций о:::;; ,:;;;;;d(x)::::;;; 1 на fВ) обозначим Dv. В Dv входит решение d(x) соответствующее фразе: <<Какое-то состояние на fJJ имеет место». Туда же входят решения d(x) =А(х), Ac?lJ, ветствующие фразе: «Имеет место какое-то одно состояние множества А на fJJ». В случае ?1J =91,, когда множество А интервал прямой: А=,[а, Ь], инди·каторное решение называется интервальным решением. Решение в виде дельта-функции: d·(x)= ==б� (х), состоящее в указании одного конкретного состояния i, х называется детерминированным. Наконец, решение d(х) =О соотве'Гствует тому, что никакое из состояний fJJ не имеет места. Удобно выдавать О за белое, 1 -за абсолютно черное, и вооб;ражать :себе ,в общем d(x), ,ка,к размазанное пятно ,переменной контрастности на белом фоне, своего рода как нечеткое изображение цели на экране осциллографа. Величину sup d (x)-inf d (х), равную высоте d (х), будем называть контрастностью решения, а решение, принимающее хотя бы раз как значение О, та,к и значение 1 -контрастным. Контра.стно,сть, это в некоторо;м ,смысле несомненность, у,вере'Нlность решений. Множество контрастных решений обозначим D01е: D01= = {d (х) : inf d (х) =0, sup d (х) = l}. В D01 1)Ходят как все детерми, нированные решения Dдет, так и все индикаторные (интервальные) Dи, На этом основании верно включение: DдетСDисD01cDv • Вернемся к множеству Dv всех решений. Оно замкнуто относительно логических операций: «не d(x)»-<=>1-d(x); «d1(x) или d2(x)»-<=>d(x)=max{d1(x), d2(x)}; «d1(x) и d2'(x)»-<=>d(x)= =min{d1(x), d2(x)} (то же можно сказать относительно Uи). Множество Dv замкнуто и относительно ,рандомизации: «;Выбор di(x) с вероятностями Pi, �Piеl»-<=>d(x)= �pidi(x). Рандомиза = цией выражаются решения, высказанные в виде ·сомнения. Так, фраза: «Вероятно (,с вероя11ностью р) имеет место решение d* (х) » отражается абстрактным событием d-(x) = pd. (х). Если, d* (х) =А(х) -индикаторное решение, то решение рА(х) будет сооТiветствовать предложению: «Имеет место одно из ,состоя�ний множества А со степенью уверенности р, и никакое из других со стояний (т. е. из Ас)». Таким образом, разнообразие нечеТ1ких событий позволяет выразить разные оттенки 'Решений. Перейдем теперь от решений •к р е ш а ю щи м п р а в ил а м. Они каждому наблюдению у указывают, какое решение при этом следовало бы принимать; т. е. ,полностью задают схему, процедуру •принятия решений, какое у н,и случилось. Если решения нечетюие, то 1прави.ла :на.зывают,ся расплывчатыми. Чисто формально решающее пра,вило ду·(х) есть отображение пространства наблюдений ау в множество всех решений ду Dy: �-Dy. Мы ограничим классы правил, если заменим Dv на некоторое его подмножество D. Такие правила каждому у ставят в соответствие решение d (х) из множества D, Dc.D. y Правила ·классифицируются по виду решений. Если,D=DIJ,e-r есть множество детерминированных решений, то правило называет,ся детерминированным; если D=Dи есть инд;икаторные (интервальные) решения, то правило называется индикаторным (интервальным). Наконец, если D= Dн01 -множество контрастных решений, то правило называется контрастным. Обозначения КЛаССОВ ПраВИЛ СрОДНИ реШеНИЯМ: 9/)у, !![)дет, !!l)и, !!l)OI· Потери. Решен.не d(x') п.ри,нимает,ся ,в конечно,м ,счете отн,осительно состояний х' E.flJ, поэтому требуется охарактеризовать его -правильность, насколько оно угады,вает искомое х, охватывает что л,и его. Будем характеризовать противоп,оложную величину -неправильность -с помощью потерь n (х, d (х')), определяющих плату за решение d(x'), если на самом деле имело место состоя�ние х. •в общем, -фуН'юци,онал от нечетких решений d(x'), зависящий от ист,инного состояния х. В частном случае детерм,инированных решений потери n (х, х) будут функцией д1в;ух ,переменных: истинного состояния х .и решениях. Ниже даются примеры потерь. Пр им ер 5.4. Дельта-пнотенр и. Используются при детерм,инированиых решениях и имеют вид обратного дельта,выброса: n(x, х') =·l--6 (х). По х А тери равны О при х=х (правильном и равны 1 при ошибочном. Такие потерн означают, что нас не какую ош,ибку дает решение х по отношению к истинному состоянию х, а лишь интересует сам фа!Кт, имеется JШ ошибка (тогда потери равны 1) ил,н нет (тогда О). Эта ·крайняя катего ричность: либо -все, либо ничего -сглаживается при обобщении с детерми нированных на произвольные •нечеткие -решения в следующем примере. Пример 5.5. Сонставные потери. Пусть n(x, d(x'))=l--d(x)+ +,лQ{d(x)}. Потери равны величине неуверенности l-d(x), с котОl))ой реше ние d·(x) судит об истинном состоянии х плюс ущерб л.Q{d} за расплывча тость. Ущерб пропорционален ширине и обычно есть интеграл от d (х). На прямой fiВ.=!Y/, это будет площадь под d(x), определяющая инте гральную ширину. Для детерминированных правил ширина нулевая: !J {.i} = =0 -и для них составные потери совпадут с дельта-потерями. Параметр л. есть весовой коэффициент, увеличение которого повышает акцент ущерба за расплывчатость. Пр им ер 5.6. К: в а др ат и ч ,н ы е п отер и. Эти потери используются для детерминированных правил и равны квадрату «расстояния» между при состоянием х. В случае !!В•=!!/, потери л(хх) = (х-х)2 а при мно гомерном параметре состоЯJНий f!В=!f/,n -это нимаемыми решениями х и , , п будет квадрат длины вектора ошибки: л(х, х) = для 1 процессов квадратичные потери превратятся ,в интеграл: :rt(x, _ Обобщением являются потери, определяемые в виде /!В, а для линейных пространств /!В -в виде нормы: :n; (х, х)= llx-xll2• Распространить та·кие потеj)'и на .интервальные решения d(x')= [х, х] можно было бы, скажем, положив :rt(x, d(x'))=min{llx-:112, llx-xli2}. Потери целенаправленно выбираются исходя из того, какиерешен,ия (решающие правила) -мы можем реализовать на пра·ктике, на какие их ·стороны следует обратить особое внимание и что желательно получить. Немаловажна и простота. Так, для за потери, а 1для задач филы1рацrии -�квадратичные. Потери сами по себе могут быть неоднозначными, ·если их выбор ,вызывает ,сомнения. Тогда они определяются д�в,умя граница ми: л (х, d (х')), � (х, d (х')), своего рода наилучшими .и шаихудшими -потерям� В частности, может быть задана только граница потерь сверху л и тогда, учитывая, что� неотрицательна, оста нется считать л=О. При равенстве л (х, d) =л (х, d) потери называются точными и о6означают,ся л (х, d). Риск. Текущие свойства решений оцениваются потерями, аглобальные свойства правил ду (переменную х удобно опускать) как процедур принятия решений, завися от потерь, определяются сущест,венным образом совместным поведением наблюдений у и их связью ,с состояниями х, т. е. видом СИМ .,,f{XY. Та.к •как ни конкретных значений х, ни каково ожидается у на стадии синтеза пр а: •с учетом среднестатистических изменений х и у. Для этогонужно усреднить потери и получить нижний и верхний средние !]: (д) = мхи � (х, ду), П (д) = мхип (х, ду)• Нижний - это риск, лучше (меньше) которого быть не может" а верхний -на•ихудшrий из возмож1ных; с од,ной ,стороны, рис:к оптимистичный, а с другой -. риск пессимистичный. Забегая вперед, отметим, что риски могут вычисляться и по-другому, не только к1liк средние значения, а с добавками, ну ·скажем, за расплыв не средний риск, а со,ставной, о котором пойдет речь в следующей гла-ве. Такую возм-ож-но,сть -обобщения держим всеrда в уме. В дальнейшем удобно иметь в качестве риска не два, а одно число, взвешивая между собой нижний и верхний его значения: х�О, (5.2) где х есть коэффициент пессимизма. При х= О и х= 1 риск равен соответственно нижней и верхней его границам. Случай х=О ведет к П (д) и соответст,вует крайнему оптимизму, т. е. расчету на наилучший расклад: 1«авось повезет», тогда как хе= 1 зовет к П (д) и стратегии пеосимизма. Допускается х> 1 - это сверхпессимизм. Значение хе= 1/2 соответствует полуоптимиз,чу. Два значения хе = 1 и х= 1/2 занимают особое положение, о чем пойдет речь дальше. Статистическая задача. Формализуется как совокупность ис ходных данных в виде Y=·(.Jl{ xY, !!/), ,·[П], х), где .Jl{XY есть СИМ;!lJ -класс •решающих правил, которыми мы собираем·ся ограничиться; х -коэффициент пес-симизма; [П] -способ вычисления риска. Для среднего риска его заменяет функция потерь, заданная точно :[ л:] или интервально ·[л:, л:]. Статистическая задача может быть более и менее широкой. Для двух задач У1 и У2 г-оворим, что У1 не шире У2, если х 1=х2, !lJ1 = -!!/)2= !!/) и выполняются неравенства: П1(д)�П2(д), П1 (д)� �П2(д), Vде.$. Тогда У1 является узкой защачей, чем У2. как в случае .Jl{1xYc.Jl{2 Статистическая задача поставлена, если для любого решающего правила ду е.,!!/) могут быть вычислены риски пх ( д). Слишком широкая статистическая задача (например, J{xY=fJxY или п=О, л 1) приводит к тривиальным рискам и ее нужно сужать. того, целевое расширение статистической задачи (расширение .Jl{XY либо [ л:, л:]) •может служить средством ее упрощения. Кл а с с и ф и к ац и я ст а т и ст и ч е с к и х зад а ч. Харак тер статистической задачи определяется многими факторами: структурой пространств f;lJ и ау, ,видом СИМ .Jl{XY и т. д. Но для классификации наиболее важен вид пространства состояний f;lJ и какие решения D относительно состояний могут приниматься. Если D имеет две степени свободы, т. е. любое de.D представ ляе11ся как линейная комбинация d(x)е= c1A(x)+c2 (1-A(x)). AcaJ, то имем задачу проверки двух гипотез: одна из них состоит в том, что хе.А, и альтернатива хфА. Если d(x)=�c;Ai(x),где множества Ai образуют разбиение aJ, то имеем задачу проверки нескольких гипотез, т. -е. что xe.Ai. К проверке гипотез всегда можно свести задачу, если f;lJ дискретно и ·состоит нз конечного числа элементов, хотя это же и задача оценивания значений х, четкой грани здесь нет. Если f;lJ непрерывно, например f;lJ =fR, и на решения никаких ограничений не накладывается, то имеем задачу оценивания параметра. Во всех ,случаях числа �(д) = м хи [l -ду (х)] = 1-мхи ду (х), а(д) = 1-мхиау <х> есть нижняя и верхняя вероятности ошибки правил. Соответст (д)= (1-х) � (д)+ха (д) будет взвешенной вероятностью ошибки. Если на клас·с !ll) накладывается только одно требование, чтобы для всех дЕ.!l/) фиксированной была вероятность ошибки ах (д), то имеем задачу доверительного решения. Довер1ительные решения обязательно должны быть расплывчаты, так как для детерминированных оценок числового параметра ошибка, если отбросить вырожденные случаи, будет равна 1. Детерминиро�ван�ные ,правила дЕ!l/)едет за,писываются: ду (х) = =l!>;(х), или п1росто Ху, где хЕf!В. Алгоритм iеy есть отображение Y б/j-+f!В, у,казывающее кажд,ому у оценку х ·состояния. Оптимальность и пессимизм. Оптимальными называются правила дху, минимизирующие риск nх (д). Они дают решение поставленной статистической задачи У. Для оптимальных правил риск рав,ен V (r)е= inf пх (д)дЕ.Ю и называется ценой задачи. Минимум риска ,на классе !!lJ может не достигаться, и в то же время v (У)< оо. Тогда будет суще.:твовать подоптимальная· последовательность д< n)E!!lJ правил, качество которых ,сколь угодно приближается к наилучшему: v(Y)= lim Пх(дО в этой последовательности можно ука n➔оо зать такое nчто Пх(дпи, следовательно, ущерб не 8 , будет превышать ,в, ск-оль угодное малое. 8 При х= 1 оптимальные прав•ила (подоптимальные последовательности) минимизируют максимальный риск и называются минимаксны.ми. При х� 1 расширение задачи (в смысле данного выше определения) увеличивает цену, равно как и дальнейшее сверх 1 увеличение коэффициента пессимизма "-· Чтобы сказанное ,стало совсем прозрачно, нужно переписать риск (5.2) в виде пх (д) = _!! (д) + х [П (д)-!! (д)] (5.2') и обратить внимание на то, что он состоит из суммы нижнего риска плюс разброса риска (от наилучшего к наихудшему ,случаю), взвешенного коэффициентом пессимизма. Коэффициент х, таким образом, ·играет роль регулятора изменчивости риска опти рой части ( 5.2), что ·вынудит в итоге синтеза уменьшение разнос а х> 1 -сверхпессимизму. Уменьшение х ниже 1 приводит ниям в статистической задаче. СИМ в целях упрощения может даже задачи, так как приводя к увеличению верхнего риска П(д), в· то же самое время уменьшает нижний П ( д). Причем -при х> 1/2 преобладающим в весовой ,сумме будетверхний Р•ИIСК, а при х< 1/2 - нижний. Случай чрезмерного оптимизма х< 1/2 вызывает противоречие: чем меньше известно (чем шире СИМ), тем лучше. Что называется: «хорошо ловить рыбу в мутной воде». А имеет ли вообще С'МЫСЛ оптимизм х< 1? Наверное да, так как пессимистичный настрой, и делает правила устойчивыми, но достигает этого, �nоступясь ухудшением качества, размениваясь ценою задачи. Оптимизм же при удаче даст выброс качес11ва; напр-отив, при �неудаче rпри�ведет к допо-л'Нительно.му ухудшению, положение. И вопрос в том, что лучше иметь, либо заведомо что-то гарантированное, -надежное, либо что-то неустойчивое, но временами то более хорошее, то более плохое. Вопрос решается в сторону оптимизма, когда ожидаемое как гарантированное заведомо худо и удовлетворить не может. Тогда добавок оптимизма за счет у,сугубления перепадов в качестве оставляет надежду (свойственную игрокам) на благоприятный исход, если, конечно, повезет. Лучше надежда, чем гарантированная обреченность (поэтому в азартные игры любят играть люди малообеспеченные). Случай х= 1/2 полуоптимизма является особым. В нем одинаково заложен расчет на «удачу» •и на «неудачу». И особенность его, как это с первого взгляда ни покажется странным, в рекомендации пользоваться именно точными распределениями вероятностей при поиске оптимал1;ных правил. Теорем а 5;1. Пусть определено· согласованными первичными вероятностями �(х, у), Р(х, у) на дискретных aJ и бJ/, причем ��-[Р(х, у)+Р(х, у)]=2. Тогда при точных потерях х у п(х, ду) в режиме полуоптимизма х= 1/2 средний риск любого правила ду равен п112 (д) = � зt (х, ду) Р0 (х, у), Р0 (х, у)= [t (х, у) +Р (х, у)]/2. В самом деле, при этих условиях, как это следует нз формулы средних Mf, Mf у аддитивных ИРВ, имеем Mf+Mf=2��f(x, у)Ро(х, у), откуда --ХУ подстановкой вместо f потерь получаем результат. Основной вывод тот, что раз риски выражаются через точное совместное распределение вероятностей Р0 (х, у) (согласно условию теоремы ��Р0 (х, у)= 1), то и поиск оптимального правила следует производить по этому точному распределению Р0 • Теорема 5.1 один к одному переносится на произвольные про странства Ш и бJ/, на произведении которых заданы интерваль ные .плотности !!. (х, у), р (х, у) такие, что централ:1,ной (;ср�еарифметической) между ними р0 = (е_+р)/2 будет также плотность. Например, е_ (х, у)= Ро (х, У) -Л (х, у), р (х, у)-Ро (х, у)+ Л (х, у), где Ро есть некоторое предположительное значение плотности, а Л -ошибка в ее знании. Тогда риск П<112> (д) ,вычисляется по р0 и не будет зависеть от ошибки Л, и следовательно, от ширины СИМ. Все будет определяться центральной плотностью рс,(х, у). Конечно же, это частный результат, соответствующий СИМ, заданной аддитивным интер,вальным распределением вероятностей, но он определяет статус вероятност.ных моделей при решении ·статистических предположение о том или виде плотности или вероятностей выдается за уверенность в адекватном выборе модели. Проблема достаточности. Хорошо, когда на стадии предварительного анализа статистической задачи по ее внешним чертам сразу же ,возникает воз1можность сузить класс решающих правил до размеров, облегчающих поиск оптимального. Так сказать, соз рода огрс1ждение, достаточное в плане уверенности, оптимальное �правило находится внутри него. Тогда ·нахождение оптимального правила ,приобретает двуэтапность: сначала как можно большее ,сужение диапазона поиска, а затем уже окончательный выбор. Сейчас речь пойдет о первом этапе, ;получившем название достаточной редукции. Достаточная редукция производится по внешнему облику зада1t1и, ,поэтому будет однотипно определяемой для семейств тистических задач, объединенных одинаковыми чертами, такими ка,к: СИМ, число и вид первичных приз,на,1юв; 2)ехарактер fJJ и !!/), задающих постановочную цель решающегоеправила; 3) вид функции потерь; 4) область значений коэффициента пес-симиз·ма х. Причем тем весомее будут те или иныееприемы достаточности, чем для более шир1окого семейства задачеони пригодны.е В свете сказанного проблему достаточности будем ,подразделять на глобальную, когда редукция производится с ,позиций среднего риска по виду СИМ, или же толь·ко по внешнему облику функции ,потерь, и специальную, когда достаточная редукция связывается с конкретными fJJ ки гипотез или оценивания и к выбранному типу риска. В этой гла,ве мы касаемся только глобальной проблемы, оставив специальные на последующее предметное изложение по глава1м. Дадим формальное определение. Подкласс q)* 1решающих правил называется достаточным, если произвольному правилу dE.!!/) при любом заданном в>О можно указать правило д*Е!!/)* такое, чт о П'<;(д*)::::;;Пх (д)+е, т. е. любому правилу из исход,ного (соответствующего У) класса q) можно указать не худшее его в смысле р·иска (если только на сколь ,угодно малую величину sJ правило из достаточного подкласса !!l)*c.!IJ. Достаточность и функция потерь. Следующее утверждение о достаточности овязы-вается с нео�аниченными потерями. Тогда риск П(д) =.Мл;(х, ду) б.удет конечным лишь для тех д*, ,п.ри IКО торых ,i (х, ду ) принадлежит области существования верхних средних СИМ. Для остальных он бесконечен, как бесконеЧIНым бу.цет П"(д) 1п:ри любом х>О и такие 1пра1Вила могут быть исключены из !!/), редуцированы, что приводит •к следующему выводу. Достаточным при х>О является подкласс !!l)* решающих пра-; вил, для которых потери л; (х, д�) принадлежат области существования СИМ. Так, если J{XY=(M<§), где g1(x, у)е<§ -первичные признаки СИМ с заданными Mgi, то в g)* включаются ,п-равила д*, •потери которых л;(Х, д*) �МаЖО�рируемы ХОТЯ· бы ОДНОЙ из конечны х сумм g(х, у)= с0 + �c+igi(х, у), соста· класс вляющих �+<§ вторичных признаков, с переносом на них JЙ,g=co+ �c+iMgi, как это следует из общей формулы продолжения средних: ft (д) = inf { Mg: n (х, ду) :s;;; g (х, У) Е .z+ � }. Рассмотр·им пример применения сделанного утверждения. Пр им е,р 5.7. Пу,оть fВ=Q//=D=!Y/,т есть прост.ранства реализаций на ин · тервале [О, Т) и пусть правила детерм•инированные !!{)-д ет, а потери для них . -т . . . . n(x, х) = J (x1-x,)2dt равны среднему квадрату ошиб1щ. Пусть СИМ .я:хvо о задана .корреляционными свойствами M(c+!,c1X11 +:E!.d1iX1,'X,i). Тогда достаточными будут правила х,,11, которые при u,-oo растут как функция у, не т быстрее ли.нейной степени. I( ним относятся линейные: х,,11 = о J h(J, -r)y·-r d-r:. I(вад т рашчес�mе х,,11 = Jh(-t, -r:)y2 d't уже не будут входить в достаточный класс, так "( о как потер.и для них не мажорнруемы квадратичными формами, составляющими все вторичные признаки для заданной СИМ. Целевое ра•сширение СИМ управляет достаточным классом, может служить эффективным инструментом упрощений. Кроме того случая, когда расширение не затрагивает верхних средних след.ующего · класса признаков .(функций х, у): � п = { -� (х, д*), зi" (х, д*) : д* Е �•}, по существу, Чтобы указать оп,ределяющего риск для всех д" из достаточ•ного · еще на одну черту достаточного клас-са, цент о рируем первичные признаки СИМ (М<§) (приведем к Mg=O), о о по.1ожив для этого g=g-Mg, geбластью значений которого является числовая прямая zEtfl, вектор zEf/1,k или любое числовое пространство 2:, называется числовым. Оно экви-валентно набору призна,ков: Ziо= Qi(Y), i= 1, ... , k, ка, к фун.кций ,наблюдений на су. Если Q достаточно, то и соответ ствующий ему набор признаков наблюдений •называется доста Свяжем достаточный набор с первичными признаками СИМ .JtxY=(Y) = =ф(/ (у)). В самом деле, ecJJ.И у и у' таковы, что /(у)=/(у'), то y'=sy для некото•· poro se!l' и поэтому ср(у)=ч,(у'). Для нахождения / (у) может быть использован следующий. факт ,[9]: для любой функции / (у) ее ·инфимум inf f·(sy)=f (у) s (как и sup) всегда инвариантен к группе fJI, а если инфимум: s ляется максимальным инвариантом. Статистическая модель (.IЙ�) называется инвариантной к груп� пе fJ1 преобразований, если •все ее пер.вичные признаки инвариант� ны к fJI: g(x, sy) =g(x, у), Vge�. Согласно утверждению 5.все ,первичные ·призна·ки инвариантной СИМ представимы через, МЗ'Ксимальный инвариант /(у), т. е. заП'исываются g(x, /(у)). НО' тоrда на основании rеоремы 5.2 имеем следующую теорему. Теор ем а 5.6. Максимальный инвариант является достаточ� ным (при х;;;;э: 1) преобразованием при инвариантной СИМ, а также преобразованием ее -подобия. Пр им ер 5.11. Пусть у= (У1, ..., Yn) и пусть первичные признаки СИМ. инвариантны к перестановкам координат, например пр,иводятся к виду g(x, (:EYqi)m), тогда инвариантные прав-ила достаточны, поэтому инвариантным должно быть оптимальное (при х;;э:-1) решающее правило; оно будет функцией максимального инварианта, которым является эдесь порядковая статнс• тика --поспедователыюсть, расположенная в поряд'Ке неубывания: /(у)= =(у{1).._;;у(2).._;; ... .._;;y(n)), Симметрия, инвариантность и достаточность. Наше из.rюжение здесь основывается на том соображении, что если СИМ при некоторых преобразованиях пространства ау на себя не меняет ся, то •в общем-то не должны меняться и оптимальные решаю Модель J{X'Y ·называется симметричной к преобразованиям sy пространства ау на себя, если она не меняется при этих преобразованиях, т. е. sJtx-u =Jtx11, или что то же самое Mf(x,sy)=Mf(x,y), VfEff. Преобразования s считаем далее обратимыми. Бели СИМ симметрична •К преобразованиям s1 и s2, то она 21& -симметрична к их произведению (.последователь применению) s1s2, а также.•К обратным прео-бразова:ниям. 1, s2-1• Следовательно, она будет симметрична к �всевозможным произведениям (последовательным применениям) si и sг1 . <>бразующим алгебраическую группу [JJ преобразований. Так как СИМ будет симметрична к группе [JJ в том и только в том случае, если она симметрична к каждому преобразованию sE.[/J, то имеет .смысл говорить о симметрии •ко всей группе [JJ. Симметрия СИМ означает, что каждому первичному признаку gE� и 1П1реобраз0tванию sE.[/J может быть ;найден дру1Гой g*E�, такой, что g(x, sy)=g*(x, у) и JИg(x, y)=.lИg*(x, у), т. е. преобразования симметрии совершают 1Перестановку первичных признаков внутри �. неменяя их средних. Инвариантные к [JJ СИМ симметричны к [JJ, но не всегда :наоборот, поэтому понятие симметрии более емкое. Любую СИМ .,,f(xv расширением можно сделать симметричной .,,f(*xv, .,,f(*XY -:::::JJ{xY; нщдо образовать ,средние M*f (х, у)= sup М f (х, sy). s В самом деле, для .,,f(*xy •и sJt*xy имеем sм*f(x, у) =M*f (х, sy)= =M*f(x, у), поэтому s.Jl(*xv =.,,f(*xv. Если � есть набор первичных признаков для .Jl(xv, то ·симметризацию достаточно провести на W, что приводит, в общем, к расширению набора, и те•м не менее, упрощает СИМ, так ,ка1к пер�ви;чные 1Сjредние выравни�вают.ся на признаках g(x, sy), преобразующихся друг в друга при s, пробе Примеры симметричных СИМ дают однородные процессы, для которых группу [JJ образуют сдвиги во времени. Свойство постояенства риска. Если СИМ симметрична к преобразованиям [JJ пространства IJ/j, то риск будет неиз менен при преобразованиях sE.[JJ: пк (дsу) =Пк (ду), так как согласно определению М � (х, дsу) =_М � (х, ду), М п (х, дsу)= М п (х, ду) Сейчас мы свяжем понятия симметрии, инвариантности и достаточности в смысле ·среднего риска, считая класс !!l) относительно [JJ в смысле дE.!!l)=;-деsyEi!!l), VsEtJJ, и рандомизи рованным, т. е. выпуклым. y Теорем а 5.7. Пусть СИМ симметрична к группе [JJ преобразований пространства IJ/j и выполняется любое из условий: 1)егруппа [JJ дискретна; 2) оптимальное правило д; является еdинственным. Тогда максимальный инвариант к группе [JJ есть достаточное преобразование, причем для всех х.е Д о к а з а т ел ь с т в о. Если дку единственно, то на основании свойства постоянства риска имеем inf Пк(дu) =Пк(дку) =Пк(дкsу) и в силу = ности оптимального верно дку дкsу, т. е. оно инвариантно, вательно, есть функция инварианта. Если оптимальное правило не являе'I'Ся един·ственным, то совокупность оптимальных лраВ'Ил {дху} должна быть замкнута относительно группы [1'l преобразований в том смысле, что для заданного дху все правила дх,у при sE[l' долж,ны принадлежать этой совокупности. Причем, если группа [1' диокретна [1' = {s1, ... , Sk}, то, полагая, что д*11 получае'l'Ся равновероятным рандомизир,ованным выбором дх,11, пр.идем к k инвар.иантному правилу: д*u= � дx,i,,/k. l=I Если СИМ разложима J{XY=J{x.;f{Yx, то симметрия .,,f{xv эквивалентна симметрии переходных моделей .;/(Ух в смысле· s.;f(Yx = =.JltYx, Vx. Пр им ер 5.12. Пусть у= (У1, ... , у,. ) и СИМ разложима. Пусть прп каждом ХЕШ последовательнос1'ь у; независима и однородна, т. е . .Jt� = .Jtf1 Х... Х .Jt,fn, .Jt f i = .J(,¾•. Тогда переходные модели .,f{и" будут симметричны к перестановкам у; между собой. Ма-ксимальным инвариантом к группе перестановок является порядковая статистика (У<1><.У<2><. ..• <.Y)-Следовательно, оптимальное прави.10 должно быть инвариантным к перестановкам и являться функцией порядково1"1 статистики. Порядковая статистика будет максимальным инвариантом и в том случае, если !J; при каждом заданном х имеют одинаковые модели .,/{¾'= ... =.Кfn но совершенно неизвестно, как у; связаны друг с другом (первичный набор образуют {g,, (y;), gE'!l, i=1, ... , п}, а первичные средние не зависят от i). 5.5. ДЕТЕРМИНИРОВАННЫЕ РЕШЕНИЯ И ФИЛЬТРАЦИЯ Общие соображения. Детерминированными называются правила класса mдет, для которых решениями являются сами искомые состояния xEaJ. Правила обозначаюl'Ся Ху и представляют--собой инструкцию, указывающую, какое х выбирать (предлагать как решение) ,при каждом возможном наблюдении у. Когда состоянием •становится параметр (т. е. aJ =fll, -числовая прямая), детерминированные правила переходят в детерминированное оценивание. Оценивание будет, когда х -вектор (W =fll,k). Последний случай иногда называют фильтрацией, понимая под вектором отсчеты процесса. А в общем, фильтрация охватывает случай, когда х -процесс (W -пространство реализаций). Четкой грани здесь нет. Детерминир-ованные-это .решительные реше:ния, ,когда :не должно быть места нечетким, осторожным высказываниям, суждениям, а требуются конкретные действия. Например, нужно очистить речевой сигнал от шумов, чтобы получить конкретную реализацию отфильтрованного процесса. Или в теории управления по наблюдениям за объектом требуется сформировать сигнал: он тоже должен быть четким как управляющее воздействие на физическую систему. Проблема детерминизма в оценивании имеет давние традиции и богатую историю. Мы не ставим задачей обзор. Наша цель -выявить те особенности, которые вносятся в нее новыми моделями и регулировочной шкалой оптимизма-пессимизма. Последняя позволяет делать .правила то более избирательным·и к оговоренным ситуациям и ,качественными к ним, бо\/Iее rрубыми и устойчивыми (в смысле среднего риска) к отклонениям от них. Потери правил Ху меряются обычно как некоторое расстояние .л (х, Ху) между истинным значением х и предлагаемым оценкой Ху. Это обязательно нелинейная, подчас неограниченная функция, как в случае степенного ее типа I х-ху I k. .ванием переменных х и х, функция потерь искажает •вид 'первич ных признаков СИМ, вторгаясь в связь между структурой признаков и видом правил, но сохраняет, что оч-ень важно, Qу-пред ставимо-сть: Q-представимость правил эквивалентна такой же мости пер·вичных признаков. Последнее, как утверждается теоремой 5.2, дает основания достаточной редукции наблюдений. Приведем пример редукции. Пр им ер 5.1·3. Пусть наблюдаются У1, ... , Yn, а х -искомый числовой параметр. Пусть первичным для СИМ является среднее м�(у;-х)2=6. Перi вичный nризнак представляется i(y;-x)2=iy2 ;-2x:l':y;+x2 и при любых х i i i -есть функция iu; и :l':y2;. Эти суммы согласно теореме 5.2 есть достаточные i ' прлх;;;,: 1 1призна•ки, QТСюда Qy должна быть фу,нкцией от 11-их. Некоюр·ое Qбобщение получается, когда суммы взвешены коэффициентами :l':c;(y;-x)2, тогда i достаточны ic;y;, ic;y2;. i i Совершенно теми же согласно следствию 2 к теореме 5.3 признак'И будут, есл1И y;=x+s;, i=I, ... , 11, а флуктуации s; заданы первичным значением .IИic;s2;. Если Yt -процесс, то индекс i заменяется на время t, а i суммы -на интегралы по t и достаточными пр,изнаками становятся интегралы J c;y1dt, J c1y21,dt. Оптимальные решения при дельта-потерях. Приступим к изложеиию принципов построения оптимальных детерминированных оценок в зависимости от вида потерь и значения коэффициента пессимизма. Пусть сначала берутся дельта-потери л (х, х) = =1-б�(х), равные О при правильном решении х=х и 1 при не х правильном х=/=х. Эти потери очень к,ритичны (если �Не ,с�казать капризны) к сколь угодно малым отклонениям х от х, так как сразу подскакивают от минимального до своего максимального значения. Зато работа с дельта потерями удобна вследствие простых результатов, ибо цена приобретает «лицеприятный» вид: V (r) = 1 -sup р1-х (х = Ху), (5.5) = где Р1-(хх11 ) = хР(х=х11) + (l-x)P(x=x11) -взвешенная /Ве роятность правильного решения. При х= О опти-мальное правило будет находиться максимизацией -верхней границы вероятности Р(х=х11), а -при ,пессимизме х 1 -нижней Р(хх11). = = Пр им ер 5.14. Пусть СИМ задана первичными ,вероятностями: O�t(x, у)<;Р(х, у)� 1, 'ft/(x, y)s. fCX� (еоrпасованиыми в смыСJJе �t:s;;;; 1, �Р;;., 1, где суммы по х, у), задающими адд,итивное ИРВ на дискретных fВXO/j. По формуле (1.5) для аддиТШ1ных ИРВ имеем: !:._(x=x11)=max{ � �(х, у), 1 -� Р (х, у)} , x.,,i,x х=х11 11 Р(х = х11) = min J ; Р(х, у), lx=x x.,,i,x11 y Так как множество {x*i11} точек пространства fВХО// оказывается обычно существенно шире множества {x=i11}, то в первой формуле правая из двух частей имеет тенденцию стать отрицательной, а во второй -певая стать меньше правой (при ��< 1), поэтому часто оказывается, что �(Х=Х11)= � �(х, у), Р(х=х11>= � Р(х, у), А А х=х11 х=х11 и оптимальное правило будет .определяться максимизацией по х при задан ном у взвешенной совместной вероятности Р1 -х(х, у).= хР(х, y)+•(l-x)P(x, у), - I< этим правилам скоро вернемся из-за их более общего назначения. 3 а меч ан и е. Обратим внимание на одну характерную особенность оптимальных -правил при дельта-потерях. Множество · {х=х11} представляет собой линию в пространстве fВХа,,/ и, как факт, невозможно найти ни одной л·инейной комбинации первичных признаков СИМ, которая мажорировалась бы индикаторнойфункцией множества {хх11} и имела неотрицательное нижнее = среднее, поэтому для таких задач Р(х=хр) =0. Обращаясь теперь к формуле (5.5), видим, что при х 1 риск независимо от i11 = всегда будет максимальным, равным 1. Оптимальное правило становится бессмысленным. К бессмыслице приводит и х> 1. Лишь при х< 1 оптимальные правила будут нетривиальными инаходятся максимизацией Р (хх11). = Расширим СИМ до аддитивного ИРВ, определенного граница·ми Р(х, у), Р (х, у) (вычисленными по исходной СИМ и принятыми за первичные). Правило, минимизирующее риск при указа.ином расширении СИМ, а потому к в аз и о п т и м аль но е, обозначается .i"11• Оно -согласно (5.5) максимизирует при каждом уеау взвешенную вероятность: max Р1-(х, у) и называеrея 'npa ,вилом взвешенного правдоподобия (в -примере 5.14 оно оптималь ·но). В частности, 11ри х= О из него вытекает правило х 0 у , макси мизирующее Р(х, у): P(.i0y) =maxP(x, у), называемое правилом х . .лtаксимального правдоподобия. Таким образом, метод максималь ного правдоподобия соответствует .�tакси,чально воз.ttожному оп ти,иизму х = О. При пессимизме х= 1 квазиоптимальным будет правило .i1 y: P(i1 y, у)=maxP(x, у), макснмпзирующее нижнюю границу - х вероятности. ·оВведем модификации рассмотренных правил, учитывающиео_мешающие параметры. Пусть .;f{xY= V90 xv, где g.,0.-:v при каждом в 0 определяется точными вероятностями Рв (х, у). Тогда Р (х, у) = =inf Рв(х, у), Р(х, у) =sup Рв(х, у) п оценка х\ макси�изирует в в ;м аксимальную по 0 вероятность, а х1 у -минимальную.оЕсли соответственно замечанию выше Р(х=ху) =0, и тем более _f (х, у) �Р(х=ху) =0, то pt-x(x, у) становится пропорцио нальной Р(х, у), поэтому правило максимального правдоподобия х0 у, соответствующее х= О, будет квазиоптима.пьным при любых х< 1. У-казанная пропорциональность будет иметь мест-о и -когда Р(х, у) =рР (х, у) для не1ютороrо р� 1 (inp,и р= 1 ,вероятность точная).Постановка задачи линейной фильтрации сигнала при квадратичных потерях. Пусть набJ1юдения записываются = = Yi xi +s;, iо1, ... , п, Ms;о= 0, где Xi условно будем называть ,сшналом, а Si -шумом. И.1и в векторах-столбцах y=x+s, Ms= 0. Ставнтся задача фпльтрации х -при .квадратичных потерях 1t (х, х) = 11 х-х 112 = (х-х)т (х-х), где /izll2 -,квадрат нормы вектора. Векторы х II s счптаются некоррелированными: Мхsто= О, заданными свойствами второго порядка в виде согласованного набора средних мхт сх, MsTCs при всевозможных матрицах С. Это делается пут-ем задания первичных значений дхт нх, HEJ°e, ЛsтGs, GE�, с их последующим образом на вторичные признаки (5.6) где HiEJ°e. В (5.6) из сумм выброшен свобо,1,ный коэффициент, ибо он получает,ся ра,вным О. Неравенство под зна,ко:\1 инфимума понимается как матричное, 1. е. как неотрицательная определенность матрицы �c+iHi-C. Такие же формулы верны для ·s• В классе пра,вил, допускающих разложения в ряды Волыерра, т. е. типа (ху)1= L LuY1+ L L ЦfJYkYJ+ L L L LШ1YkYJY1+···, i k j k i l :на основании теоремы 5.1 достаточными будут линейные правила Ху =-Ly, где L= {LiJ} .-матрица размерности пхп (так как только для них потери мажорируемы квадратичным формами). Для линейных правил при квадратичных потерях и некоррелированных х и •s нижний и верхний риски запишутся 2 П(Ly)= мху 11 х-Ly 112 = мх II х-Lx 112 + м� 11 L s \1, мх fi (L у)= Мху 11х-Ly 112 = IIх -Lx 112 + М6 11 Ls 112 и вычисляются согласно (5.6). Риски складываются из двух слагаемых: первое определяет ошибку фильтрации за счет инерционности фильтра L, который не успевает отслеживать изменений сигнала (в силу отличия от единичной матрицы 1), а второе за счет проникновения шума на 1выход фильтра. Первое слагаемое растет при увеличении инерционности фильтра, а второе уменьшается, и между ними есть оптимум. Выбор матрицы L*, определяющей оптимальный фильтр, производится исходя из минимизации среднего риска п:к (L) = мх хт (1-L)T (1-L) Х + м:к Sт tт L S, (5.7) где М" есть взвешенное ·среднее, равное (1-х)М+хм. При точных матрицах корреляций Мххт= К:-Mssт= В риск от х не будет зависеть: П(L) =tr(I-L) (1-L)т K+tr Ltт B, где tr след матрицы, равный сумме диагональных элементов. Оптимальным в этом случае при обратимой матрице (К+ В) будет фиJ1ыр L*=(К+ В)-1 К, П(L*)= tr К (К+ В)-1 В, (5.8) где вторым у1<азано выражение для ошибки фильтрации. Фильтрация сигнала с известными корреляционными своиствами из шума ограниченной мощности. Пусть корреляционная матрица ,сигнала х является точ,но 11З:вес1шой и равной К, тог,:�а как относительно шгv1а известны сведения .1Jишь об его средней -«МОЩНОСТИ» М}: sf/n=M lls\1 Mllsll2 /n= 02• Тогда аналогично (5.6) : М sт LL s = sup спа2 = л.2• по2 ' _ mtn inf сп 02 = Л�ах по2,fcl � LT L матричные И л2еmin И л2еmах есть соответственное минимальное и максимальное собственные числа матрицы UL. В результате ·средний риск П" (L) = tr (1-L) (1-L)T к+ (1-х) Л.�Еп по_2 + ХЛ.�ахnа2 • Представим К= ртгF, где F -матрица собственных векторов� а Г -диагональная матрица собственных чисел '\'i матрицы К. Тогда оптимальное правило запишется в виде Ly=FA, где А диагональная матрица корней квадратных Лi из собс"Гвенных элементов J...2i матрицы tт L. В результате средний риск станет П" (L) = � (1-лi )2 Задача нахождения к мини что он тривиален, несложных выкладок. • оооmетст.вует фильтрации Ху = лению входных наблюдений на величину с= tr К/ (tr К+ xncr2). Причем с уменьшается при ср�внительном увеличении средней статистической энергии шума па2, приходящейся на п отсчетов, по отношению к энергии сигнала tr К. В самом деле, если шум велик, то ,он дает ос1но1вной ,вклад в ошибку на 1выхо.де и его нужно ослаблять. Незнание ·структуры шума •ведет к тому, что наблюдения фактически не фильтруются. Пусть теперь О�х< 1. Результат будет весьма интересным. показывающим на вырожденные стороны режима оптимизма. При у,словии xncr2/tr Kочн1о известные ко.рреляции шума на матрицу BiJе�Hik'0' 2x1iHkj, считая ,ее про себя точной матрицей корреляций шума, и далее ра,счеты rc ней произ-водить по (5.8). Например, если у;=х;+ шум генерируется скользящим суммированием +l}htsi+l, т. е. ,�не , зависимых Si, то B;j= "2,h;-10'2x1h 1-j-Здесь мы использовали прямойе l метод, который свел задачу к точным корреляциям. В следующем разделе использован робастный подход. Корреляции заданы с погрешностями. Пусть y=x+s, сигнал х и шум s некоррелированы между собой и заданы каждый своими корреляционными свойствами. Последние, как известно (§ 4.2), эквивалентны собственным семействам, ,соответственно У{ (для х) и !lJ (для 6) ковариаций, что ;позволяет при вычислениях риска пользоваться формулой П"(L)=(l-x) inf tr(I-L)(I-L)тK+x sup tr(I-L) (J-L)тK+ К e:.Jt' Ке: .7t' +(1-х) inf tr Ltт B+x sup tr Ltт B. Ве:$ Ве:� Х={К: \IK-K0 \I � Лк}, fМ= {В: I\B-Boll �Лв},где норма матриц понимается ·как максимальное по модулю собственное число. Можем для определенности считать, что Ко и Восуть оценки корреляционных матриц , из•вестные с ошибками, непревышающи-.ми соответс"Гвенно допу,<жов Лк и Лв. Верно равенство: suр{trннт к: IIK-Koll�Лк}= tr ннт (Ко+ +Лкl), причем супремум достигает.ся при К*=Ко+ Лк 1, а 1 еди,ничная матрица. МаТlриuа К* получается из Ко увеличен-немвсех собственных чисел на Лк. Используя тот факт, что семейства :Jt и gJ должны состоять из •нео'I'рицательно определенныхоматриц, аналогично предыдущему имеем inf{tr ннт к: IIK-Кoll�Лк} =tr ннт (Ко-Лк 1)+,огде (Ко--Лк l)+ получается из Ко -Лк l приравниванием нулю всехоотрицательных собственных чисел при сохранении собственныхвекторов. На основании этих двух ра,венств выводим П" (L)=(l-x) tr (1-L) (1-L)т (К0 -Лк 1)++ + х tr (1-L) (1 -L)" (К0 + Лк 1) + ( 1 -х) tr Ltт (В0 -Лв 1)++о +х tr LLт (В0 + Лв 1)= tr (1-L) (1-L)т Кк + tr LВк tт,где Кко= (1-х) (Ко-Лкl)++x (Ко+Лкl), и аналогично Вх.Оптимальной, минимизирующей риск, будет матрица L*=о=:(Кк+ Вх)-1К,с • Заметим, что в последнем выражении Кк полу чается из Ко ,пересчетом собственных чисел лоi матрицы Ко в соответствии с равенством = лi = (1-х)(лоt-Лк)++ х(лоi +Лк) {"'лоi + хлк при Лоt < Лк,о Лоt+(2х-1)Лк, при Лоt�Лк.оа собственные ·векторы сохраняются неизменными. Так же получается и Вх из Во. Числа лi возрастают по сравнению с лоi приох>1/2, а при х�1/2 растут лишь те из нпх, которые достаточноомалы, а ·именно, лоi<Лкх/(1-х). Но всегда д.i�хЛк. Закономер·ности пересчета можно проследить на рис. 5.1, о котором пойдетречь в дополнении 2. При Ко-Лк l>О и Во-,Лвl>О (что соответствует положитель ной определенности матриц) имеем Кх=К0 +(2х-1)Лк 1, Вх = В0 +(2х-1)Лв1.оТаким образом, наличие ошибок Лк и Лв в корреляционных функциях компенсируется прибавлением к х и s добавок в виде некоррелированных векторов 1) и ь: Mrt2i = Лк, M�2i ; =Л в, MY\iY\.i = =M�i�j=O, i=l=j, и переходом к модели y= x'+s', в которой х'=о 1 =Х+1), s'о= s+ь , С ПОСЛедуЮЩИМ СИНТеЗОМ ДЛЯ нее ОПТИМаЛЬ•о Кузнецов В. П. Об устойчивой линейной фильтрации случайных сигналов// Рве. 5.1. Перерасчет z>t/2 зверrетвческоrо спектра иого фильтра по (5.8), который и будет оптимальным для исходной задачи. Дооп од не ни я. 1. Резудьтаты одни к одному переносятся на процессы g1=x1+,1: матрицы К и В заменяются на ядра K(t, 't'), B(t, 't') операторов, а след tr И -на интеград J H(t, t)dt. Ядром единичного оператора I будет дедьта-функция, явдяющаяся корреляционной функцией «белого шума» спектраJIЬиой интенсивности 1. 2.оПусть процессы х, и s 1 ямяются независимыми (иди иекоррелврованиыми) стациона рвы ми и определены своими энергетическими спектрами .1( ( (1)) и В ( (1)), заданными метрическими ограничениями s�p /К_((/))-Ко((/))1 �дк, s�p/В((/))-Во((/))1 �дв, где Ко((/)) и Во((/)) -некоторые предполагаемые значения (оценки). Поиск оптимадьного фидьтра ориентируется на пересчитанный спектр (рис. 5.1) Ки((/)), вычисляемый по авадоrив с Af. 5.6. ЗАКЛЮЧЕНИЕ Преддаrаемая здесь теория статистического синтеза по своему построению подобна кдассической. Можно аргументированно говорить об оптимаJ1Ьвост11, если опредедено это понятие. А для этого доджен быть отрабо1'ан аппарат анаJIИза, выдвинуты критерии сравнения алгоритмов: какой из дюбых выбранных дучше, какой хуже. Аппарат будет действенен, есд11 анализ каждого а.1rоритма принципиадьно возможен и не настодько -трудоемок, что где-то грозит остановкой. Тогда возникает мысль, что раз алгоритмы упорядочиваются в кодонну друг за другом по их качественным показателям, то среди них существует наидучши.ii, к которому можно прибJIИзиться, двигаясь в rопову кодо�ны. Причем ддя этого .не обязатеден перебор всех алгоритмов, имеются другие эффективные приемы и их разработка -наша цель. Синтез не может обходиться без анаJIИза, а анаJIИз - иых работ следующего рода. Сначада, учитывая случайную природу среды, нужно определить характер случайности, т. е. математическую модель в виде СИМ (статистическая интерваJIЬная модель). Последняя есть -совместное опвсаН�Ие поведения наблюдений, 1'. е. входа алгоритма, и ие наблюдаемых, но внтересующих нас внутренних состояний среды. С состояняями связываются выходы адrоритмов -приН'Имаемые ими решения. 8-iЗо задача. Если нужно оценить параметр, то ,множеством решений числовой оси. Наконец, в задачах фильтрации решениями будут реализации обработанного согласно алгоритму сигнала. Вид множества составляет лицо задачи. Если имеются всего два решения, то это будет проверка двух гипотез. Нескольким решениям соот Каждый алгоритм есть правило действия, инструкция, предписывающая, какой выход наsначить каждому наблюдению, т. е. входу. Изюмина нашего подхода ,в том, что это не обязана быть совсем строгая инструкция (детерминироваюrое правило), а может быть набор рекомендаций в виде списка сравнительных предпочтений, которыми наделяются разные решения. Алгоритмы неодушевленные объекты, а окончательное решение пусть останется за человеком. Сказанное подводит нас к понятию иечеl'ких решений и расплывчатых алгоритмов. Практика применений и род математического аппарата синтеза могут потребовать алгоритмов закрепленной структуры (скажем, линейных). Тогда с самого начала вводится 011раничение правил :В виде класса допустимых алгоритмов, внутри которого и будет производиться затем выбор наилучшего. Подготовительные работы еще не закончены. Нужно уметь сопоставить истинные значения состояний с принятыми решениями. Конечно же, полное совпадение -это очень хорошо; но не было бы статистичеок<>й задачи, если бы алгоритм не имел «права на ошибку». Нужно назначить плату за ошибки в виде функции потерь. после введения всех атрибутов статистической задачи мож к синтезу, т. е. нах<>ждению оптимального правила принятия решений. Критерием сравнения и выбора лучшего будет риск, равный средним потерям. Здесь возникают две особенности. Одна ·конструктивная, состоит в вычислении риска первичных средних СИМ на функцию потерь (частным продолжения будет интегрирование по вероят Другая - как из признаков <.:ИМ, причем нижний его значение, а верхн.ий -пессимистичное. Идея брать величину ведет к коэффициенту пессимизма, Хотим иметь надежный гарантированный результат, берем коэффициент пессимизма равным 1, ориентируясь полностью на наихудший верхний риск. Берем ноль -рассчитываем на нижний риск, сверхоптимистично делая ставку на полную удачу (как в методе максимального правдоподобия § 5.5). Оптимальные правила при излишнем опmмизме лихорадочны по свойствам. Чуть лучше они делаются при полуоптимизме, когда нижний и верхний риски суммируются с одинаковыми весами. Режим полуоптимизма ослабляет требования к надежности модели (определяющей «здоровье» алгоритма) и одобряет нарочный переход к идеальным «погодным условиям» в точных моделей, оправдывая тем самым применимость распределений вероятностей. Полный обретают оптимальные правила, синтезированные По свойствам они делаются устойчивыми, научных лабораторий. сначала -предварительная окон оптимизация. Первый этап составляет -сузить класс решающих ,правил, указав, он должен основываться, т. е. как.не .п•редваритеяьные сокращения наблюдений не приведут к потере свойств. Интересно и важно (теорема 5.3), что эта редукция всеце,110 определяется структурой первичных признаков, исходно задающих СИМ. Чем проще первичный .набор, тем глубже возможна редукция. Достаточность -прерогатива иОКJiючительно режима пессимизма. В нашем изложении связывается с классическим понятием теоремой 5.4 о факторизации (расширенной применительно к интервальным моделям, а значит, и к семействам распределений вероятностей). Инвариантность интервальных моделей и их симмет.рня к преобразованиям пространства наблюдений порождает такие же особенности оптимальных правил, а следовательно, предопределяет в какой-то мере вид достаточных преоб Последний параграф § 5.5 главы отдается иляюстрированному применению основных утверждений теории к задачам детерминированного (точеЧ'Ноrо) оценивання и фильтрации. Выясняется влия·ние коэффициента пессимизма на ,вид алгоритмов оптимальной фильтраЩ1и. Глава 6. РАСПЛЫВЧАТОЕ ОЦЕНИВАНИЕ 6.1. ОБЩИЕ ВОПРОСЫ Ошибки правил. Детерминированные (точечные) оценки Ху по с·воему ,внутреннему содержанию таковы, что обладают мизерной вероятностью Р (ху= х) •«угадывания» правильного состоs�:ния, а чаще всего и 'Вовсе нулевой ( соответственно вероятностью ошибки P(x=l=x) -единичной). И эта ,природная их черта не есть след y ствие того, что оценки плохи (для определения целей они могут ), а ,просто 1выз1Вана тем, что Х·ОТЬ ,как-то попасть «дрожащей» точкой Ху в точку х на числовой прямой или числовом пространстве невозможно, учитывая количество точек и ничтожность точечных размеров. Это можно ·сделать только тогда, когда истинное х «накалывается» •не точкой, а накрывается чем-то ощутимым, например интервалом, что и подводит нас к расплывчатым оценкам. Потребность в расплывчатых оценках возникает прежде всего там, где помимо значения состояния нужна точность, с которой оно оценивается. Например, ставится задача -сопровождать указание расстояния до цели •величиной погрешности, диапазоном разброса, с которым оно измеряется. Так порождается доверительный интервал. Чем шире он, тем меньше вероятность, что при указании произойдет ошибка. Эта ошибка может входить как требований на оценку, аппаратуру, тогда ошибку нужно фиксировать, поддерживать на определенном уровне. В этом сл учае говорим об оценке фиксированного уровня а ошибки, или просто уровня а. в• 227 В наших рассуждениях сейчас не столь важно, является ли !В числовым ,или -ка,ким другим, и �даже не число элементrов х rв f1J, поэтому говор,и·м о nравилах как общих ,случаях оцеяок. Пусть ду (х) -расплывчатое пра,вило -функция ка-к х, так и у. Рассмотрим сначала его надежность -величину, обратную ошибке. Для заданного правила ду (х) нижняя и верхняя надежности соответственно рав·ны Мду, .Мду, где средние берутся по СИМ .Jl{xu. В самом деле, величина ду (х) есть уверенность, с которой х указывается как возможное значение искомого состояния по результагу наблюдения у. При разных у и х эта ,величина колеблется от О до 1 сообразно виду правила, причем О соответствует тому, что х отвергается как приемлемый -вариант состояний, а 1 -наоборот, соответствует бесприкословному включению; ,величина ду (х) = 1/2 оз;начает, чтопри заданном у -некоторое х принимается как возможное состояние с вероятностью 1/2, т. е. с половинчатой уверенностью. Надежность же есть уверенность в среднем, т. е. определенная в среднестатистическом ·смысле, что и заложено в .Мду, Ненадежность меряется ·как нижняя и верхняя вероятности ошибки: а(д) = 1-.Мду, а(д) = 1-Мдv, а взвешенная вероятность ошибки как объединенный показатель а:" (д) = (1-х) � (д)+ха (д) = 1-(1-х) М дu -хМ ду , (6.1) где х -коэффициент пессимизма. Нулевой ·вероятностью ошибки обладают тривиальные правила д11 (х) = 1, тождественно равные 1, соответстау�щие при любом х фразе: «Какое-то х из ?В имеет место» (но какое?). Его надежность равна 1, так как ошибиться здесь невозможно (поопределению пространства элементарных исходов). Другая крайность -единичная вероятность ошибки, свойственная точечным (детерминированным) оценкам, причем чаще единичной будет оказываться именно верхняя ошибка а(д) = 1, а нижняя при этом может вполне быть нулевой (тогде взвешенная ошибка будет равна х -вере в неблагопряитный исход). Предметный интерес для теории представляют не крайности, а «золотая середина», т. е. унимодальные как функции х при каждом у контрастные (достигающие О и 1) правила ограниченной по х ширины. Не ограждая класс !?/) расплывчатых правил какими-либо барьерами, т. е. !?/)=!?/). выделим из него подкласс с.т�:едующим v условием. Правила ду, для которых ах (д)=а, называются пра13илами уровня а, а при числовом lC -доверительными оценками х. В дальнейшем мы будем заниматься синтезом именно таких оценок. Расплывчатость, риск. Помимо ошибок у рассматриваемых правил имеется другая «теневая сторона» -их расплывчатость. Желательно, чтобы она была как можно меньше, т. е. при каждом у конкретнее указывалось бы искомое состояние х, но это вступает в противодействие с ошибкой правил, которая при этом увеличивается. Расплывчатость характеризуется шириной правил ,как функций .переменной х прн задаНiном у; может из·мерять�ся раЗ�'Ными способами. Прежде чем приступить к их рассмотрению, подумаем, а зачем здесь какое-то разнообразие, нужно ли оно? Оказывается, да, так как это своего рода регулировка, инструмент направленного воздействия на оптимальные правила, придания им тех или иных желаемых качеств, черт, оттенков. Приведем раз-1:1ые шкалы ра,снлычатости, •iiригод'ные как для скалярного, так и векторного параметров xE.91, k (лишь для векторного х= (х1, ... , Xk) 11 интегралы по dx=dx1 • ... •dxk становятся кратными). 1. Интегральная шкала: Q (д у)= S ду (х)dх -наиболее проста по смыслу, так как придает всем иксам одни и те же ,веса. Для одномерного х это будет приведенная (к прямоугольнику единичной высоты той же площади) ширина, а многомерного -приведенный объем. 2.оВзвешенная шкала: Q9 (ду)= Jq(x)дy (x)dx. Весовая функция q(x) нужна для выделения более важных (скажем, 'В смыс ловом или стратегическом отношении) состояний, вынуждая их более точ-ное оцени,вание в ущерб ,осталь:ным. 3. Обобщенная шкала: QV(д)= Jq(x)д(x)"dx. Возведение ре yy шений в степень -v< 1 увеличивает д"у по сравнению с ду, если последнее < 1, тем самым увеличивая плату за неуверенность решений и стимулируя их повышенную категоричность типа О и 1 (нет, да). При -v>l, наоборот, будут поощряться неуверенные решения. 4.оЭффективная ширина: f д(x)dx/sup ду (х). Это есть прио v z каждом у отношение площади (объема) под ду(х) как функ ции переменной х к высоте ду, Таким способом создаются благоприятные условия для контрастных категоричных правил, у которых ду =1, и для нпх это будет просто интегральная шкала. 5. Периметр св:Jйствен векторному х и определяется как мак симальная по компонентам Xi интегральная ширина правил: max max [q1 J ду (х) dx1], z i где qi -веса, выделяющие относительную «важность» разных компонент вектораох. Введенные шкалы пригодны и для дискретных х, если интегралы обменять на суммы по х. Величи·на расплывчатости по введенным шкалам зависит от �на-блюдений у. Так как ,расплывчатость правил ду (х) может быть, в общем, разной при разных наблюдениях у, поэтому нужно говорить о средней расплывчатости (ширине), усредняя Q(ду) по у согласно СИМ .JftxY (по частной к •ней .J/tY). Средняя ширина есть за расплывчатость и меряется, в общем, сверху и снизу: ), где '2·( ) -любая из указанных выше шкал. МQ(д11 ), Если брать взвешенную сумму (1-x)MQ(д11 ) +xMQ(д11 ), то при пессимизме х� 1 достаточности (справедливые, как увидим, при "� 1), поэтому за штраф будем брать верхнее значение MQ (д11 ) (по крайней мере, годное при пессимизме). Назовем составным риском расплывчатых правил взвешенную сумму .вероятности ошибки и верхнего штрафа за расплывчатость (для скалярного х это средняя ширина): П� (д)= (д)+ Л М Q (ду)• (6.2) Весовой коэффициент л �призван регулировать отношение между слагаемыми: при увеличении ,').,, большая важность придается ра•сплывчатости, нежели ошибке, в результате оптимальные правила, т. е. те, которые минимизируют П"л-(д), будут более т.оч,нымии менее надежными. И наоборот. Обратим внимание, что составной риск (6.2) не есть средний риск нее от потерь) .в смыспе предыдущей гпавы, а представпяет собой некоторую очень простую форму характеризации негативных сторон правипа. Тем не менее ои со.юраняет структуру риска Kali( -взвешенного коэффициентом пессиъшзма нижнего и верхнего его з·начений: Щ(д) = (1-х):Ц,(д) + хП(д) --А , ,, ,,,., б а оптимального правила: если оши ка оказалась меньш..: а, то л следует :1��,tньшить, стимулируя rем самым расплывчатость, а если больше -то увеличить, и далее снова посмотреть, что при этом получится с ошибкой оптимального правила. Минимизация по дЕ.!!/)v составного риска с параллельной �подгонкой» значения 'А есть способ синтеза оптимальных правил фиксированного уровня а, обладающих минимальной средней шириной в классе правил уровня а, т. е. решающих заdачу: min МQ(д11 ). д:о:Х( О )=О: Оптимальные расплывчатые правила при заданных совместных плотностях вероятностей. Совместная плотность являет собой крайнее исключение, когда данные о практически всех вероятностях событий, связанных как с х, так и с у, имеются в виде точных значений. Выделение такого случая можно было бы назвать отступлением от общей нашей тенденции иметь дело сегрубыми моделями, описываемыми конечным чи-слом данным. Темне менее такой отход позволяет, ,во-первых, уя-снить влияние шкалы расплывчатости на вид оптимального правила, и во-вторых, продемонстрировать простоту нового аппарата синтеза доверительных правил на классической «почве» распределений вероятностей. Пусть SlJ =g/,h, т. е. Х= (х1, ..., Xk) И б/j =g/,n, т. е. у= (У1, ..., Yn ),и nусть СИМ задается точной совместной плотностью р(х, у) по мере-длине на gJ_k+n для нас не принципиально). Тогда частные плотности будут равны: р (у)= Jр (х, у) dx, р (х) = J р (х, y)dy. Считаем автоматически выполненными все необходимыеношению к алгебре отрезков на gJ_k+n,плотность ( см. § 1.5) . Для (измеримых) оценок ду (х) ошибка будет точной величиной, равной а(д) = 1-J Jдu(х) р (х, у) dxdy. Перейдем к составлению риска и нахождению оптимальных оценок для разных шкалрасплывчатости. В з ,веше н н а я ш к а л а. Составной риск для нее записывается: п,. (д)= 1 + JS ду (х) [-р (х,у)+лр (у) q (x)Jdxdy.е Так как деу {х) заключено в пределах от О до 1, то правилом, минимизирующим этот риск, будет: (6.3)е Оптимальным уровня а будет найденное правило ,при такомевыборе л, чтобы р(х, Y)>1..p(y)q(x) JJ p(x,y)dxdy,е где неравенство снизу определяет совместную на lC Хб// область интегрирования. Обозначн:v� ру (х) = р(х, у) /р (у) и назовем апостериорной плотностью. Оптимальное решающее правило будет индикаторным и состоит в сравнении при каждом у отношенияеру (x)/q(x) с· порогом л и присвоении а; значения 1, если этоеотношение выше порога, и О, если ниже. Функция q (х) определяет вес штрафов в зависимости от х.еДля интегральной шкалы q(х) = 1 и тогда а•уопределяется сравнением апостериорtной ,пл·отности р у (х) ,с порого,м л. При q(x) = =р(х) с порогом будет сравниваться отношение р(х, у)/(р(х)р(у)]. Возможна замена усредненного на максимальны й по у штраф sup Jду (х) q(x)dx, имеющий смысл, если при любом у требуется контролиро'У вать ширину правил а ду (х) по переменной х. Тогда составной риск приобретает вид: п (д) = 1 -Мху ду(х) + л sup J ду(х) q (х)dx.о ,. у Записав inf п (д) = sup inf [ 1 -мхуду(х)+ л р0 (у) J ду(х)q (х)dx] ( где, ,. д Ро (у) д используя соответствующие утверждения теории иrр [22], inf и sup поменяли местами), мы придем к правилу (6.3), в котором р(у) заменено на ро(У), определяемое минимизацией выражения J J [р(х, y)-лpo(y)q(x)]dxdy. В некотором смыспе ро(у) выбирается таким образом, чтобы произведение po(x)q(x) было ПО ВОЗМ•ОЖНОСТИ более «похожим» на р(х, у). Об обще н на я шкал а. Составной риск п,. (д) = 1-J J [-ду (х) р (х, у)+л.ду (x)v р (у) q (х)]dxdy. Оптимальное решающее правило-может быть найдено минимизацией при каждом х и у выражения в квадратных скобках.-После несложных вычислений приходим к следующему его виду: лур(у)q(х)где л находится из уравнения у лу р (у) q (ху определяет наше отношение к сомнительным ре ) Параметр шениям ду (х)<1. При '\' = 1 возвращаемся к (6.3). При '\' =2 получаем дy _(x)=min{l, ру (х)/[2лq(х)]}. Интересно отметить, что при q (х)== 1 данное решающее прави.110 совпадает по форме с апостериорной плотностью, возможно, усеченной сверху величиной 2л.. 3 а меч ан и я. 1. Выводы на,стоящего раздела согласно теоре в режиме полуоптимизма х= 1/2, а СИМ задана интервальной плотностью f?.(X, у), р(х, у), так чтоJJ [е(х, у)+р(х, y)]dxdy=2. Тогда в предыдущие выражения нужно подставлять р(х, у)=:[е(х, у)+ 2. При дискретных х и у плотности заменяются на .вероятнос ти, а интегралы -на суммы. Достаточные классы расплывчатых правил. Нам неважно опять, каковыми являют,ся f!JJ и 61/. Это могут ·быть числовые или дискретные пространства, поэтому вместо оценок в общем говорим о расплывчатых решениях. Неважно также, какой является при этом шкала расплывчатости; она может быть совсем другой,чем рассмотренные выше. Важно, что для шкал должно выполняться очевидное условие d1 (х) > d2 (х)=> Q (d1) ;;;;,, Q (dJ, (6.4) т. е. более расплывчатым и более неопределенным решениям д олжно соответствовать большее (по крайней мере, не меньшее) число ,по шкале Q. К.ак и выше, полагаем !!IJ=!!/Jе-кла,сс всех y Выпишем выражение (6.2) для составного риска, раскрыв подробнее ошибку: (6.5) СИМ, а заодно и позволяет крайне просто найти ,верхнюю (наименее благоприят ную) ошибку, наиболее важную для нас. пессимизме x�l и условии (6.4), достаточнl/м в смысле составного риска (6.5) классом рас плывчатых правил будет усеченный снизу осью абсцисс подкласс � ctgi (х, y)J+: с0 Е .11, ct Е $!+, (6.6) Причем в него могут быть включены только те д*-u (х), для которых ни:нсняя надежность равна � ct Mgi. (6.7) До к аз ат ель ст в о. Для любого д11 согласно следствию к теореме 1.1, sup Mg. От такую перепнсанному для нижнего среднего, имеем Мд= - сюда заданному е>О можно всегда подыскать -g8 ';;ii:: -д и Мд:s;;;;Мg11 +г. (х),еrде ·ПЛЮС означает взятие ,неотрицательной части, имеем •еJИд;;;::Jlg+B. Функция gв(х, у)+ есть решающее правило, таккак O:s:;;;g+e,s;;;;д,s;;;;I. Теперь из (6.5) на основании условия (6.4) и найденных отношений получаем: что Осталось часть теоремы. Если в (6.7) вместо равенства стоит то по следствию к теореме 1.1 существует другой вторичный признак -ge!E+�, для которого g(x, у)+:s;;;;д11а так как в силу первого неравенства JИg+,s;;;;JИд, то риск (6.5) у .п,равила g+ будет (при е-+0) не больше, чем у д, и последнее может быть исключено из ,11;остаточяого класса. Заметим, что обо-значение Mgi .в пра:вой ча·сти формулы (6.7)вместо /Jgi означает, что оставляются лишь полулинейные комбинации согла•сованных ,первичных признаков. След ующие ниже у тверждения получаются из т еор емы б.1 расшифровкой класса вт оричных призн а ков при ра зных ,способах за дания СИМ. Эти утвержд ения тут же сопр овождаются по ясняющими примера ми. Следствие 1. Пусть СИМ разложима .,f{XY=Jtx.,f(Y x, причем Jtx=(fй�). JlYx=(wlxЧ') определены своими первичными среdними /йhi (х), hiE�; Мх'Ф; (у), '1\);ЕЧ'. Тогда при х� 1 достаточны,.,,, будет класс правил �* = {ду (х) = [с0 -� at h1 (х)-� ct (х) ('Фt (х, у) + -М:,е 'Ф1)]+ : hi Е 3{, 'Ф1 Е '1'}, причем таких, что д у (х)::;;;;; 1, МУхд11·(х) = с0-�a+iMh;. Пр и м ер 6.1. Пусть всего одним первичным признаком ,р(у) и значением М,,\\), от х, а .L"=:7" -голая модель. Тогда !l)* составляют при выборе коэффициентов со и с+(х);;,О, неравенству со+с+ (х) (\\)(у)_:_Мх'Ф) � 1, причем Мд=со. Мы видим, .что так как с+ (х) есть произвольная �Неотрицатель правила д11(х) как функции переменной х при каждом за произволЬ1Ный вид, но ,как функций переменной у их функциеi1 \\)(у). Пусть задана функциональным преdставлением y=Vxs и моделью .;f{x'e.=(.l\l x�) (/й'е.Ч') (т. е. флуктуации 6 свободны от х). Пусть оператор Ух обратим: s=Vx -1y. Тогда при х� 1 достаточными в смысле составного риска (6.5) будут решающие правила �* = {дu (х) = [с0 -� at h1 (х) -� ct (х) ('Ф1 (V; 1 у) -М ,Рд]+ : ht Е 3С, 'Фt Е '1'}, причем такие, что ду (х)::;;;;; 1, Мд= с0-�a+iмhi, Пр :им ер 6.2. Пусть есть смесь сигнала х .и шума: у; =х+�;, i=I, ... , п, xEff/,, 61Eff/,, ИJIИ в векrорном виде у=1х+�. где 1=(1, ... , l)т единичный вектор. Считаем, что шум 6 свободен от х .и имеет моде.�ь .А",, заданную первичными значениями М\\).1(6), ,j,,1ЕЧ', а модель сигнала х -значениями Mh; (х), h1E�. Тогда класс !l)* образуют правила вида (х) = = [co-�a+;h; (х)-�с+ ,1(х)(\\),1(у-1х)-М-ф;)] +, при д11(х) � 1, -�а+1Мh1. От кажемся в следствии 2 от пр едположения свободы 6 от х. Сл едст вие 3. Пусть y=Vxs, причем оператор Усе обратим. и пусть первичными средними заданы частные .,/{ х= есть произвольныео ) ( представители множеств А1 и соответственно В;, приходим к правилу д*11(х)= 1-ii [с1;А1 (х)В;(У)+ (l-c1;)б,(х)б11(у)) (i) ( /) с дельта-выбросами, у которого за счет нулевой площади выбросов штраф тот же: J д*11(x)dx=Jд11(x)dx, но Мд*11(х)=l;э:Мдо11(х)=Мд11(х)=1-��сijр;;. Цель выбросов -обеспечить в наиблаrоприятнейшем случае ед.иничную надежность .Мд*=1 и тем самым уменьшить риС'К при оптимизме. Таким образом, отход при -к< 1 от достаточного класса g)*(соответствующего х� 1) может ,привести к «нарушению гармонии» в правилах, вряд ли ,практически оправданному, поэтому использование класса g)* представляется разумным и ,при -к< I, даже если условия утверждения 6.2 не выполняются. Симметрия статистических моделей и зквивариантность расп.лывча тых прави.л. Часто в задаче обнаруживается симметрия следующего .содержаlНия: ,синхрон,ные изменения .наблюде�нlИЙ экви соответствующему сдвигу параметра Мысль на примере, когда Yi=X+si, где •всех y,i на число а равносилен сдвигу х на то же самое число. Нужно ожидать переноса названного свойства на оптимальные оценкн х, а в общем, на правила, о чем и пойдет речь. Но в широком плане, когда синхронные изменения у и х математически постулируются как связанные между собой пространств fВ и ау, или просто ·как особый произведения ·пространств PlJxay. Пр,ичем только, чтобы эти преобразования не перекрещивали Р1; и ау, но и чтобы они образовывали группу, последовательные преобразования, равно как и обратные. щего применения принципов инвариа.нтности. Пер-ейдем к формальному группу 9' преобразований -пространства Р1; хау, сохраняющую на месте по отдельности PJ; и ау, т. е. такую группу, что каждое sEflJ отобра жает fВ на PJ; и ау на ау: s (х, у)= (s1x, s2y). Любое преобразо вание s записывается как совместная пара (s1, s2) преобразова ний, первое из них s1 действует тол-ыко на !В, ко на 6/J. Называются s1 и s2 ча,с11ньr.ми к s Дадим обобщение на совмест-ные ·преобраз ования зультатов § 5.4 (где рассматривались преобразования го пространства наблюдений �), используя введенные тия и некоторые результаты, интерпретированные к нашему случаю. Статистичес-кая интервальная модель называется симметричной к группе [}', ес.1ш для любого преобразования из этой группы М f (s1X, S2Y)= М f (х, у), 'f/ f Е � Симметрия достигается, если симметричен первичный набор W модели ,в тпм смысле, что 1каЖ�Цой .g(х, у) EW tll каждому 'дреобразован·ию sE[J' может быть указан другой первич,ный �признак gs (х, y)=g(six, s2y)E� такой, что Mg5 У тв ер ж де ни е 6.3. Если Jtxu симметрична к группе [}', то частные модели Jtx и .l{Y будут симметричны к своим частным преобр�зованиям six и s2y, (s1, s2)E[J'. Утверждение сл·едует ·из определения и соответствует ра Функция f(x, у) называется эквивариантной по отношению кегруппе ,преобразований !JJ пространс11ва $/JXб/j, если f(s1 x, s2y) == =f(x, у), (s1, s2)E!JJ. Л'1.одель Jtx u ,назы•вае"ГСя эквивариантной к группе !JJ, если все ее первичные признаки эквивариа.нт.ны к [}'. Смысл эквивариантности изменения у соотвеrетвующим изменением х. СИМ есть особый случай эквивариантности, когда (s1x, s2y)= (х, s2y), т. е. каждое sE[J' преобразует только пространство ау (s1 оста,вляет х четко ,на месте). Если СИМ (•.М�) эквивариантна к !JJ, то она будет симметрична к [}'. В самом деле все функции класса IE+� будут эквивариантными и = м f (s1 Х, S2 у)= inf {Mg: '(s1 х, S2 = inf {Mg: f (х, у)� g(х, у) Е .z+ !i} = В ,соответ,ствии с определением решающее правило ,будет (,как f)еэквивариантным к !JJ, если дs1 y(s1x)=ду (х). Иначе может бытьезаписано дs 2 у (х)=ду (s1-1х), (s1, s2)e:!JJ. Например, для детерминированных правил имеем Xs, 11 = s1x11, отсюда преобразованиееs2y выборки у ведет к «смещению» решения до решения s1.x вепространстве состояний.е Класс эквивариантных функций замкнут относптельно линейных операций и нелинейных преобразований, т. е. из эквивариантности всех g(x, у)Е� следует их линейных комбинаций (а в общем - функций от них <р (g (х, у)). Отсюда на основании -георемы 6.1 имеем: Ут-верждение 6.4. При -х;;;;;:::1 достаточными риантных СИМ в смысле составного риска (6.5) риантные правила. Значит, и оптимальные правила будут эквивариантны. Сейчас покажем, что в ряде случаев эквивариантными оптимальные правила должны быть ,и при симметричных СИМ. Назовем шкалу инвариантной к fl), если Q(д,i(s1x)) =Q (д11 (х)), V (s1, s2) e:fl). В случае Q (д11 (х))= J д11 (x)dx шкала будет •инвариантной, ·пожалуй, только к ,сдвигам sx=s+x. Теорем а 6.5. Пусть СИМ симметрична к группе преобразований fl), а риск составной, определенный формулой (6.5), причем шкала Q инвариантна к fl). Допустим, также выполнено любое из двух условий: А. Оптимальное правило единственно или число этих правил конечно; вариантным к fl). Д о ,к а з а т ел ь с т в о. Пусть оптимальное пр-авило является еди.нственным. Тогда, используя сначала шкалы, а за1.ем СJiедующую из утверждения 6.3 си.ммет.р.ию частной модели, получим МО(д11(х))=МО(д11(s1х))= =JШ(д.111(s,х)). Щ(ду (х)) = 1-M(l--x) ду (х) + л•.М ,� (ду (х)) = и в силу единственности оптимального правипа д11(х)=д8,у.(s1х). ECJiи оптимальных правив не одно, а несколько, скажем, d11 (x)i,i= 1, , .. , l, то преобразованиями sE.[JJ одно переходит в другое, так что заданным sE.[JJ и i найдется такое j, что д5,у(s,х)iд11 (х);. Производя равномер = ную рандомизацию между д11 (х), (т. е. выбирая д11 (х)i с вероятностями 1/l), приходим к эквивариантному решающему правилу. То же сам ое необходимо про,1.епать, еспи группа [lJ дискретна: [7)= (s<1 >, ... , s<1 >). доказана. Теорема ;пр-оста для -случая, ,когда fl) дискрет,на. Если же нет, то тру,дности �может выз'Вать цровер•ка ,у,словия А. Максимальный инвариант относительно группы fl), поскольку по определению fl) не перемешивает между собой fl? и б/j, записывается I<ак пара /1 (х), /2(у), и тогда эквивариантное правило записывается через максимальный инвариант: д11 (х)=д'1• м (/1 (х) ). При условиях утверждения 6.4 и теоремы 6.5 оптимальные правила нужно искать именно в таком виде. 6.2. ДОВЕРИТЕЛЬНОЕ ОЦЕНИВАНИЕ ПРИ ЗАДАННЫХ РАСПРЕДЕЛЕНИЯХ ВЕРОЯТНОСТЕЙ ФЛУКТУАЦИЯ Предисловие. Отсюда мы начинаем «осаду» проблемы доверительного оценивания числового параметра хе:�, априорных данных о котором совсем нет, с целью получения конкретных рас плывчатость при заданной н о параметра х, так и получения новых доверительных интервалов для скалярного параметра. Оценка регрессии при известной плотности вероятностей. Пусть k Yi= � WijXj+Si, i= 1, ... , п, или в векторных обозначениях у= i=I Считается, что относительно вектора хт= (х1, ... , Xk) ,ничег о не известно, а вектор 6т= (61, •.., sn), именуемый флуктуацияп... мерной плот1 но.стью p�(z), zт= (z1 , ••• , .Zn), то отношению к мере-длине на !Jln. оценить вектор х. Относительно связи х и s никаких предположений не делается, она не известна (или так -нам удобно это .сЧlитать). Согласно следствию 4 ·к теореме 6.1 достаточный (при х� 1)кла·сс образуют правила вида д(у-Wх), где д(z) измеримы относительно алгебры отрезков. Считая за штраф верхнюю среднюю площадь -под ду (х), что -соотв-етствует интегральной шкале расплывчатости, и учитывая отсутствие сведений о х, преобразуем = M6 supJ д(Wx+s-Wu)du= х = М6 J д (s -Wu)du = J Pi (z)dz J д (z -Wu)d u = = J J Р6 (z + Wu) д (z)d zdu.а В силу измеримости д(z) ошибка будет точ-ной, равной а(д)= =l-Mд(s)=l-Jд(z)p6(z)dz, :и составной риск Щ� (д) = 1-J д (z) р 6 (z) dz+л. J J Ps (z+ Wu) д (z) dzdu = = 1 + f д (z) [л. J А(z + Wu) du -Pi (z)] dz. Минимизирует риск интервальная оценка д*(z), равная 1 при л J p6(z+Wu)du-p6(z) �О и О в противном случае. Цена будет V=1-J[p6 (z)-л.J р6 (z+ Wu)du]+dz. После замены л.а.= 1/'J.. •оцен ка записывается Jр 6 (z+Wu)du/p6 (z)�'J..a. (указываются значения z, при которых д* (z) = 1). Здесь 'J..rz. -находится по заданной ошибке из уравнения а(д*) = 1-jд*(z)p6 (z)dza. = Выражение для доверительного интервала в явном виде !ПО· лучается заменой z=y-Wu и приобретает окончательный общий вид: J pt, (у-Wx + Wu) d u = 1 при � �.о(6.8)а; (х) p(y-Wx) f, иначе значение п,ра,вила ра'Вно О. Нужно разрешить это неравенство относительно х и подобрать ла, что и ведет .к доверительной инди-каторной оценке заданного уровня а, а при одномерном х -к доверительному интервалу. Отметим, что, во-первых, постоя,нные множители левой части (6.8), 1 не зависящие от y-Wx, удобно .перенести в пра•вую часть, и вовторых, целесообразно искать у�п,рощения с помощью монотонных нелинейных преобразований обеих частей, что сразу же и продемонстрируем. Рассмотрим тот случай, когда 6 есть нормальный с нул-евым средним и матрицей корреляций В, 'ЧТО соответетвует плотности Pa(z)=·((2л:)ndetB)-Jl2 exp(-zтB-1z/2). Тогда по (6.8) после .неслоЖ'Ных вычислений находим J р5 (z+ Wu) duо(y2,i:)k = --..:...-=----=-=== х Р, (z) уdet WТ в-1w Х ехр {+zт в-1 W (W7 в-1 W)-1 wт в-1 Z} Отсюда отбрасыва-нием постоянного множителя, логарифмированием и 1Подстановкой z=y-Wx получаем индикаторную оценку,равную 1 в области значений х, ограниченной нера-венством a. (ik) -критичес�кая точка распределения хн-квадрата с k степенями свободы, и равную О вне этой области. Пр им е р 6.5. Рассмотрим простейший случай одного неизмен-ного по l = па-раметра х, который нужно оценить по выборке YiX+61, i=l, ... , п, где si независимы и нормально распределены с M6i0, M62 1l. Тогда k=l, и из = = (6.9) получим доверительный интервал для х, записанный в форме неравенства А п (J 1(1-а) = 10-хl�ла, где 4 у = fYiln и ла. Vп Ф--2-, а Ф(и)= = -V l 2,i [ и ехр ( -и'/2)dи-фун.кц.ия Лапласа. В результате 'IIOJiyчaeтcя хоро• шо извест.ный доверительный интерва,1 для средне1·O при заданной дисперсии (6.9) lu-xl �-v,i Ф-1 ( 1 2 а). = Пусть теперь YiXwi+Si, i= 1, ... , п, где Si нормальны, зависимы и заданы 1корреляционной матрицей В= {MsiSj, i, j= 1, ... , п}, а Msi = = XWt+st, 2 Mst=O, B(t, 't')=е rде ht есть решение уравнения J B(t, -r)h-rd-r=w,. При взвешенной шкале ра,сплывчатости в знаменателе левой ча·сти неравенства в (6.8) появляется весовой множитель q(y-Wx), расширяю щий интервал для тех х, которые имеют «повышенный приоритет» -при сужении для остальных х. В -случае обобщенной шкалы Q(д)= Jq(x)д:, (x)"dx, y>l, оп• тимальная оценка уже не будет доверительным интервалом, а повторяет с некоторыми искажениями по форме ,плотность 1 d u J/!v д"' (z) = m in { 1 ; [A(i >} • ищется по заданному уровню а. Например, при од'ном параметре х, при q(z) 1, нормальной плотности и •независимых одродных флуктуациях с Msi=O, Ms2i q где Л(� = ,a2 , имеем (рис. 6.1) оцениваемый параметр, свобод (что соответствует известна пло11ность n Доверительное оце Пусть Yi = Xsi, i 1, ... , п, = или в векторах y = ный от 6 и описываемый голой моделью tJx полному да�нных о х). Пусть Тогда достаточным при х� 1 будет класс всех измеримых Р& (z). правил вида (х)=д(у/х). Ошибка равна а(д)=l-Мд(у/х)== =1-jpa(z)д(zд):,dz, а штраф _ 00 _ 00 м:r J д (у/и') du' = ма sup J д (х s/и') dи' = О Х>О О ф == S . А (z) sup J д (xz/u') du' dz = о S Ра (z)ф S д (z/u) dudz, х>О о О ---, r > t/" ' \ где произведена замена и= и'/х и сделано допущение sup ха= а. х>О Необходимость такого допущения состоит в том, что ширина до верителыной оценки ра•стет .с у,величением х, стремя,сь к оо при Х---+оо, IВОТ И ПрИХОДИТСЯ ВВОДИТЬ ОГраН'ИЧеНИе х<а (причем G МОЖ• но считать любым сколь угодно большим числом). Тогда составlНОЙ риск запишется 00 - П). (д) = 1 -J д (z) р6 (z) d z + л. о J р6(z) оJ д(z/u) dud z. Обозначая л.u= 1/л.а. и производя во втором интеграле замену z'=z/u, учитывая при этом, что dz= undz', приводим р1юк к виду П).(д)=l-J д(z) [Р;(Z)-л.;1 [ иn Р;(иz)dи] dz.а Отсюда сразу же следует, что оптимальное доверительное решающее правило должно быть интервальным и иметь вид 00 J un р6 (иу/х)du/ps (у/х)� л.а,, (6.11)о где •неравенство указывает значения х, при которых д* (у/х) = 1 = (иначе -О); л.а. находится из уравнения J д* (z)p6 (z)dz1-а, а при нахождении доверителыноrо интервала ·совершена подстановка z= y/x. В частном ,случае нормальной стандартной плотности флуктуаций оптимальный доверительный интервал в терминах переменной z=y/x приобретает вид 00 l -tt2 ехр (11 z //2 /2) 00 J un ехр 11 z 1\2 -dи = ---'-""'-"--�-'-J un ехр ( -и2/2) dи �"-· О ( 2 ) 11 Z 11 n+1 ОаОтнёсёМ интеграл к правой части, обозначив ее лп, и пусть и(лп) и й (л.n) есть ,решен.ия уравнения ехр (и2/2) = л.,iun+1• Тог1да и<жомый д,оверителыный интервал запишется и2 (лп) :::::;\lzll2:::::; й2 (лп), если верно неравенство лn �exp.[(n+1)2/2]/(n+l)n+t. При равенствеадоверительный интервал вырождается в точку, причем u2 (i\.n) = =й2 (л.n Найдем Лn в -соответ-ствии с заданной ошибкой а. Для эroro обратим •в·нимание на тот факт, что llsil2 по определению есть сJiучайная величина, раопределенная по закону хн-квадрата с п степенями свободы. Подставляя плотность этого распределения, выводим J Р [u2 (л.п) �lls\12 �u2(л.п)J = ,О'J'сюдакак решение этого уравнения. Обозначая ,!!:a,n =.!!:. (л.а ,n), йа,n= где Г ( ) -rамма-функция. •наюдится значение ла.,n =й(ла;,n) и подставляя llzllе2= \lyllе2/x2, 11Iолучим окончательно следующий доверительный юнтер1вал уровня а: 2 11 у 112/и:.n :s:;;; Х:s:;;; 11 у1\2/��.n• При а-+1 имеем u2a;,nfn+l, й2а;,n�п+1 .и доверительный интер1Вал Таким образом, получен доверительный интервал для дисперсии нормальной обладающий вообще минимальной расплывчатостыо, в том числе среди ·всех известных. Математическое ожидание наблюдений у считалось ,нулевым: Myi= O, i= 1, ... , п. Пусть теперь среднее Myi=0 совершенно неизвестно, т. е. Yi= Xsi+0. Считая 0 .свободным ,параметром, а Si -независимыми риантности (к сдвигу) можно прийти к тому, что оптимальной оценкой диспер,сии является доверительный ,интервал: (6.12) n = где числа Ua;,n-1 и йа.,n-1 были определены выше а а2 А у� (yi- 0)2/n. -1 1 6.3. ОЦЕНКА ПАРАМЕТРОВ РЕГРЕССИИ ПО ЭНЕРГЕТИЧЕСКИМ И КОРРЕЛЯЦИОННЫМ ДАННЫМ О ФЛУКТУАЦИЯХ Обоснование. Наиболее обиходными, доступными сведениями о процессе помимо среднего являются его энергетические характеристики: ,средняя мощность, текущая мощность, а также корреляционные •свойства, спектр. Причwна их распространения в том, что верхняя граница средней мощности есть просто предел энергетических возможностей источника излучения. А корреляционные свойства обычно обязаны фильтру, будь он объект естественной природы как •инерционность среды или искусст,венной в виде начальных каскадов приемника, который преодолевает процесс прежде, чем попасть на устройство обработки и принятия решений. Кстати, энергетические данные есть часть корреляционных,как и некоррелированность выборки, обычно достигаемая, если отсчеты процесса разнесены достаточно широко друг от друга. Здесь строятся оптимальные доверительные оценки для регрессионных параметров, в частности, параметра сдвига, когда известны те или иные данные указанного сорта о флуктуациях. Оценки получаются расплывчатые, но никак не индикаторные,т. е. не .в виде доверительных интервалов. Любопытно по ходу изложения проследить, как связывается расплывчатая форма этих оценок с видом первич�ных признаков, незримо присутствующих ·вэнергетических, корреляционных и других исходных (первичных)данных, а также как по мере увеличения количества и улучше ния качества (точности) этих данных у.'lучшаются оценки, становясь более точ,ными, более надежными. Оценка параметра сдвига при заданной мощности флуктуаций.Пусть Yi=X+si, i= 1, ... , п, или в векторных обозначениях у==. = 1х+6. Пусть единственное, что известно, так это .мs llsll 2/n===о2 -верх·няя ·средняя по отсчетам (и по ансамблю) мощность флуктуаций. Тогда СИМ J(xY будет определена единст, венным первичным средним, получаемым подстановкой siе= Yi-x: (6.13) Здесь сумма (далее все суммы по i от 1 до n) составляет первичный приз�нак. Ищем при этих данных оптимальную оценку параметра х. ДостатоЧ'Ным для ;поставленной задачи согласно ,следС1'ВИЮ 4 к теореме 6.1 будет -следующий класс оценок: ду (х)= [с0 -с � (Yi -х)2/п]+, О� с0 � 1, с>О, (6.14) причем для них Мду (х) =;[с(}-со2]+. Чтобы искать оптимальную оценку, вычислим штраф. Обратим внимание, что оценка (6.14) как функция х есть парабола, что видно, если переписать входящий в (6.14) первичный признак следующим образом: I (Yi-x)2/n= =а2у+(х-О)2, где O=I,y1/n -выборочное сре.1нее, а; ="J:,(yi-y)2/n -ВЫ•барочная •дисперсия. Парабола усечена снизу осью абсцисс. Интегрируя ее, получаем Q(д)=Jдеy (x)dx= А ,r[ А2]+ J [c0 -ca;-c(x-y)2 ]dx= и-V [с.1с-с1;1+ 4([со-со}]+)З/2е з-Vё' r.u пределы иятегрирования соответствуют положительной части ду (х). Оста А •ось найти М-У Q (д)= у4--М у ([Со -сау2 1+)3/2•еЧастная моде.'!Ь .К У ::or•е 3 с ласно теореме 2.1 основывается на первичном .значении: ЛfУinf }'!, (Yi -x)3 /n= мУ cr.; = ai. х Эдесь а2у есть первичный признак, а так как он всего один, то /JY а: = inf а: = 0, И ПОЭТОМУ у W([co-co;]+)312 =sup([co-co;]+)312 у = (co~cinfa:)312= cg12•у Осталось найти М"У ду (х). Правило (х) не мажорируется первичныМ1 ду признаком (6.13), записанным ;2 у+ (х-у) 2, а он всего один, поэтому мху ду (х) = sup [с0- с� (Yi -х)2/п]+ = Со •х,у В результате ах(д) = 1-х�иу(х)+ (х-l)Мду(х)= l-x[co-co2]+ + (х-!)со.еТеперь записываем составной риск: -+ + (х-1)с0 с0 с.е(6.15} п (д) = 1-х [с0-со2 ] +лс0 34 -v-/ Здесь нужно рассматривать два случая: Co-ccr2;;,,0 и Со-са2<0. Последний из них не представляет .интереса, так как соответствует ошибке ах(д) = (x-l)co, определяемой исключительно пессимизмом (а не знаниями о свойствах флуктуа•· ций). Полагая со-са2;;,, О, найдем сначала оптимальное значение с при задан ном со. Для этого, дифференцируя ,nравую часть составного риска по с и прн-равнивая О, получаем С = Со (2 л/(3 Х а2))2/З И minП1., (д) = 1 +со [(12л2 х а2)1 /3_ 1). с Отсюда видно, что оптимальное значение со должно быть .равным либо О, ли- ствует а./х < 1.еТаким образом, при "";;.:, 1 оптимальная оценка имеет вид [1-с* � (Yi -х)2/п]+ = [1-с*о; -с* (х-у)2]+, с*= � . хо2 (6.16) Ка.к функция переменной х, парабола, нанесенная на рис. 6.2 штриховой линией, при значении х, равном. выбо_р,оч1ному ,среднему у, осью абсцисс. ,\-\ак сималъное значение параболы 1-с*�2, не равно 1, что говорит о неконтрастности оценки, а размах ,параболы у основания, равный 2 У1/с*-а2 у, характеризует ее ра-сплывчатость. Здесь ,неприят ным является влияние cr2y, от которого, как оказывается, нетруд-·ено избавиться, что сейчас и будет рассмотрено. Рис. 6.2. Доверительная парабола при энергетических данных 24':} ,..:дем контра,='l, inf ду стную оцеНlку (т. е. sup ду !ii!ii:0) вида " х ду (х)-[1-с* (x-y)2J+, с*= а,/('И.02). (6.17) Для нее Мду (х) = М [1 +с* а; -с*� (y,.-x)2/n]+-1 +с*М о; -с* м � (у,-х)2/п = 1-с* о2 = 1-а,/х им ду (х) = 1, поэтому уровень а,х (д) = 1-хМ д+(х-1) М д = а,, а штрафМУ J ду (х) dx = = МУ 4/(3 Vс*)-4/(3 Vс*). Таким образом, и штраф, и уровень оценок (6.16) и (6.17) совпадают, контрастная оценка (6.17) также является оптимальной. Это парабола по переменной х, нанесенная сплошной линией на рис. 6.2. Можно сказать, что любая оценка, заключенная в пределах между оценками (6.16) .и (6.17) -1 -с* а; -с* (х -y)2J+ � ду (х) � [ 1 -с* (х -у)2]+•о .будет оптимальной. Причина такой ;неоднозначности оптимальной оценки объясняется тем, что как Мду , та·к и Мду , а следо,ватель но, риск ориентирова1 н на такой на·именее благоприятный процесс, у которого �2у =0, что означает лостоянство реализаций флуктуаций s1=s2= ... = sn, при этом оценки (6.16) и (6.17) совпадают . .Это же и причина, по которой точность оценки, ее ширина не зависит от объема выборки п. Оценки (6.16) и (6.17) ,называю'ГСЯ оце.нками энергетического типа, так как используют только среднемощностные данные о флуктуациях. Сейчас мы выявим некоторые их допол:нительные стороны и дадим обобщения. Развитие энергетического типа оценивания. 1. Если помимо а2 задаша нижняя граница �2 =M'llsllо2/n ,м·ощности фл'У'ктуаций, то оптимальная oцffilкa не изменится, так ·как новое среднее, взя тое за первичное, не меняет ,ни частной модели .JltY, ни шкалы Q(д), ни значений Мду , Мду . 2.оПусть помимо верхней мощности о2 известно, что флуктуации имеют нулевые средние, а именно, либо Msi= 0, i= 1, ... , п, либо MsA=O. В обоих случаях в силу симметрии СИМ к переста новкам Yi оптимальный алгоритм будет принадлежать следующему ;:r.остаточ1ному ,классу: ду (х)= [с0 + с1 � (У1. -х)/п-с � (у1 -x)2 /n]+.о Слагаемое с ·коэффициентом с1 даст лишь смещение в сторону по оси х оценки ду (х) как функции х, что, как .нетрудно убедиться,приведет к увеличению риска, поэтому с1=0. Частная модель JtY :246 как при нулевых данных Msi= O, так и когда этих данных о Ms-. нет, одна и та же, поэтому штраф раосматриваемой оценки, а следовательно, ,и риск будут такими же, .как у оценок (6.16)r(6.17). Таким образом, данные о нулевом среднем значении флуктуаций не меняют решения исходной задачи: оптимальная оценка будет иметь вид (6.16) или (6.17). Оказан,н,ое переносится и на = случай, когда заданы границы: а) Msi= -m, Msi=m, iа1, ... , п, либо б) M�=-m, мiа = т. 3.аОценки (6.16) и (6.17) «настроены» на максимальныйашт,р·аф Л1Q(д) и -соответствуют х� 1. Тем не менее они остаются оптимальны-(коэффи ми и при xа ,среднее ·неотрицательного· функционала от реализаций флуктуаций: lvlF {s} =µ. Тогда оцен�а будет иметь вид дy (x)=l[co-cF{y-Wx}]+, причем Мд=![со-сµ]. Рас.смотрим два ,примера таких оценок. П р и м е р 6.6. Пусть х -параметр сдвига и заданным является среднее эффективное значение реализации флуктуаций .М \s \ = µ, 1s 1 = � 1Si 1, Тогда оптимальная оцен,ка уровня а записывается: д(s)=[co-c*lsl]+, Coо =•l, c*=a/(x�t). Сюда нужно подставить s=y-lx. Оценка как функция переменной х обретает вид линейно-ломаной с узлами в точках у;. Форма записи оценки не изме нится -при задан111ой любой другой норме Is 1, Пр им е,р 6.7. Пусть единственным первичным значением является М1: { 1�;1 > h}/n = Ph• т. е. исходным является задание верхнего среднего относительной частоты превышений абсолютными значениями Si порога h. Тогда оптимальная оценкз· имеет вид ду (х) = (с0 -с 1: { /�;/ >h}/n]+, с0 =с= min {1, (1-сх)/(1-х Ph)}. Оптимальная оценка параметра сдвига при однородных некоррелированных флуктуациях. Дополним сведения относительно флуктуаций, обогащая лервичный набор новыми признаками, и посмотрим, как .видоизменится оценка, какие новые свойства у яее ,появятся. Пусть Yi= X+si, iо= 1, ... , п, причем известно только, что �i некоррелированы Msis;=O, i=l=-j, и имеют одинаковые «мощнос'Ги» Ms2i= а2. Это ,соответствует С ИМ с первичными средними, получаемыми подстановкой siо= Yi-X и приобретающими вид: М (У;-Х) (У1-Х) =0, i=l=,j; М (У;-Х)2 =а2, где i и j •пробегают значения от 1 до п. П оскол }jку СИМ симметрична к перестано вкам Yi между собой, а группа переста1новок дискретна, то буде·т клас,с инвариантных к перестаJНовкам правил 6.5). Вместе ,с теоремой 6.1 это поз-воляет получить дост аточны й клас;с оценок: = � � (У; -х) (У1-x)/n2 -с2 � (У; -x)2/n]+ = f�/ = [со -с1 (у-х)2 +(с1/п-с2) (У2-2х у+х2)]+, у2 = � у�/п, и для них Мду (х)=1[с0 -с2 02]+. Осталось найти коэффициенты со, С1 .и с2, минимизирующие риск и удовлетворяющие ограничению ду(Х}�l. -Вудем искать Q(д), для чего перепишем ду (х) в виде: ду (х) = [со-с1 У2 + (c1/n -С2) у2 + + 2х(с1 (п-1)/п+ С2) у-х2 (С1 (11-1)/n + C2)I+ = [ао +а1 х-а2 х2]+ , А А 2 :rде aoе= c0-a2!i2+(c1/n-c2)crеy , а,= 2а2у, a2е= c1(11-l)/n+c2. Условие ду(х) � 1 соответствует двум неравенствам а2�0 и sup д у (х) = х =do+42 1/4a2�l. Так ,как ду(х)�О при do+cP 1/2a2�0 :И lx-d1/2a2I�е � V [421+44oaz]+/2a2, то, проинтегрировав ду(х) по х в пределах, соответствующих последнему неравенству, найдем V А2 А + А + Q(д)= ду(х)dх=(2/3а2 ) (а1 +4аоа2) [a0 +Аa2i/4a2]. S Учитывая теперь, что Мд (х) =М У [do +d2 1/4a2] + =sup [4о+42 1/4а2] +, сформируем у .выражение для составного риска: ПА (д)= 1-х [Со-С2 а2 ]+ + (х-1) S + 4л S3l2 / 3 -Va�• Найдем ,в этом выражени.и S = sup [ do-4 2 1/4a2] += Со+ inf а20 2+sup { с1/п-с2) cr2 у= Ау А 2 11 =со. Отметим, что для справедливосm последнего выраженияаудолжно выпол няться c1/n�c2 (иначе супремум от а2 равен оо). В результате у Щ (д) = 1-Х [со-С1 а2 ]+ Оптимальным с,, миним11З1Ирующим риск при задан,ных с0 и с2 , будет такое З'Начение, которое максимизирует а2=С1(n-1)/n+ct' при условии с,/п�с2. Так как чем больше с1, тем больше az •И тем меньше риск, то оптимальным будет наибольшее возможное значение: с1е= с2п, о'!'Куда сразу же а2=с1, и ,после под• .станов.кн этих значений оценка приобретает вид ду(х)= [с0-с1 {0-х)2]+, а ее риск становится равным П�.(д) =1-х [со-С1 02/n]+ + (x-l)co+ А.Со (4/3) -Vco/C1 • Полученное выражение отличается от (6.15) лишь тем, что вместо cr2 здесь ,стоит а2/п, поэтому оптимальная оценка будет иметь вид (6.17) с заменой а2 на cr2/kj, ЧТО МЫ И сформул�руем КаlК ,результат. При однородной некоррелированной выборке и х;;;;;: 1 оптималь.ная расплывчатая оценка уровня а имеет вид д; (х) = [ 1-с* (х-у)2]+, с*= а.п/х о2• (6.18) Иллюстрация ее дана 1на рис. 6.3. При увеличении п оценка ста новится все более узкой, менее расплывчатой, что очевидно должно быть, так как при получении О как суммы некоррелирован.ные флуктуации складываются в беспорядке, стохастически, сгла живая в известном .смысле друг в результате разброс уменьшает-ся, что позволяет для фиксации а сообразно этому .250 · рис. 6.3. Расплывчатая оценка при некоррелированных флуктуациях сократить ширину. Причем такой же оценка будет, если допо-лиителыно из•вестно, что Msi = О,эти новые данные оказываются. ____._....:;__.__--'=-------:r Она Оценка (6.18) инвар.иа•нтна к перестановкам наблюдений. же эквивариантна к преобразованию сдвига в том смысле, что одновременное прибавление ко всем Yi •И к х любого числа а не меняет ее значения: ду(х) =ду+1а(х+а). Последнее и позволяет иссле�цовать (6.18) �пр·и х=О, исследуя 1Гем •самым д(s). Оценивание сдвига при неоднородных некоррелированных фJiуктуациях. Пусть выборка не является однородной, но остает- ся -некоррелированной, т. е. Yi=X+'si, Msis;=O, i=l=j,i='l, , .. , п. Определенная таким образом СИМ уже не будет симметричной к перестановкам. Достаточным будет следующий класс. где с,1 -с11• Перепишем: ду {х) = [4о+41х-=--а2х2]+, где 4о= со-!,!,снУ;УJ, 41=!,!,с;1(У;++У;)=2!,с;у;, с;=!,сн, а:ь= !,!,сн. При введенных обозначениях штраф / 312 MYJ ду (х}dх= 4; [sup(aoa2 +a1 /4}+].ез� У Ищем супремум в квадратных скобках: sup(4оа2 +421/4) = соа2 + inf [a2!.!.CiJYiY ;-!,!,c;CJYiY ;]• у у Чтобы инфимум не равнялся -оо, матрица Q элементов ;Qн=·(!,!,с1�1)сц -с;с1. i, j= 1, ... , п, должна ·быть неотрицательно определенной, :и тогда sup(c2oa2+у +а2 1/4)= с0а2• ДалееМду(х} = [co-!,c+;;a2 i)+, где с+;; есть положительные час -f ти сн. Наконец, Mдy(x)=supдy(x)=(l/a2)sup(4oa2+42 1/4)+=co, а ду(х)�l,с,у z,yзквивалентно условию со� 1. Используя найденные значения и полагаяе 1-со +к!, ctaf + л4-c�l2J3V!.!.CtJ.е Нужно минимизировать риск сн при условии неотрицательной определенности матрицы Q. Разложим Q на сумму матриц ранга 1: Q=!,ЬщЬт<">• где· Ь< ">= (Ь1�1; .,., ь,.,.)т -векторы. Тогда будет минимизировать ПА(д)11езависимым выбором .векторов Ьо,1. Совершен.но ясно, что все эт.и векторы све .дутся к одчюму, так что c1;=b;bj. Отсюда !.rcijо= (Ib1)2 и c,1=bz;. Оценка и риск запишутся так: + ду (х)= [co-(Iьf (Yi -х))2], П� (д)= l-c0 + х I Ь�а� + ,, 4-с�'2. ЗI bi·о Осталось минимизировать риск по Ь; 11 со. Дифференцируя по Ь; 11 приравнивая о, получаем b;о= 2лCo3 '2/[3xcr2 ;(Ib;)2]. Сумиируя по i, выводим уравне 112 .ние, нз .которого находим сумму IЬ1= [2л(�(I/UZ;))/(3x)] 1 1 3с,1 . По:�:ставляя эту сумму в выражение для Ь; н да.1Jее в Пх1 .(д), пмеем bt = с�12 ( :� ) 1 13 / [а1 (I(l/�))2 :' 3 ] ио -Очевидно, со будет равно 1 или О в зависимости от того, больше -или меньшео О выражение в квадратных скобках. Нас интересует .'!ишь первый ,случай, по.зтому Coо= l ·И тогда b;о= л/UZ;. Опре;�.еляя ,. по задаюноit ошибке а,;=х�-Ь2 ;а2;=о·=xлI(l/cr2;), находим л2 =а/[хIЩа2;)]. Сформулируем окончательный ре зультат.о Оптимальная (при х� 1) уровня а оценка параметра сдвиганеоднородной некоррелированной выборки ,и.меет вид а; (х)= [1-� ( i _1 ) (х-� Yi�W ) s] + " иl � lfaf В обозначениях о-2ср = п/(� l/�2i) и g = о2ср!, (yi/ (no2i)) оптималь у=!}, поэтому из (6.19) частным случаем будет (6.17). ная оценка записывается а; (х)= [1 � (х-;) 2 ] + х (Jcp . (6.19) Отметим,А что при одинаковых дисперсиях имеем crc p = ·cr и Обобщения оценок 1. О ц е н к а п а р а м е т р а р е г р е с с и 11. = == Пусть YiWiX+si, Msisj O, i=/=-j, Ms2il, ... , п. Переходяок новым наблюдениям: Zi= Yi/Wi= x+ (s1/Wi) Х+Т)i, M1J2 i= 02i/W2 i,мы ,св-осrим задачу к (6.19), ·В которой Yi заме,няются на Zi, а а2iна ·,Л/w2i, Получается следующая оптимальная оценка:о 2 � Yi w,i}_1/ + [1-(6.20) а; (х) = !:... ( � �!) (х -) ] Х (Jl � Wi/ (Jl = Отметим, во-первых, что отсчеты у1 индекса i: WiO исключаются. Во-вторых, оценка эквивариантна к преобразованиям сщшга вида s (х, у)= (х+а, y+wa). В-третьих, оценка (6.20) базируется на !}= (�yiwia2i)/(�wila2i) -такой детерминированнойооценке х, которая максимизирует в классе линейных оценtж вида �CiYi ·отношение (� CiW;) 2/ (� c21cr2i) ( интерпретируемое в зада чах радиотехники как выходное после линейной обработки от1ношение энергии полезного сигнала к мощности шума). 2.еРас-смотрим боJ1ее общую задачу. Пусть из вест н ы ·ко р = р ел я ц и и Yi= W1X+si, Msisj= Bij, i, j1, ...,п. Здесь элементы Bi.i образуют неотрицательно •симм·етричную матрицу В. Разлагая ее по собственным функциям, получим B=Fт1:F, где 1: -диагональная матрица с элементами o2i по главной 1диагонали, а F-унитарная матрица F;_;: P=F-1. Перехюдя к векторам-столбцам w и s элементов wi и s;, запишем y=wx+s, B=Ms•sт. Совершим преобразование z=Fy= =xFw+Fs=xw+ri, где Wi= �FijWj, 'l']i= LFijSj• Нетрудно видеть, j i что Mririт=MFssTP=FBP=FP1:FfеT=L, так что 'l']i некоррелирова1ны между собой и M'1']2 ;=cr2i. Таким образом, в набдюденияхеZi задача ,сводится к уже рассмотренной, только в формуле (6.20 ) нужно заменить Yi на z;, w; на wi, а cr2i 1на cr2i. Так как V V V 2 2 L wi/ai =W'I' L-l W=W'I' рт FB-1 fтfw=wт в-1 w, � zi W;/a[ = z'I' L -\ W= y'I' рт FB-1 рт Fw = ут в-1 , .w то после соответ-ствующей подстановки в (6.20) полуqаем оптимальную оценку " • а + ду (х) = [t --; w" в-1w (х-ху)2 ] , (6.21) .. где Ху =ут в-1 w/wт в-1 w (полез•но сравнить ее с (6.10)). Если уqесть, что !Верно м:2 s = l/wт в-1 w, то оценка (6.21) записывается ина'lе: .. Отметим, что Хеу прн M;iе= 0 есть детерминированная оценка х, минимизирующая в классе ,,1инейных оценок сту от,ношенне «сиг•Нал-шум»: (Мсту)2/М(сту)2 = (стw)2/ (ст Вс). 3.еО ц е н и в а н и е а м п ,1 11 т у д ы д е т е р м и н и р о в а н н ого •с и r на JI а. Пусть требуется оценить х -по данным где В (t, t') -корреляционная функция шума, это есть ядро положительно определенного обратимого оператора. Оценка ю1еет точно приведенный в (6.21) вид с той .,�ишь разницей, что квад ратичные формы wт в-1 w и ут в-1 w заменяются на интегралые wт в-1w= т J о Wt ht dt, ут В-1w = т J о Yt ht dt, где ht получается решением �интегрального уравнения т о Отметим, что точное знание корреляций есть некоторая идеализация реальных знаний, если ошибки невелики. В следующем разделе влияние ошибок в знании корреляций на способы оценок -и оптимальный вид их. Оценка амплитуды сигнала при колебаниях его формы и не == точных корреляциях шума. Пусть Yt•WtX+st, где tt1, t2, ... , tn (или te:)[O, Т]), ,wt определяет форму сигнала, а х - его амшш туду. Пусть шум st имеет нулевое среднее Mst=O, а его корре.11яционная функция В (t, ,;) неизвестна и лежит внутри выпуклого ограниченного семейства !8: ВЕ!В Будем искать оптимальную оценку х в достаточном для указанной задачи классе правил вида д(у1-W1Х). Запишем для этого риск П�(д)= 1-хМ�д(s) + (х-1) М6д(s) + л i№s�p Jд(s + w(x' -х))dx= = 1-х infMiд(s)+ (x-l)sup мi д (s)+ лs up Mi fд(s-wx)dx =е в -в = 1-х inf Miд(s) + (х-1) д + лsup Jд (s-wx)dx, в s где использовано равенство м Ъf(s) =supt(s) =7 и индекс t у St и Wt Д,'IЯ краткости опущен. Задача синтеза оптимального правила обретает вид inf sup [1-хМiд (s) + (х-l)д+ л sup fд(s-w х) dx]. - д в s !1iв1 +0-v)B, д (s) = sup { � � ['\' В1 (t, i-) + t ,: +(1-y)B2(t, 't')]ct,'t: �Ctst+ � �ct,-r6t6't �д(s)}= t t 't = yMi д(s)+(l-у)Mfi д(s), О�у� 1, -1 -1 то риск является вогнутой функцией В. Учитывая выпуклость и оrраннченность семейства !8, мы можем ияфимум .и супремум поменять местами и сна В (t, i-), обозначая риск П �-8 (д), а затем, мш,си,мизируя риск, определить наименее благоприятное Вк.б и подставить в оценку. Оптимальная оценка, минимизирующая Пf,8 (д), и риск дляенее записывают,ся в матричн-ом виде (при непрерыв:ном t легко переписывающимся в соответствующие интегральные аналоги): Пl,в (д) т де 111·ри 'А это -формула ·(6.21), и было сделано допущение, что пt.в(д) =:::;;; 1. Теперь ,из выражения для риска ·видно, •что наименее благоприятной Вн.б будет корреляционная функция, .минимизирующая квадратичную форму: wт В;:� W= min wт в-1 w. Ве:!В Окончательно оптимальная оценка уровня а примет вид (6.21), .куда вместо В подставляется Вн.б• Рассмотрим примеры получения та·ких оценок для различных �семейств !8. Проимер 6.8. Пусть заданы границы корреляционной функции B(t, т), .B(t, 't), являющиеся неотрицательно определенными ядрами. Тогда наименее ·благоприятным будет значение В11.б(t, т) =B(t, т), соответствующее максимальной мощности B(t, t) =521 шума и максимальным корреляциям.о В другом случае пусть !8= {В: 11B-Boll=::;;v}, где норма 11В11 есть макси·мальное со(iствен ное чнсло оператора с ядром B(t, т). Здесь Bo(t, т) естьо;некоторое предполагаемое (оценочное) значение корреляционной фуню1,ии, ао·v -величина ошибки. В этом случаео WT min в-1 w = W T (Во+ v 1)-1 w, 11в-в.11:е;;v .где 1-единичный оператор, соответствующий ядру в виде дельта-функции .Дирака. Ядро vl интерпретируется 1Как корреляционная функция «белого шу.ма» спектральной юнтенсивности v. Поэтому сумма Bo+vl ,равносильна добав лению к флуктуациям Та1Ким образом, ошибка в знании корре.11яционной функции компенсируется прибавлением добавки в виде -«белого шума» мы уже получали в задаче фильтрации конца § 5.5). Теперь обсудим тот случай, когда неточно известна ФУ'нкция Wt, определяющая форму полезного •сигнала. Оценка (6.21) уже не будет в этом случае оптимальной, так ·как она призывает к линейной обработке наблюдений Yt, тогда ка·к при ·неточно извест• ном сигнале не исключено, что следует перейти к нелинейной обработке. По крайней мере, оценки вида 1 [c0-��cii(Yi-x) Х Х (yj-x)]+ уже не образуют достаточного класса. Тем не менее, если изменения сигнала малы по сравнению с некоторым гипотетическим значением ,w01, то все же можно ограничиться линей,ны ми оценка ми, подбирая в Х у =сту З'Начение с таким образом, чтобы ма·ксимизировать отношение сигнал-шум на выходе фильтра линейной обработки при наименее благоприятном отклике Wt, т. е. решая задачу max min (ст w)2/ст Вс при ст w = 1. с we:W может колебаться около значения w0 1, так что Пр им ер 6.9. Пусть Wt t min (ст w)2 = min (� Ct Wt)2 = (�ct w;-Нсl[Л)2 = (c"w0 -llcll Л)2 , weW' llw-w•11:e;;л rде минимум достигается при w,о= w0 ,-c,Л/оllcll. Максимизацня по с отношеивв сигнал-шум (cтw"-llcllд)2 /cт Bc ведет к значению с*=(В-v1Г 1 w/"-"'(B-v1Г1 w, rде v находится как ,решен.не уравнения v2wт (B+vl)-2w= д2 • При непрерывном времени t суммы заменяются .на интегралы, а матричные выражения -на интеграпыные аналоги. Таким образом, наличие колебаний сигнала в случае линейной обработки компенсируется введением дополнительного аддитивного «белого шума» спектральной интенсивности -v1 • Полезно провести сравнение с предыдущим примером, где такая же добавка являлась следствием 11еточного знания корреляционных свойств шума. 6.4. ОЦЕНИВАНИЕ ПАРАМЕТРА СДВИГА ПО МОМЕНТАМ И ГАРМОНИЧЕСКИМ СРЕДНИМ Оценивание по моментам. Какова будет оценка па·раметра хпо наблюдениям Yi = x+si, i= 1, ..., п, когда известны моменты более выооких, чем первого и второго порядков? Тогда вид оценки, в общем, будет отличаться от усеченной снизу параболы, каковой ()IНа являлась выше. Нач'Нем с примера. Проимер 6.10. Допустим, что исходными для s являются: M;3is3 ;=0,i:;l=j, .Мs8i=fiie. ТQгда при :н;;;э.1 достаточным будет следующий класс оценок: = куда для получения ду (х) нужн,о подставитьоl�JSiYi-X). В частности, к этому классу относится оценка вида д(s) [co-c,��S3iS8J-Cz�s8i] + (,, = ...... + ...... з д(s)=[l-"8/Лn)2] , ;8 =�s/n,о котоr,ая заменой ;3 i= 1Ji выводится из (6.18), причем Mri1о= 0, .МТJ2 i= fiie. по = этому для фиксации уровня должно быть д,.У :нтв/(ап). Если в той же самой задаче дополнительно известны промежуточные моменты (вплоть до шестого), то, как можно будет видеть из сравнения со следующим примером, более хорошими могут оказаться оценки вида [1-({/д)8 ]+, так что форма оценок во многом определяется видом исходных (первичных) признаков. Перейдем от ,примера к общему случаю. Пусть ограниченными являются моменты ·вплоть до порядка 2k. Зададимся оценками вида д(s)= [1 -{€/Лn)2k]+, k= 1,2, .... (6.22) и назовем их оценками степенного типа. Как функция переменной х оценка степеmного ,вида д(у-lх) при k> 1 уже 'Не перевер·нутая 1 Впервые показано в статье: Кузнецов В. П. О синтезе линейных обнаружнтелей при неточно заданном сигнале и неполностью известных свойствах нормального шума//Радиотехника и электроника. -1974. -No 12. -С. 25292538. 256 Рис. 6.4. Оценки степенного типа -+ОО киндикаторной форме, т. е. до .d ; :r верительному интервалу. Величина 2Лn -размах оцен�vи у основания. Очевидно Мд(s)� � I-Mf21tt,Л211 n (та-к как д(z)�1-.(z/.Лn)211), Мд(s)�1 (так какад(z)�1), отку.з. а при x�·l п-меем нужно сделать моментов. Характерэтих предположений и их влияния на размах оценки установимоначала на ,примере. = 1-хм д+(:н-1) м д� xM� 2k/л;k.аТеперь, чтобы уровень а"(д) оценки был не больше а, ,нужно брать Лn�(xмf 21t/a)11211• Для определения размаха оценки Лn нужно знать М�211• В свою очередь, для нахождения мi21t, как это сле 1Мlsi1... Si1i /п21t , достаточно з,натьа Пример 6.11. Пусть k=2. Тогда для независ.имой симметричной последовательно;:ти с конечным четвертым моментом: 0 при i1 "F i2, i1 � ia, i1 � '•·аi2 � iз = i,, i2 = i3 = i4., За'(п-1) 41 [ х ( т4 лn--==,;;::: ------+ ------------п а у; )]'1 Аналогично, если k=З, то 6! nm8+C�n(n-l)m4 a2 +n(n-1)(n-2)o8 -- (21)3 31 1 ( М�8:,;;;- ns ) , -некоюрое целое число р о дн о й п о с л е д о в а т е л ь ,н о с т ь ю с и м м е т р и ч н ы х с. в., у которой fii2k=Ms/Zk Vп и J v((у-х)1Гп) dx = J v (z) dzJ'{n. В аргумен те функции v (tn) стоит нормированная сумма ьn, n при увеличении п ста билизируется е. не вырождается ни к нулю, ни к бесконеч,,себе с. в. tn, как будто совершающую в диапазоне,меняющемся при увеличении п несущественно, в то время, как среднестатистические данные об bn претерпевают изм-енения, да и�с.следО.Ба.ния,м дает r.ч. 3, г де ,показа1Но, чrо нораwрова;нная СУ\ММа оообразно исхо.щным ,стремится к разным ·по ширине моделям, первичными для которых я1вляются с тепенные и гармонические признаки (,вплоть нормальной и интер1вальной нормальной Здесь интересно ·напомнить, .с,ве�дения о степенных и га,рмО'ничес.ких при:аtНа,ках ьn возни•кают и уточ:няются даже тогда, когда похожих данных о слагаемых ,вроде бы и не было. Сказанное наводит на мысль для независимых флуктуаций Si пр�и ра•счете ошибки оценки д (s) = V (ьn), bn = "'2.si/V п, и синтезе -оптимальной оценки как можно шире пользоваться данными о ьn, предоставляемыми допредельными и предельными теоремами в виде сред;них степе:нных M1;11 n и rармоничес,ких .М sin иьп, .М cos и1;п -признаков, ,взятых за ,первичные для Ь11• При этом вроде бы «забываются» исходные да·нные о флуктуациях после того, как они были использованы для получения необходимых сведений относительно bn• Теперь расчет ошибки будет осуществляться так: для вычисяе-ния .Мду (х) =Mv (ь11) функция v (z) мажорируется полиномами, смесью гармоник или теми, и другими, а ·при расчете (х) (соотвеrе11Вующей верХiней ошибке), наоборот, мажорирут их в соответствии с общим принципом продолжения средних. А если вспомнить принцип достаточности, формулируемый теоремой 6.1, то v (z) и вовсе сама должна записыватыся в виде ,степенного ряда, ряда Фурье или получаться смешением того и та,к, ,в общем-то, и делалось •в предыдущем разделе, но только для степенных Нам же предстоит это проде_лать еще и для гармониче:С1Ких. 3 а м е ч а ни я. 1. Нужно отметить, что оценивание по допредельным неравенствам и предельным результатам нельзя назвать совсем оптимальными хотя бы потому, что мы «забываем» дан!НЫе о Si и пользуемся только тем, что узнаем по ним о tn• И далее, хотя по данным о ьn оценка строится ·наилучшим образом, -но такие оцен,ки ,все же точ�нее назвать к-вазиоптималь.ными, аи 2.иНормироваться сумма ."'2,si в оценке v (ьn флуктуациях не обязательно должна коэффициентом 1/Vп, это может быть и 1/п, если данных об отдельных слагаемых почти нет. Синтез квазиоппiмальных оценок по гармоническим средним. Пусть Si, -i= 1, 2, ... , п, -однородная последовательность независимых С. В. И ПУСТЬ д(s) =V(ь11) есть оценка параметра СДВИГа, где 'ьn= ."'2,si!Vn -·нормированная -сумма. Функцию v(z), считая ее симметричной по отноше·нию к началу координат, запишем через ,преобразование Фурье V (и): 00 00 1 v (z) = J V (и) cos (иz) du, V (и) = -J v (z) cos (uz) dz. 2n _ -оо 00 Это прямая и обратная формулы преобразования Фурье. Раскладывая V(u) = V+(u)-V-(u) на положительную и отрицательную части, имеем М v (tn)� J V+ (и)М cos (и tn)du -J V-(и)М cos (и tn)du. -· и и Мы ·видим, что ошибка а(д) =•l-Mv(�n) оценки рез га·р,моничеокие средние M-oos (u�n) и .М cos (u� n) -нор,ми.рованных сумм. Данные гармонических средних доставляются допре дельными и предельными теоремами главы 3, в общем, н е для всех и, а для некоторой области U, учтенной при интегрировании. Для простоты конкретизируем задачу. Пусть Si не з а в и с имы, и м е ю т н у л е в ы е с р ед н и е Msi = О и к о н е ч н ы е д и спер с и и Ms2i= cr2• При этих данных последовательность Si, в общем, статистически неустойчива, сходимости �п к нормальной модели не будет. Тем не менее значения М cos (u� n) могли бы быть получены из допредельной теоремы дополнения к § 3.3, которые и позволили бы •в принципе рассчитать ошибку �.(д) при конечном п (и следовательно, взвешенную ошибку, так как a(d)·= =0). Мы ·не будем выписывать все громоздкие следующие- этому пути формулы хотя бы ,потому, что они принципиально мало чем отличаются от более простых вытекающих из них при n-+oo асимптотичеоких формул, тех, что даются след-ствием 1 теоремы 3.13,на которых и остановимся. Послед та-кие асимптотичес·кие данные О �n: М tn = О, М � = 02 , М cos (и �,1) = ехр (-ucos (с* и2а2), (6.24) ~ где с*=О,3184, а lиl2 �л/(2с*о2). Это неравенство для и и определяет область И, так что если v (z) такова, что V(и) �О для всех и, то имеем асимптотическое значение 'IIJ(2c•a•) _ _ lim М v ( tn)� 2 J V (и) ехр (-ие2 02/2)cos (с* u2 о2) dи, n➔oo- о где при выставлении пределов использована симметрия подынтегрального выражения. 3 а меч ан и е. Гармонические средние в (6.22) мо жет быть не столь значительно, но все же уточняют модель сум:-.1ы по сравнению с .м;2п= о2. По одному только последнему значению cr2 про долже,ние:-.1 имелп бы: M ,cos (и;11 ) ;;;:=:, l-u2;2;2, а то, что содержится о �n в выражении (6.24), несколько лучшее, хотя при и--+0 они и стремятся друг к другу. Приемер 6.12. Пусть v(z) есть по фор�1е «гауссов кол01,о.1J»: v6 (z)= =exp(-nz2/б2 ), где б-его интегральная ширина: J v6 (z)dz=б. Тогда V(u) = = (б/2л)ехр (-u2б2/4n) ;;;,.о и ошибка асимптотически будет не больше: 2 l,2 _ ---;;б :rt/(2c*cr") J u(-) } _ а. (д) � 1 а• + cos (с* и• а2) dи.е J ехр l --2-2n о Приравнивая правую часть значению а/-х, рассчитывается ширииа б, обеспечи вающая нужный уровень а. При этом иапом111Им, что ширина самой оценки о(� .. ) буде т_ равна б/Vп. убывая с ростом п п,ропорционально Vп при фиксированном асимптотически а. Вопрос, конечно, почему ,в примере в ,качестве исходной формы v (�n) взят «гауссов колокол»? Именно потому, что преобразование Фурье от него есть всюду неотрицательная функция .. Этому факту имеется разумное обоснование. В самом деле, ,при принятых данных имеем М cos u�n= 1, поэтому наличие отрицатель довольно неприятный вклад в ошибку J V-(u)du. В результате те v(z), преобразование Фурье которых неотрицатель-но, должны иметь опреде ленное пр·еимущество в плане достаточности. Последнее суждение требует некоторой корректировки, так как не принимает в счет еще обстоятельст-ва: -соглас·но (6.24) ,помимо гармонических данные о квадратичном признаке M�2n =�2• на ·нем основывать оценку, то это привело бы нас обратно к оценке (6.18) параметра (и значительно более прос тым путем, правда, при дополнительном условии Msi =0). А целесообразно, по-видимому, использовать n, гармони ческие и степенные, приводящие к следующей смешанной форме оценок: v(z)=[c0 + � ctcos(ui z)-c+z2J+,c0 + � ct=l, при последующем ·выборе Ui, с0, c+i и с+. Оценки этой формы симметричны и при zо= O согласно условию с.права достигают максимального, равного 1, значения. Для них М V(�n);;;.,,: Со+ � ct М COS (ui �n)-с+ 02= 1 -а,/Х, а ширина, нормированная множителем 1/V п, найдется интегрированием v(z). Пр и м ер 6.13. Пусть форма оценки задана выражением v(z)= [cos(nz/2Л)-z2/(16д2)]+, где делитель при z2 подобран так, чтобы выражение в квадратных ,скобках не имело побочных выбро_ов выше О, ,кроме основного подстановка на место аргумента � .. =�Уп и использование (6.24) приводит к уравнению М д(�n)= ехр (-n2 Ь/2) cos (с* n2 Ь)-Ь/4 = 1-а/-х, где Ь=а2/(4.Л2). Решением уравнения находится ь, а отсюда и л. Применение других допредельных и предельных результатов принципиально мало отличается от rолько что проделанного. Но �тому поводу -сейчас выскажем некоторые -соображения применительно к •неоднородной выборке. Об оценивании параметра сдвига при н еоднородны х фпуктуа циях. Пусть.уi = Х+si, i=l, ... , п, где Si -независимые с.,в. с нулевыми средними Msi= O И ра3НЫМИ дисперсия,ми: Ms2i=U2i. Тосда -нормированную сумму tn нужно заменить на взвешенную tn = п = � CinSi, Cin;;;э:O, записав оцен,ку через v (tn). Интегральной ши f=l риной оценки по х будет величина J v(�CinYi-X�Cin)dx= = (�Ci n)-1 S v (z)dz, обратно пропорциональная сумме �Cin• Ошибка монотонно зависит в конечном счете от дисперсии: _м.t2 n = = �c2i nU2 i, поэтому выбор коэффициентов Cin мере, •бли зким к оптимальному , если U2i при = заданном �Cin• Это ведет к значениям Cin= = л�si/o2i, т. е. весовые коэффициенты диспереиями. Становится ясным, шим весом должен участвовать i-й отсчет в сумме tn, ее тем самым от влияния этого шумящего отсчета. С теми же весами -получала-сь оценка ( 6.19), но для не-корре лированных Si• У нас Si мы, что ·позволяет достичь допол нителЬ/Ного эффекта оценки 111-рименением к су,м.ме ��i/02i допредельных и предельных теорем § 3.4. Дальнейший •путь строго следует -«колее» предыдущего раздела, и мы подкрепим его примером. Пр им ер 6.14. Пусть s; независимы, ограничены, заданы а2; и симметричны. Рассмотрим оцен·ку вида д(s) = [l-(�n/6)2k]+, �n= Пусть. § 3.4 (самый конец ,гпавы 3) дает n➔oo откуда 6 спучайная величина о. = --О'ср• п-оо a.k1 где а�= [ + .1::(1/аf}Г 1 • Ее ми.ннмум по k ищется точно так, как зто Р проделывалось в начале настоящего параграфа при асимптотической подстройке оценки степенного типа. 6.5. ДОВЕРИТЕЛЬНОЕ ОЦЕНИВАНИЕ ПАРАМЕТРА МАСШТАБА Общие соображения. Параметр масштаба определяет энергетические свойства наблюдений: мощность, эффективное значение. Задача его оценивания возникает, во-первых, ,когда уровень интенсивности процесса несет полезную информацию об интересую чтобы с нужной точностью оценить параметр масштаба, в частности, его разновидность -диоперсию. Оценивание параметра масштаба по заданной мощности флук туаций. Пусть Yi= x1l2s1, i= параметр х, если известно, что флуктуаций: мf2°=п2, °€2= �s2i/n, и более ничего _не дано. Отметим, что при а= 1 и L= 'l пара.метр х(.при Msi= O -дисперсией) эффективныАt их значением. При l=-2 это будет мировки. В общем случае l*O бу�дем "Называть х параметром масштаба. Согласно следствию 4 теоремы 6.1 ·достаточный класс обра .,,.. = зуют оценки, зависящие от s2 с ,подстановкой сюда siYi/x//2, что ведет к их виду ду (х) ='[ c0-c+y2/xl] +, и для них Мду (х) =а - =,[со-с+о2]+, Мду (х) =Со.Найдем интегральную ширину и штраф, рассматривая сначала сл,учай lО, считая е сколь угодно малым числом. Тогда составной риск запишется )-l/l. П�(д)=l-х[со-с+о2J++(х-l)со+лсо Из этого выражения после некоторых •выкладок следует, что оп 1. Значение же с+ будет опреде2). После .подста мет вид ,,.._ (х) == [l-x-1 а у2/(хо2)]+, х;;;.: О.а (6.25) Так, при L= -2 (тогда Yi= si/x) оптимальная оцен,ка ра норм,ировки Х получится равной: д*yх>О. l(ак видно из рис. 6.5,а, это есть полупарабола с максимумом в точ-ке х=О, усеченная .снизу осью абсцисс и слева-осью ординат. Пусть теперь l>O. Оценка будет иметь вид рис. 6.5,б и имеетбесконечную ширину. Тогда, чтобы штраф не равнялся бесконечности, нужно рассматривать взвешенную шкалу интегрированияпо х с весовым множителем q (х), убывающим при х--+оо, по край ней мере, быстрее 1/х. Считая q (х)_ =x-1-v, у>О, (т. е. чем больше Рис. 6.5, а, б. Оцеиа параметра масштаба по энергетическим данным х, тем меньше берется вес), найдем штраф как верхнее среднее взвешенной ширины: --00 dx 00 МУQ(д)=МУ J J ( с0с+yz - [ ]+ i7Y = М - с0 ---i+v - 1+v+1 x Составляя риск и производя его минимизацию (точно так же, До полнен и я. 1. Тот же самый вид (6.25) будет иметь оптимальная оценка для непрерывных реализаций Yt = x11261, O�t�T, ,,.._ у2 l т с той лишь разницей, что = -J yJ dt . т о 2. Gведения о точной ·МОЩНОСТИ (дисперсии) Ms 2=•О, l=pO, и нужно оценить параметр ·масштаба х, если ·фЛ}"КТуации некорре,JJ:ированы и имеют одинаковые ,мощности: м sf = 0'2 ' м 61 6} = о, i =р i' i, j = i = 1, ... ' п. Оптимальную оценку будем искать в следующем достаточном -02+с2а2оа2оу =Ь2-у2• классе: ду (Х) =[со-х-1(с1у)]+, При нахождении этого класса учтены первичные данные и симметрия поставленной задачи к перестановкам наблюдений. Для этого класса Мду (х) =,[c0 -c1·a2/n-c2a2(n-l)/n]+, .Мдоу (х) =с0 при с1, с2 ;;;;э:О. Точно так же, как это делалось в предыдущем разделе, толь ко с заменой с+у2 на с1уЧ-с2а2у , вычисляется штраф. При l<(),он будет равен MQ (д)=c�l-l)/l l![(l-1) inf (С1 у2+с2 а:)] =C�l-l)/l l!(l-l) С2 8,о где инфи,мум достиrаеп:я при 0=0 и о2у =е2, причем допущено· у2 ;;;;э:е>О (иначе ширина будет бесконечна), считая е сколь можно малым. Оптимальным будет значение с0 = 1, и тогда при а<х риск записывается двумя уравнениями: пхА(д) =а+л/с2,a=x(c1a2/n+c2a2 (n-l)/n). Чем больше с2, .тем меньше риск. Ноэтому учитывая последнее равенство, оптимальными будут с1 =0. Рис. 6.6. Оценка параметра :r: масштаба при заданном , c2 =an/(x(n-l)o2), в •результате чего оптимальная оценка приобретает ,вид ап А2 ]+ д;(х)= [1-х-1 -----Оу х(п-1) а2 Точно такой же вид будет иметь оценка при l>O. (если братьевзвешенную множителем x-1-v шкалу интегрирования в штрафе). Таким образом, данные о некоррелированности наблюдений при отстуствии другой информации лишь незначительно меняют оценку и ее свойства по сравнению с рис. 6.5,а и б, а именно, оценка сужается в п/ (п-1) раз, что при увеличении п становитсяпракТ1иче·ски не заметным. Причина этого не,прият.ноrо эффектакроется в том, что для получения хороших оценок требуются данные о четвертых моментах флуктуаций. = Допустим теперь, что помимо некоррелированности Msis;еO,еi:#=j, и Ms2i=o 2 дано Ms2is2;='0'\ ,i:#=j, Ms\=tn4. То•rда до,стат-оч�ныйе класс образуют оценки вида ду (х) =,[c0+c1x-1y2+c2x-1��YiY; -c3x-21y4-c5x-21��y2iy2;]+, где у,.= �Y4 i/n. Постараемся ,более илие i�/ менее «угадать» вид опти1 ду (х)= [1-с (l-x-1 у2/а)2 ]+.е(6.26)е Очевидно следующее: .м'деу (х)=д= 1, причем максимум оценкие достиrает•ся при х1=у2/а. Если расписать оценку через s, раскрывекруглые скобки, то получим д(s)= r 1-с+ � €2 -�2 ( � s: + а а· п и отсюда будет следовать, чтое (х) = (1-с+ 2С a2 /a-cm4 /na2 -С (n-1) o4 /na2 ]+.е Считая выражение в квадратных сI<обках неотрицательным,ищем сначала оптимальное значение параметра а, тогда как спотом будет найдено исходя из заданного уровня а. Если вычис лить штраф, =e1 lla-1llr(c), полагая у2�е>О, то он будет равен MQ (д) =е /(1-1)-с (c+<2H>ll-c_<21-1>il) / (1-21), а с+=1+1/Vc, С-= 1-1/ Vё.Подставляя найденные значения в составной риск, дифференцируя его по а и приравнивая О, получим значение а как решение урав -= нения: л lе 1 1 1 r (с) а< 21-1 >1 1 +о2 а-(т-о4)/п-о4 о. Чем меньше 4 уровень а, тем меньше будет значение л. Поэтому при малых апервым слагаемым левой части равенства можно пренеберчь, положив л=О. В результате •получим значение параметра а в явномевиде: а=о2 + (fii4/o2-o2)/n. Дальнейшие упрощения могут бытьполучены, если считать п большим, и тогда а�о2• Отметим, чтое увеличение а по сравнению с о 2 ведет •К увеличению средней ши рины при lO. Считая Si независимыми и полагая для простоты Ms2i= a2 = 1, введем следующий •класс степенных оценок куда для получения ду (х) ·вместо Si нужно подставить = Если обозначить 1li= s2i-l, то MriiMs2 i-l=0 и тогда d ('1'} ) = =[1-(�/Л)21t]+. Мы видим, что ,в новых обозначениях оценкасовпадает с (6.22). Тогда при n--+oo по аналогии с оценкой (6.22)имеем 1-м д = [М (s; -1)2/Л2 n]k(2 k)!/kl 2k+ о (1/п). Отсюда, пренебрегая последним слагаемым правой части и используя то, что .Мд= 1, получаем ширину Л оценки по заданномуеуровню а: Ес л л,инга, 110 :полу-чим [,1 -Х ) 1/2k -. ,г-( )2 ( r 2 k/e Н, Н = м s1 -1 . д � -Vn У 2 -;;-V При оптимальном значении k* = ln ( V 2х/а.), мИ1ни,м;изИ1рующем ширину д оценки, полагая k* ближайшим целым числом, имеем = окончательно д.(Н/Vп)V 2 ln(V2x/a.) и в результате оценка = [ 1-( l -x-1 y2)2k•1л:k•]+. 4.оДанные о нулевом среднем Msi= O не меняют найденныхооце Msi могут быть произвольными, так как не1юррелированность MsiSj = О, .i=I=j, сама по себе ограничивает .возможные вариации среднего, == у(х)= =,[l-c(l-x-1 �2y/o2)2]+. Чтобы ошибка этой оценки стремилась к О при увеличении п,требуются следующие условия: Msisj= 0, i=l=j; = 5. Пусть Yix1'2(si+0), i1, ... , п, где ·0EfR -скалярный ме Ms2i=·o2 ; Ms2is2 o", •i=l=j; Ms"i= m4; MsiSjs11.s1= 0, i=l=j, i=l=k, i=l=l. При этих условиях 1--Мду(х)=с,[т4(1/п-2/п2 +1/п3)/,о"-1/п+о+3/п2-1/п3] =а./х, откуда и находится коэффициент с. Та,кой жеоостанется оценка для наблюдений y;=x112si+m, me:fR. 6. Рассмотрим случай, когда мощности флуктуаций Si по известному закону меняются: Ms2io2;, Ms";o";ni4. Тогда переходя = = к новым наблюдениям ·z = y;/oi = x1'2s;/o;= x1'2ri;, мы сводим задачу к рассмотренной с Mri2; = 1. Оценка будет отличаться от найден ,,.._ ных в этом пункте лишь тем, что вместо у2 подставляется ·в �y2i/(о2;п). Аналогично, если задана корреляционная матрица вектора s, то вектор 11 = в-1 12s будет обладать только . что рас смотрен:ными с.в·ОЙ{:тва,ми, поэтому у2 за,меня,ется на утВ-1у/п. Мы ·не сможем •в этой задаче перейти к процессам Yt= x11z'st,пока не изучим влияние ошибок в знании o2i на свойства оценок. Дело в том, что для процессов с точным значением корреляционной функции В (t, т) = Mst's,, разлагая ядро по собственным функциям B(t, 't') = �0'2i(J)i(t)q>;('t') •В новых наблюдениях Zi= 1 = J Yt(J)i (t)dt/o;= x1l2ri; получаем бесконечно длинную некоррелированную последовательность случайных величин Y\i, Mri2i1, что = соответствует n= oo и приведет к абсолютно точной оценке х. Этот парадокс сингулярности, о котором говорилось во введении к параграфу, есть следствие допущения о точном знании В(t, 't'),предположения, увы, практически не выполнимого. Выход содержится •в следующем пункте. 7.оПусть м.ощности флу�ктуаций ми, т. е. Yi= x112s;, Msisj _o:2i, M's2i=112i, Ms2isj, �71 ,в - виде ду {х) = ( -2 d1 )']+ 4 -1 а (д)= l -M д= с l -2 � + � mi -ai u + d1 d� [ няем О. Получим di = (mi -Oii)/.[_o:2i-yo2i]+, где у находится из уравнения y=�02i[�i-j'02i]+/(mi-O\). Отметим, что yi' Сказанное относится и к процессам, так как в разлож,ении неточной корреляционной функции в ряд по собственным функциям ядра коэффициенты разложения, обозначенные так же а2;, станутнеизвестными. Причем чем больше индекс i, тем меньше их абсолютные значения и тем меньше будет отношение o_ 2Jii2i. Поэтому,как и выше, придется ограничиться лишь конечным усеченным рядом, включающим только «главные компоненты» разложения. 6.6. ЗАКЛЮЧЕНИЕ Логи·ка такова, что на неясный вопрос не жди вразумительного ответа. Естественным ответом на размытость моделей, вызванную априорной бедностью данных, будет ра,:плывчатость оценок. Оцен.ки ис-комых параметров должны подчиняться двум диаметрально противоположным требованиям. С одной стороны, быть надежными, и следовательно, в нужной мере расплывчатыми, а с другой -потребительский интерес вынуждает их к конкретности, т. е. по возможности к наибольшей точности. Разрешение этого противоречия ведет к оптимальным доверительным оценкам фикtированной надежности. Введение составного ри�ка как суммы штрафа за расплывчатость (в виде площади под кривой решений) плюс величина (вероятность) взвешенной ошибки достигает своей цели -существенного упрощения методов синтеза доверительных оценок. Даже при классических распределениях вероятностей миним-изация составного риска ведет по содержанию общим формулам для доверительных интервалов (§ 6.2) (для нормальных распределений превращаюшимся в известные), ставить и решать новые задачи, например, найти доверительную оценку дисперсии, обладаю�ую минимальной расплывчатостью; получить оптимальные доверительные оценки параметров регрессии. Самое важное, что составной -риск, органично сочетаясь с конструкuией интервальных моделей в виде первичных средних, выходит на простые структуры оптимальных оценок, которыми будут усеченные снизу линейные комбинации первичных признаков, о чем гласит теорема 6.1. В зависимости от перВИЧ!IЫХ данных получаются самые разнообразные по форме оценки, дающие Определим diго продифференцируем правую часть равенства по di и прирав по -шкале О·-! картину предпочтений значениям параметра. В частности, вероятностных моделях доверительные интервалы (предпочтение ное 1 внутри и О вне интервала) .ввиду того, что первичные призна!Ки индикаторные. Меньше данных -легче поиск оптималыюй оценки. Разве не это правильная пока непривычная концепция? Нет данных -никакого не надо, оценки тривиальны (всем значениям будет приписано одинаковое предпочтение). Однородность исходных данных, их симметрия откликается в оценок уменьшением числа варьируемых коэффициентов, подлежащих заuин. Коэффициенты связываются линейным уравнением, фиксирующим надежно�ть, а в остальном находятся из минимума интегральной расплывчатости оцен,кн. Их ,поиск вкладывается в типовую параметрическую задачу оптимизации с оrраню1ениями. Мы ее решаем аналитически, не исключая полезности численных способов в виде стандартных программ. Оптимальные доверительные оценки параметра сдвига находятся в § 6.3, где считается известной только усредненная мощность флуктуаций. Более точными они становятся для некоррелированных флуктуаций, а затем обобщаются на случай заданных корреляций и на оценивание параметра (одномерного) регрессии. Примечательно, что параболический вид все эти оценки наследуют or квадра·rичных признаков, составляющих свойства второго порядка наблюдений. И характерно для нашей теории, что сложности одинаковы как для последовательности наблюдений, п·роцессов, если состав первичных данных одинаков. По мере роста числа данных оценки несколько усложняются, зато и уточняются, становятся по форме более узкими при той же надежности. Предугадывается потребительский вопрос, лучше ли полученные оптимальные оцен-ки, чем привычные доверительные интервалы для нормального распределения? На наивный вопрос ответ неутешителен: конечно же, хуже! И могут быть намного, так как разные оценки рассчитаны на разные условия. Одни условия -это режим полного априорного благополучия в виде нормального .распределения •вероятностей, по нему считается доверительный интервал. Полученные нами оценки оптимальны в условиях полного неблагополучия, свойственного бедным знаниями моментным задачам, поэтому более расплыв И все же, .неблагополучие их относительное. При независимых отсчетах по мере увеличения числа наблюдений без каких бы то ни было дополнительных предположений наши оценки приближаются по свойствам к нормальным (§ 6.4). Можно лишь подозревать, что этому мы обязаны внутренним законамонормальной сходимости, формально при синтезе нигде не задействованным.оДанный результат демонстрирует великолепное «пищевареН'Ие» разработанного аппарата, позволяющего при крайне бедном априорном пайке усваивать любые питательные вещества. Внедрение допредельных и предельных ре в оценку на систематическую основу поставлено в конце § 6.4. Конец главы посвящен задаче оценивания параметра масштаба (в частмощности) по данным о свойствах второго •порядка наблJQДений. Неооказывается здесь то, что отсутствие ограничений на моменты четвертого порядка не позволяет получить сколь-либо хорошие оценки даже при 11ео,раннченяом росте ддины наблюдений. Но исправить их при наличии нуж ных ограничений оказывается очень просто. лось, что проблема сингулярности (состоящая в абсолютной точности оценки дисперсии, а в ()бщем-то и сдвига) сама собой становится невозможной при отказе от идеальных вероятностных .моделей и переходе к реальным интерваль-ным. Сингулярность -побочный плод теоретизированнщо изобилия и недосягаемая мечта для привычной практическим задачам априорной бедности. Глава 7. ПРОВЕРКА ГИПОТЕЗ 7.1. ОБЩИЕ ПОЛОЖЕНИЯ Введение. Отвлеченно представим себе некоторый ящик, который неважно, чем начинен, и что •в и ·как, но важно то, что процессы ,внутри могут находиться в некоторых двух состояниях. Одно состояние обычно, рабочее, условно именуемое нулевым, не вызывает у нас никаких реакций и не требует вмешательства, а другое, напротив, критическое, называемое альтернативным. Нужно по наблюдениям за выходом этого ·«ящика» решить, ка;кое из двух состояний в ,настоящий ,момент :присут,с-гв\)'ет, причем в условиях когда выход настолько засорен шумами или флуктуациями, что однозначно и с 1полной уверенностью решение п-ринять невозможно, так ка·к появление одних и тех же реализаций свойственно как нулевому, так и альтернативному состояниям, но с разными вероятностями. Последнее очень существенно и подразумевает наличие среднестатистических данных о выходе, о наблюдениях. Это то, за что можно и нужно ухватиться для решения проблемы. Источник получения данных для нас сейчас не принципиален: либо это результат исследований внутренней физической природы процесса, либо последствие предварительных наблюдений за выходом, когда к этому говорится, какому состоянию он соответствует (обучение с учителем), или может быть обучение без учителя. Важна форма предста,вления данных, которая должна соответствовать нашей генеральной концепции формирования интервальной модели средних: иметь вид размытых среднестатистических свойств признаков ,выходных наблюдений. Благодаря языку первичных данных это очень доступная и универсальная форма, в том мы не раз успели убедиться. Причем обязательно данные так или иначе должны связываться с состояниями, какое оно, нулевое или альтернативное ( иначе решение станет три•виальным). Важным здесь является анализ и получение данных не о любых доступных признаках с целью использования их ,всех, а тольк,о ,о наибол-ее характерных, ,выделяющих те -направления" которые оказываются наиболее чувствительными к смене состояний (лучше меньше, да лучше). Тогда первичных данных будет меньше, а задача -проще. Именно этот случай нас наиболее интересует еще и потому, что при невозможности обучения или предварительного анализа многие реальные задачи оказываются «сидящими на голодном 1пайке» априорного дефицита. Поскольку действительные состояния неизвестны и предстоит нулевая гипотеза и альтернативная Они (проще, альтернатива). могут иметь разный вес, приоритет. Ведь отказ от нулевой гипо тезы, альтернативы, оно неправильное, т. е. принятие если может тов в направлении чьей-то что может вызвать мгно территории,венную ответную агрессию, которая не найдет оправданий. Или ся о принимает·решение безвредности нового лекарства, тогда как это на самом деле не так. Или осуждается невиновный. Сказанное подводит к принщипу, та,к оказать, �«презумпции ;гипотезы», •согласно которому лучше несколько раз отвергнуть альтернативу, пусть даже ошибочно, ,когда она на •самом деле верна, чем хотя бы раз неправильно отказаться от гипотезы. Последствием этого принципа чаще будет приниматься гипотеза, а альтернатива -лишь тогда, когда этому есть вполне вес1кие основания, не вызывающие особых ,сомнений. Таким образом, гипотезе придается приоритет, вес, и тем самым в нее закладывается консер·вативное начало, а в альтернативу -пр·огреосивное (иногда,агрессивное). Это важно для понимания смысла правил проверки ги·nот.:� фиксирова1нным уровнем ошибок, о которых ниже пойдет ;-'<' ,. Н, ,х�тается в с1·ороне и задача различения гипотез, соответс�. :lаЯ бесприор!Итетным гипотезам, например, тот случай, .когда i.о1,:.:н1d:,у связи передаются посылки О (соответствует нулевойогипотезе) или 1 (альтернативе). На самом же деле, если весозаменить вероятностью •гипотезы ( средней ожидаемой частотойочередования нулевых посылок), то выбором вероятности можноовсегда учесть желаемый приоритет, •как и наоборот. Это убеждаетонас (и будет математически подкреплено), что задачи проверкиои различения .гипотез, т. е. с приоритетной и бесприоритетной гипотезами являются смежными, подменивающим,и .щруг друга.о Математическое оформление задачи. Пусть по наблюдениям уеау требуется проверить нулевую гипотезу с соответствующей ей ,моделью .,,f{Y0, против альтернативы ,с соо11ве11ст•вующей .,,f{Y1• Состояний х в эт,о:м ,случае два: формалыно х=О при нулевой гипотезе и х= 1 -при альтернативе. Решающее правило ду (х) по общему определению § 5.1 в результате трансформируется ,в пару д= (д0 , д1 у), где числа д0 у и д1 (представляющие удобную запись ду (О) и ду ( 1)) выражают степень предпочтения, отдаваемого соответственно нулевой гипотезе и альтернативе. В силу относительности предпочтений будем считать д0v+д1 у = 1, что позволяет в дальнейшем рассматривать либо д0 у , либо д1 у, С учетом •последнего равенства правило ду можно интерпретировать как рандомизацию, при которой с вероятностью д0 при ууу 11 нимается нулевая гипотеза, а с ,вероятностью д1е11 -альтернатива. Рандомизация здесь имеет смысл процедуры, реализующей отношение предпочтения, если обязательно требуется принять одну из двух гипотез (в целом же понятие предпочтения более объемное, чем рандомизация). Правило такое, что inf д011 =0, sup д0 11 = 1, назовем контраст и g ным, а если д0 (отсюда и д1е) принимают только значения О и 11 11 1 -то детерминированным. Мо�дели .J/{'110 и .Jl{Y1, 1класс !!/) ,воз,можных правил, коэффициент пеосимизма х -все -вместе они образуют статистическую заdачу проверки гипотез. Свойства правил меряются ошибками, которые и определим сейчас. Уровнем правила называется среднестатистическая ,величина ошибки, состоящей в ,принятии альтернативы при условии, что гипотеза верна. Меряется уровень относительно .Jl{Y0 : а"(д) = =х.Мод1 у + (1-х)Мод1у= l-хМод0 у -(l-х)Мод0у, где М0 и .М0 ·соответствуют .J/{Yo. Та же самая а"(д) -величина ошибки -первого рода, задающая консервативность правила: чем меньше а" (д).тем сохранней станет гипотеза. Балансом к ней является ошибка второго рода, определяемая формулой -О О 1 -1 . �и (д) = хМ1 дu +(l -x) М1 дu = 1-хМ1ду -(l -х)М1 дu Это есть вероятность непра,вильного принятия гипотезы при усло1Вии вер,ной альтернативы (измеряется -относительно .Jl{Yе1 ). Бели интерпретировать значения правила ду в интервале 0-1 как рандомизацию, то а"(д)и �"(д) будут иметь смысл вероя'I'ностей ошибок, взвешенных коэффициентом пессимизма. А в общем, это будут ·количественные выражения среднего предпочтения, отдаваемого ошибочно одной гипотезе при справедливости другой. Вычисляются ,вероятности ошибок по методике продолжения сред них с первичных данных (задающих исходно .1(0 и .Jl{1) на д0 у, д1 у, рассматриваемые как признаки пространства б/j. Обе ошибки балансируют друг друга: желание уменьшить одну из них вызывает тут же увеличение другой и наоборот. Оптимизация на уровне синтеза состоит в связанном понижении обеих ошибок или только одной из них при заданном значении другой, что вложено в следующее определение. Оптимальным при уровне а называется правило проверки гипотез, минимизирующее ошибку второго рода �"(д) при фиксированном значении величины ошибки первого рода: а"(д) =а. Нахождение оптимальных правил и есть та основная задача, которая ставится в этой главе. Оптимальное правило ищется в классе всех пра.вил, т. е. всех функций д0 у со значениями в отрезке ,[О; 1]. Для его нахождения, если воспользоватыся методом множителей Лагранжа, •достаточно сд,елать д,ва шага. Первый -это решение смежной задачи: ми:нимизации по д, весовой суммы ошибок r"А(д) = при этом минимизирующее правило будет зависеть от множителя л� придающего вес гипотезе. Второй шаг будет состоять в выборе такого '),,, чтобы уровень минимизирующего пря.вила равнялся а .. Полученное правило и будет оптимальным уровня а правилом пр о,в ер к и гипотезы. Правило, минимизирующее риск в виде весовой суммы ошибок, называется оптимальным правилом р аз ли ч е ни я гипотез. Подмечена эквивалентность этих двух видов правил, ,где риск может рассматриваться как усредненная ошибка при заданных вероятностях гипотез. Действительно, весовая сумма ошибок, если ее переписать гх,__ ( d) = =[роа''(д)+(l -ро)Рх(д)]/(1-ро), положив для этого л=ро/(1-ро), при интерпретации Ро как вероятности гипотезы с точностью до .множителя совпадает с полной вероятностью ошибки, заключенной в квадратные скобки. Таким. образом, каждому 'J.. соответствует задача с заданной вероятностью ро, и на-оборот. Класс !!/)"' правил называется достаточным, если любому пра-вилу д и числам л>О, е>О можно указать такое д"' Е!!/)*, что· ,х,__ (д*) :::;;;;,х,__ (д) +е. Понятие достаточности вытекает из общего определения § 5.2 и сформулировано применительно к смежной задаче. Если ошибка первого рода минимизирующего пра•вила непрерывна по л, то тот же класс !!/)* будет достаточным в основной задаче, причем при любом а. Если вдруг такой µепрерывности нет, то ее можно добиться -некоторым расширением$*. Основная теорема о достаточности. Обозначим, как всегда. Sl:� -класс вторичных �Признаков, основанных на S', т. е. Sf:+CS= ={g(y)=c{+�c+igi(Y), giES'}. При проверке гипотез, если :§0 ) перви-чные признаки, задающие нулевую гипотезу .,КУ0=-(МоS"0), а S'1 -задают альтернатпв-у, .,КУ1= (Nl $1), этих клаосов будет ,J:ва: Sf:+S'O И Sf:+S'1.о Следующая теорема связывает достаточные классы правш� с видом вторичных (и следовательно, пер-вичных) признаков, соответствующих гипотезе и альтернативе. В самом деле, на IО можно указать та.кой мажорирующий его вторичный признак нулевой гипотезы g0(y) =соо+ +�c+ иg0;(y)e!l'+�0 что g0(у)>дV 1 и Моg0(у)-М.одV 1 11�е/').. (причем Mog0(y)= • 11 =Соо+ �с+ ;oMg0 ;). Аналогично можно указать такой g1(у)e!l'+�о1, чтсt g1 (у)� V V �д1 и Jl1g1(y)-M1д1 11�e (причем M,g1(y)=co1 +�c+ нMg1 ;). Теперь введем 11 д1 11 = min{l, g0(y), g1 (y)}. Это есть решающее правило, так как О�д111�1, оно мажорируется функциями g0(y) и g1(y), поэтому с учетом х� 1 имеем V V лхМод111+(х-l)М1д111�лхМоg0(у) + (x-l)Mо1g1 (y) �л:нМод1u+ (х-l)М1д111+е. V V V По мажорируемости д1 11�а•11 верны неравенства Модо1 11 �Модо1 М1д•11 �М1д1 11, 11 , '-' в результате чего получаем ,х(д) �,хл(д) +s, что доказывает достаточность правил вида, взятого для д1 u, а формула для д0 u эквивалентна 1-д111. lб. Здесь доказательство отличается от предыдущего разве что выбором V g0(y)e!l'+�0 и g1(y)e!l'+�•. удовлетворяющими неравенствам g0(y)�д0 u,о V V V g1 (у)�д0 11, и таким, при котором М0g0(у)-Мод0 11 �е/л, Я1g1(у)-М1д0�е/л.оТогда, вводя правило д0 11 =min{l, g0(y), g1 (y)}, точно как выше доказывается V .гхл(д) �ГХл(д) +е. V V V 2а. При x=l имеем г1л(д)=лМ0дt+l-.М1д1 В ыберем g0(y), как это u11 • делалось в la, и положим д1 11 =miп{l; go(y)}. Тогда лМод1 11 �л.Моg0(у) � V V \.J V �лМод111+е. Так как д•u�д1 , то М1д1 11�М1д1о11, и поэтому ,о1 1(д)�г\(д) +е, u что и требовалось. Доказательство 2б аналогично. 278 = М1 1 g1 (у)= С01 + Комментарии. 1. Случай пессимизма х= 1 привлекателен тем, что для правил 2а, базирующиЕя на вторичных признаках гипотезы, 1сразу ,находится ошибка первого ,рода, а для праВIИла 2б •второго рода. В связи с этим для правил заданного уровня а рекомендуется форма 2а, где фиксация уровня эквивалентна равенству M 0g0 (y) =а и осуществляется в виде линейного ограниче ния на коэффициенты. А поиск оптимальногоеправила к минимизации ошибки второго рода р(д) (даваемой· формулой продолжения средних для J(Y1 и так или иначе определяемой коэффициентами) ограничениях на коэффи циенты: сщ,ноrо, фиюсирующего «, и другого, выте·кающего из требования ду � 1. 2.еПри х> 1 и для пра-вил la имеем факты из доказательства теоремы 7.1): а(д) �min{M 0g0 , Mog-1} и можно удовлетвориться теми go(y) и g1 (y), для которых верно равенство. Здесь трудоемким может оказаться вычисление M0g1, если g1(у)призна'К'и «не с•вои», т. е. не 1<лас-еа 9'�0 гипотезы, и тогда для ошибки рода потребуется применение формулы продолжения средних. 3.еЕсли �0=�1, т. е. гипотеза и альтернатива базируются наеодних и тех же_ первичных признаках, то правила 2а (или 2б) с теми же соотношениями для ошибок будут достаточными не только при х= 1, но и при всех х> 1, что следует из первой части r теоремы (так как g0 (у)= gt(у)). 4.еВм·есто ,Р+�о и 9'+�1 •в условиях теоремы -могут фигурировать любые более широкие классы .признаков. 5.е Если ,P+�0n.P+�1=0, то достаточные клас•сы правил, соответствующие пунктам а и б теоремы, не будут пересекаться между собой. Тогда оптимальное правило, поскольку оно может принадлежать как одному, так и другому достаточному классу, не будет единственным. Вообще нельзя говорить о минимальном достаточном классе вследствие того, что он очень часто не существует. 6.е Достаточность, утверждаемая теоремой, казалось бы, специальна в том смысле, что относится к конкретному риску в виде линейной суммы взвешенных (коэффициентом пессимизма х;;;;:: l) ошибок. Но теорема верна для любого риска, монотонно связанного с этими ошибками, и в этом смысле универсальна для про верки гипотез. Например, для r(д) =mах{а(д), �(д)}. 7.еДостаtочные •при х= 1 классы части 2 теоремы можно рекомендовать использовать и при оптимизме х< 1. Пр им ер 7.1. Различие между 2а и 2б теоремы выявим на п-ростом примере, когда гипотеза и ал ьтернатива заданы каждая одним первичным значением в виде верхних вероятностей Ро(А0 )=ро, Р1(А1)=Р1 соответственно событий А0 , А1 ут А0 (у) -для гипотезы и А1(у) -для альтернативы, а вторичными соответственно !l'+'S0 = = {с+с+0Ао(у)}, ,2'+�1= {с+с+о 1А1(у)}, и достаточные классы в теореме 7.1 прио:Х·=1 .пр.имут (с заменой с на 1-с) видо 2а. д2=с-с't АО(у), 4�с� 1,оа(д)= l-c+criPo• vl v v 2б. ду =с-с1+А1(у,) с+1 � с� l, f(д)= l-c+ct р1•о . ()ни изображены на рис. 7.1 в виде кривых д011 для случая 2а и д111 для 2б.о 0 , т. е. в области известной вероятности Ро(А0), позволяющей -вычислить при х= 1величину ошибки первого рода, и следовательно, фиксировать уровень правилаоприравниванil!ем а=l-c+c+ po. Уменьшение достигается либо умень oуровня шением с+о, либо увеличением с, иначе говоря, за счет «расплывания» вширьоправила. Пр.и-мем нужное у,ловие: A0UA1 ,=oY, A0A1 ,;l=,0. Оно отражено на р,ис. '/.1:о:множества А0 и А 1 , перекрываясь между собой, охватывают -вместе все '1/.оЭто условие позволяет найти (мажорируя д011 вторичным признаком альтернативы: с-с+0+с+0А1 (у)�с-с+ оА0(у) и подставляя его сред�ее) вероятность ошибки второго рода: /3(д) =с-с+о+с+ор1 (без принятого условия мажорантой будут постоянное с ,и 1(д)=с). Найдем оптимальное правило. Для этого находим коэффициенты с и с+,о минимизирующие f\(д) (линейную комбинацию) при оr.раничении в виде равенства а. Имеемо 1.оc=l-a, ct=O, а0у= 1 -а, 1f = 1-а:о при Ро + Р1 ;;;:э, 1;о1-а: ао 1-а -1-а: c=c't=---, = --[1-AD(y)J,оl У 2. 1-pul-poоРо � ао а 3.ос= l,о с+ _ _::_ о , - АО (у)],оР= l--(l-p1) д2 = [1-;0 Ро >а•о Аналогичен расчет правила типа 2б, да и до0v получается таким же с тойо.лишь раЭ"Ницей, что А0(у) заменяется на 1-А1 (у) (А0 заменяется дополнениемок А1 ). Проще говоря, область предпочтения нулевой гипотезе расширяется с дополнения к А0 (см. рис. 7.1) до А 1 • Ошибки у обоих типов правил совершенно од,инаковы. Отсюда следует и более глубокий вывод, что любое правило . д0 у , располагающееся между а0 '// И д0у: д0у <.о ,,;;.дО11 ,,;;.д 0о11 (т. •е. в области пересечения уЕ ЕА0А1 не скачком, а произвольно спадающееос одного уровня предпочтения на другой), будет иметь те же ошибки и тоже будет оптимальным.о !J Инвариантность и симметрия. А что, если 1при некоторых преобразова альтернативы ос таются неизменными, т. е. строго в математическом смысле обнаруживают свойства инвариантности или симметрии к преобразова-ния:м? Тогда ожидается передача похожих свойств к опти,мальным правилаам, что эквивалентно дополнительному сужению достаточного класса. Данная мысль полностью укладывается в рамки общих принципов инвариантности и симметрии §а5.4 при состоянии х, принимающем два значения: О или 1.а Теорем а 7.2. Пусть первичные признаки ИМ гипотезы (MYoS'0) либо альтернативы (�111S'1) инвариантны к группе 9' преобразований пространства 0/j: g(sy) =g(y), se9', ,geS'j, j=O или 1. Тогда при х= 1 класс инвариантных к 9' правил (функций максимального инварианта) является достаточным.· В самом деле, все фун1кции класса f:E+S-0 будут инвариантны к 9'. Отсюда инвариантными становятся решающие правила части 2а теоремы 7.1, образующие 1при х= 1 достаточный класс. Теорема 7.2 будет справедлива при х> 1, если обе модели. соответствующие как гипотезе, и альтернативе, будут инвариантны к 9'. Статистическая задача :проверки гипотез назы·вается симметричной к группе 9' преобразований пространства 0/J, если .,1{110 и JtY1 сИ1м,метрич,ны к 9' в смысле .Мj{(sx) =.Мj{(х), VfefГ, se9', j=O, 1. Очевидно, из инвариантности обеих моделей к группе 9' будет следовать их симметрня (но не наоборот). Данное здесь понятие симметрии связывается с общим определением § 5.4. В самом деле, для этого нужно вместо пары J{Y0, J{Y1 •перейти к СИМ JtxY=:fxJtvx, в которой х принимает одно из двух значений: О или I и никаких данных о х нет. Си,мметрия этой СИМ эквивалентна симметрии задачи проверки гюпотез, поэтому 1применяя теорему 5.7, получаем следующее. Теорем а 7.3. Пусть задача проверки гипотез симметрична к дискретной группе 9' преобразований пространства 0/J. Тогда класс инвариантных к 9' правил является достаточным для этой задачи. Таким образом, при наличии симметрии задачи при поиске оптимальных правил можно ограничиться функциями максимального к 9' ,инварианта. Пр им ер 7.2. Пусть У1, ... , у,. - я выборка, заданная первичными значениями M;g11.(Yi) =fii1,;, g"e.!9, i= l, ... , п, j=O, l. Задача симметрич на к группе перестановок у1 между собой, и так как эта группа диокретна, то в классе инвариантных к -перестановкам нужно искать оптимальное решающее правило. Согласно части 2а теоремы 7.1 структура оптимального при Х= 1 правила будет иметь вид: п д�= (со-� сtел(у)]+, gл(у)= �gл(у;}/п, gле;§, k i=I причем ,при таких коэффициентах с+ ,., что a(д)=l-co+l:cа+ ,.m,k,o. - k Обнаружение сигнала по вероятностям превышений. Проиллюстрируем на одном частном случае, как формируется достаточный класс правил и ,как находится оптимальное. Пусть выборка дискретная У1, ... , Yn• Пусть нулевая гипотеза (интерпретируем как отсут-ствие �сигнала ) определнется первичными вероятностями Po(IYil >h)=iio(h). При каждом h это есть та граница, которую не сможет никогда превзойти вероятность превышения ур,овня h при наихудшем для гипотезы ,стечении обстоя-гельств. Считаем q0 (h) неубывающими функциями h, они-то и определят ИМ JtY0. При альтернативе сигнала)· вероятности !Превышений воз.растают и ,становятся не меньше Q1 (h) = 1 Yi 1 > h), они будут первичными для .JflY1,. Причем мы не оговариваем здесь, каким является сигнал, а лишь опираемся на тот факт, что его наличие изменяет вероятности превышений уровней h, всех, либо по обстоятельствам некоторого набора уровней или только одного, что соответствует разным наборам первичных данных. Та·кая постановка встречается, если характерными, отличительными чертами, сопутст-вующими сигналу, или просто которые мы знаем, является рост частоты превышений уровня или уровней. Поскольку первичными и для .Jl{Y 0, и· для J(Y I являются индикаторные функции превышений {IYil >h}, согласно теореме 7.1 достаточным при х= 1 будет клаос правил вида: д�-=[Со -� � ct(h1){IY.l>h1}]+. lоhjо А на основании ,симметрии задачи к перестановкам отсчетов коэффициенты Ci(hj) не должны зависеть от i и в результате правило упрощается: д�= [со -:Е с+ (h1)п (h1)J+, hj где п (hj) = �{IYi 1 >hj} -число Yi, превысивших значение hj. l Причем ошибки первого и ·второго рода будут найдены, если взять М от выражений внутри квадратных скобок (ограничив резульединицей), и равны соответ,ственно: Осталось при заданном а(д) =а выбором коэффициентов с0 и c+ (hj) минимизировать j3°(д). Для этого нужно положить с0 =1 и все c+ (hj)=0, кроме одного коэффициента, соответствующего некоторой конкретной «высоте» h*. а= с+(h*)nqo (h*), <>'I'к�уда c+ (h*) =a/nifo(h*) и �(д)= l-c+(h*)�1 (h*)= l-�1 (h*)/ifo(h*), аеоптимальным правилом будет дО =-[1 -� п (h*)+ у Чо (h*) п J Высота /i* выбирается исходя из минимизации �(д), или же максимизации отношения: maxq1(h)/ij0 (h). Причем еслн это от h ношение меньше 1, то с0 = 1-а и все c+(h;) =0, так что оптимальным становится тривиальное правило: ду = 1-а. Рассмотрим функционирование этого правила. Если п (h*) =О.ет. е. ни одного превышения h* не было, то д0у= 1 и при,нимается нулевая гипотеза. При увеличении числа n(h*) превышений h*возникают сомнения в справедливости нулевой гипотезы, прояв� ляемые в виде пропорционального ум-еньшения д0у. Наконец, при n(h*)/n�ij0 (h*)/a принимается альтернатива, так как д0 у= О. Чемменьше а, тем больше ij0 (h*) /а, т. е. тем больше должна бытьотносительная частота превышений п(h*) /п, при которой увереннопринимается альтернатива. Если перейти от дискретной выборки Yi к реализации Yt,O�t�T, то при первичных вероятностях Po(IYtl>h)=ijo(h),P1(IYtl>h)=_q_1(h) оптимальным будет правило, получаемое по аналогии с предыдущими и записываемое ао= [1-� 't'(h*)J+е у Чо (h*) Т , где ,:(h*) -суммарная длительность времени превышения реализацией Yt высоты h*. 7.2. КОРРЕЛЯЦИОННАЯ ТЕОРИЯ ПРОВЕРКИ ГИПОТЕЗ Получение оптимального правила при заданной средней мощности наблюдений. Здесь считается, что единственное, чем заданыи ,в чем отличае"Гся гипотеза от альтернативы, так это сдвиг иеизменение средней мощности наблюдений. Пусть у= (у1, ••• , Yn) и гипотеза задана следующим единственным первичным средним и первичны;\,:! приз.паком: .йУ . м 2 -2 2 � 2, wл-о. о у = оо, у = ""' Yiln,е т. е. задана верхняя граница усредненной мощности наб.1юденнй. _При :н= 1 согласно части 2а теоремы 'f.1 независимо от а.1ыерна тивы оптимальным уровня а будет одно из правил класса ,,..... О -2 = ду =[с0 -су2 ]+, 1-с0 +сооа, с�О, О�с0 �1. Уровень а фиксируется указанной линейной связью коэффициентов с0 и с, оптимальные значения -которых могут искаться, если лишь задаться конкретной альтернативой. Ее и введем. Пу,сть альтернатива .,/{У 1 также задана всего одним первичным средним -дf: М1 � (Yi -х1)2/п =01 . Здесь х1 -сдвиг выборки, соответствующий альтернативе, в дальнейшем для определенности ,считаемый неотрицательным x1 ;;;;;.:U. Ви,.:r. правнJ1а задают коэффициенты с и с0• Фиксируя их, ,находим ошибку второго рода j3 (с, с0). Это не так просто, как первого, а требует привлечения формулы продолжения, по которой д0 у мажорируется вторичными признаками альтернативы: -,,..,_ --2 � (с, с0) = М1 [с0 -с y2]+=inf {(d0 +d 01): d0 +d � (Yi-X1)2/n�о �Co-cif}. Будем ее искать. Здесь все коэффициенты должны быть неотрицательными. Неравенство под знаком ·инфимума переписывается так: (d0-co+ d.xj) + (d + с)y2-2dx1 у+ (d + с) а;;.;, О, .rде у=�у;/п, cr2y=�(y;-y)2/n. Это неравенство должно выполняться при всех у. Последнее слагаемое левой части неотрицательно в силу неотрицательнос ти d и с. Так iКак значения а2 уН11Как не связаны с {J, то неотрицательной долж :на быть оставшаяся сумма, полученная, если положить cr2y=O. Эта сумма об• _разует квадратный трехчлен относительно у и условием неотрицательности будет неотрицательность диок;риминанта: (d+c) (do-co+dx21)-(dx1)2 = = (d+c) (do-co) +сdх21;;э.О, что с учетом d;;э,О записывается l/d� [-1/с+х21/;(co-do)] + и заменяе-r неравенство под знаком iпf. Теперь для вычисления ошибки i(c, со) тр_ебуется при условии выполненч:я последнего неравенства минимизировать do+da21. Сначала минимизируем по коэффициенту d. Чем меньше d, тем меньше do+da21, поэтому, заменяя пос• л еднее нера-венство для равенством и подставляя найд енное отсюда а в приходим к выражению для ошибки второго рода, в котором произ• . : if"(c, с0) = min(d0 + do -с (х1 с0 - С 2:84 == В верхнем случае минимум достигается при doco, в среднем -'-лри doо=c0-x1(X1___:-;j1)c, и наконец, в нижнем -при doо= O. Приступим теперь к поиску оптимального правила д0 у . Для этого нужно найти параметры с, с0, минимизирующне �(с, со) при условии 1-со+с�оо= а.о = Очевидно, при xо1..;;;cr1 минимум достигается при с=О, \-Соо= а И равен /1(d) =1-а. Оптимальным здесь является тривиальное правило д0у= 1-а, согласноокоторому независимо от наблюдений с предпочтением (вероятностью) \-аопринимается нулевая гипотеза. К. такому же тривиальному правилу приходимо nри x1..;;;cro+cr1. Запишем полученный результат: дуо= 1-а, � (д)= 1 -а при х1 :=,;;;; О'о + 0'1.о Пусть x1>cro+cr1. Тогда if(c, со)оЬ1(с, co)= co-c(x1-cri)2 при со� = �CX1 (X1-cr1) И Р(с, Со)=Ь2(с, Co)= cr21/(x21/Co-l/c) при противоположном не равенстве. Таким образом, ошибка равна f3(c, со)о= Ь1(с, со), если на плоокостио значений коэффициентов точка (с, со) леж�ит выше прямой: а) со-=СХ1(x1-0i),о:и равна ,bz(c, со), -· если ниже. На самой прямой верно неравенство Ь1(с1, со)о = =Ь2(с, со)-Ограничение на уровень правила в свою очередь соответствуето .прямой: б) Co 1+ \-а. На этой прямой и нужно искать оптимальные с .и со, минимизирующие °ji(c, со). Здесь нужно рассмотреть два случая. Первый, когда прямая б лежит выше прямой а в области ограничеН'Ий параметров O,s;;;co,s;;; 1, с�О. Это эквива .л ентно неравенству х1 < (;;;_ + V � + 4а �= х*, где х. ·обозначает правуюои тогда интервал O'o+a1,s;;;x1,s;;;x. .иепустым). В этом случае Р(с, со)=Ь1(с, со) и легко найти минимизирующиео .значения: Соо= 1, с=а/а2о, откуда оптималыным будет правило:о - А дуо = [1 -ау2/о--20]+ при cr0 + о-1 :=,;;;; х1 =:;;;; х*.о Для него °ji(д) = l-a(x1-0'1)2jcr20• .мум, как ,нетрудно убедиться, достигается на прямой б правее ее точки пересе чения с а, т. е. при f}(д)=Ь2(с, со). Подставляя в выражение для Ь2(с, со) ура.в11ение прямой по с и приравнивая О, находим точ,ку минимума c*•= = (l-a)x1/(x1-cro), что И определит оптн.мальное при c*0-о/а:о аоу 1 -1 -а -(О'о/Х1) ........ + [1 ----1t:... 1· 1ПрИ Х1 ;;;;;, Ui,/a; Jf(д)= (1 -а)�/(х1 -ао)2.о = Если же x • ..;;;x,s;;;cro/a, ТО оптимальными будут с* =а/а2о, с*о1 и, следо вательно, правило (*), но с ОШИ'бкой, вычисляемой подстановкой оптимальных .значений в выраже№ие для ,Ьz(с, со), что даето Подождем пока формулировать доказанный результат, а сделаем это чуть ниже (формулы (7.1), (7.2)) в более общем виде, так как он оказывается пригодным для многих случаев. Для уни фикации введем такие обозначения: У2= у2, Мо У2= о2о, q= ;1/ао коэффициент изменения J,tОЩНОСТей, р=Х1/Оо -нор;нuрованныйсдвиг (а,налог отношения сигнал-шум). Оптимальные решающие правила и их свойства не зависят от объема выборки, и вообще от типа реализаций, вектор :ш это или функция времени. Так, для процессов с непрерывным временем Xt, O:;,;;t:;,;;T, определенных сдедующими гипотезой (j=O) и альтер т нативой (j= 1): M;иiо= Wjt, M;f (y1-W;1)2dt/T=a2;, оптимальные оправила сохраняют тот же вид и ту же ошибку при обозначениях: т т о о казанное .выше ведут к следующему. Общая форма правила. При известных только 1И0У2=Ьо, М1 (У-х1 )2=Ь1 и при р2=х21/Ь0, q2=Ь1/Ь0 оптимальны,м уровня ав зави симости от величины нор,мированного сдвига р будет одно из слl,!дующих правил: a.опри р< l+q, { ;l- a.Y2/M 0 У2 ]+ при 1+q � р � 1 /а, (7.1) до= у (1а) [р-у2;мо у21+ при р > 1/а.. - ·р-1 Ошибка второго рода определяется выражения,чи: 1-а.о 2 при р < 1+q, j ) )о 1 -а (р -q 1+ q � р � р* = при р* < р � 1/а , (l-a.)q2/(p-l)2 приоp>l/a.о Различные виды решающих правил (7.1) представ.пены сплошными линиями на рис.-7.2, а соответствующая им кривая· ошибоквторого рода как фующия р -на рис. 7.3. Обращает на себя внимание параболический вид правил, унас,1едованный ими от первичного признака гипотезы, здесь единственного. Другая характерная особеяность -расплывчатость оптимальных правил,в корнях своих обязанная исключительной бедности исходныхданных о гипотезах. Это же есть причина низ1<их качественных показателей (большой вероятности ошибки р), объяснимых так же тем, что пессимизм (х= 1) :заставляет ориентировать расче ·ты на наименее благоприятный -случай (в рамках исходных первичных да,н-ных), а таковой здесь .зовет -к постоянст,ву реализа = ЦИЙ У1 У2 = ... = un = Y, т. е. СВО· дит все к одному еди.н-ственному ft ,-� r---, __ f+'I 1* /1 Итак, правило (7.1) я,вляется -,оптимальным для задачи, когда -наблюдение всего одно (или к Рис. 7.3. График ошибки второго нему все сводится) У, а гипотеза задана одни:м первич·ным з-начением Мо У2-=-а2 о, как и альтернатива: М1 (У-х1)2= а\. Это -суть ,м-ощ:ности, измеренные при гипотезе без сд�виrа 111аблюдений, а.при альтернатиrве -.со Qдвигом х1• Введем новые гипотезу и альтернативу: - -2 J{l = мl v =х1, мi <У -х1>2 = of. Здесь, .в отличие от предыдущего, среднее считается известным, являеrея точным и ·при альтернативе сдвигается на хи1, а дисперсия (она при известном среднем заменяет мощность) изменяется от о2о до 021. Несмотря на то, 'ЧТО новая гипотеза и альтернатива более узкие по сравнению с .предыдущими, можно -показать, что для них оптимальными уровня а будут точно те же решающие правила (7.l) с их ошибка,ми (7.2). До·казательство этого факта ·подменяется иллюстрацией рис. 7.2. Здесь 11р·едставлены ·в зависимости от величины .нормированного сдвига p=xiao картины для оптимальных правил сплошной ли -для тех вторичных признаков альтернативы, .с пер-е.нося11ся :на д0у, давая ошибку второго рода. Из рисунка выясняется, что как сами оптимальные правила, основанные на признаках вида с0-с У2 , так и вторичные признаки альтернативы, здесь имеющие вид do+d(Y-x1)2, базируются каждая лишь на одном признаке, а именно том, который соответствует дисперсиям, и .не используют совсем .признака ,сред него У. Это и объясняет, почему знание средних не меняет решения -статистической задачи. Сказанное дополняется следующим. 1. Знание нижних дисперсий �2i, j=O, 1, или даже точных значений , 1/а. (р-1)2 Вообще любое правило, ра,спо.'lаrающееся между сплошной иштриховой линиями рис. 7.2, будет оптимальным. Можно выбрать его, .например, в классе линейно-ломаных функций или какомнибудь другом -сообразно дополнительным требованиям (например, разумно считать в только что выписанном правиле d0 =Oпри У>х1). Теперь становится понятной неконтрастность пра•вила на рис. 7.2в как результат ограничения формы д0 бол; в другом классе правил оно вполне уже может стать контрастным. 3.иДетерминированные правила принимают только два значения: О или 1 .и изобра,жают,ся на рис. 7.2 прямоугольниками единичной высоты. К:ак ·видно из рисунков, прямоуголь·ники нельзя расположить между сплошной и штриховой линиями, следовательно, детерминированные ,пра�вила не могут ·быть оптимальным и и переход к ним ,сопровождается ростом ошибок. Чтобы выдер жать уровень а, нужно положить д0 1 при У 1/Va, а если нет, то /f=(p-l/Va)-2, где p�1+1/Va, при других р ошибка рав на 1. = (У1, ... , Уп )т и точно известными являются матрицы корреляций: .;[{о : Мо Yi Yj = Bu, .J/,f,а1 : М1 (Yi -wi) (Yi-wi)=Ku- B векторных обозначениях w= (w1, ... , wп Р -сдвиг, а В и К положительно определенные ,симметричные матрицы. Достаточныйакласс правил здесь за·писывается в виде [co-��CiJYiYj]+; выбором коэффициентов с0 и Cij нужно искать оптимальное из них. Достаточным (см. § 7.6) здесь будет подкласс правил, основанных на линейных преобразованиях наблюдений: gту=У, сводящих вектор у к одному значению У при искомом (на заключительном этапе синтеза) векторе g. Теперь для У 'Как нового наб людения гипотеза и альтернатива будут определяться значениями M0Y2=gтBg, M1(Y-x1)2 =gт Kg, где x1 =wтg. Таким образом,задача сводится к уже рас,смотренной в этом параграфе: при заданном g оптимальным будет правило (7.1), (7.2) с подстановкой туда У=gту, MoY2=gтBg, q2=gт Kg/gтBg, р2= (wтg)2/gтBg. Перечисленные параметр� зависят от g, отсюда вид правила и его ошпбка второго рода �g будут uпределяться выбранным g. Осталось найтп та�<ое g*, которое минимизировало бы эту ошибку: g что и даст ню: нш1лучшее правило. СJiожность выражения (7.2) нс позво.-1яет общий вид дл51 g''. Пойдем по пути да.-1ьнейших унрощенш\ выбнрая g ыакси.мизаuнсй нор:-.шрованного сдвига р g** : шах (wт gJ2/gт Bg. Основанием упрощений служит то, что ошибка �. как это можно видеть из (7.2), .монотонно убывает при увеличении р при каждом заданном q. Решение g** послед,ней задачи имеет вполне кон·Кретный ·ВИД: g**а= B-1w.а При одинаковых корреляциях К=В параметр q= 1 и найденный нами вектор будет строго минимизировать вероятность ошибки: g* = g** = в-1w. Подстановкой этого вектора находятся у= wт в-1ау, ра= Мо y:i =wт в-1w, 10-13а289 а а (wт в-1 y)2 /p2j+е < 2, /а, [ 1 2 � р � 1 (7.3) - az + = 1 1-а [ (wт в-1 у)2 - -р р2 1Р-1 J 1/"'. Наличие данных М0у=О, дачи. 2.еСлучай одинаковых К= В эквивалентен обнаружению сигнала w, когда при его отсутствии действует только шум у=� с ,кюрреляционной матрицей В, а при наличии -.смесь детерми,нированного ,сигнала ,с шумом y=w+s. 3.Переход к процессам Yt=,wt +st, O:s;;, t:s;; Т, при известнойеВ (t, 't) -корреляционной функции шума '6t оводит матричные выражения к операторным: у= J Wt в-1 (t, 't) Yt dt, р2 = s s Wt в-1 (t, 't)wt dtd 't,е где в-1 .(t, 't) -ядро обратного •к корреляционному оператора. = B(t-'t), обозначая В(ю) = =2f 00 B('t),c.os(ю't)d't ,и: w(J) -,с,пек о тральные двой�ни у= 1 j y(J) w(J) dю 1 • р2 = j I wro 12 dю. З1наменатель В(,ю) усиливает те участки спектра, где шум мал, и подавляет зашумл·енные. Проследим, как повлияет на обнаружение nрж:утствие гармо ,нических IП•Омех 1на ча•стотах Юj, Их дей.с11вие проявляется ,в возникновении дельта-выбросов в спектре: В(ю) = Во(ю) + �Ьjб (ffi-(l)j), где 6 (ю) -дельта-функция Дирака, равная О при w=#::0 и оо при ro =О. Подстановка В ('ю) 1в знаменатель формулы для У убедит нас в 'ГОМ, что частоты гармоник будут режектироваться при пре образовании Yt в У. = 4.еПри некоррелирова нных наблюдения х: Bii,cr2oi, Kii= cr2 1i,Bi;=Kij=O при i=#= j, имеем g*i= Wi/,cr2oi и правило проверки гипотез будет основываться на ,статистике У= '1:,yiwi/cr2oi и даваться выражением (7.1), в котором р2 МоУ2 = '1:,,w2i/cr2oi, q2=;('1:, w2i/cr2ii) / �(w2i/cr 2oi). В частном •случае п= остоянных зна,чений Wi=Х1, croi= = cro, O'ii= cr1 имеем g\=const и приходим (полагая g*i = 1/п) коптимальному правилу для однородной некоррелированной выборки, имеющему вид (7.1 ), (7.2) при У =у, М.0У2=Q2 0/п, р= = =Х1 Уn/cro, q,cr1/cro, 29Q. 5.аПоказательно, что при нулевом сдвиге х1= О оптимальнымабудет лишь тривиальное правило д0 у = 1-а. Причина кроется в крайне •слабых исходных допущениях, которые обязательно нужно дополнить знаниями четвертых моментов наблюдений, чтобы получить приемлемое правчло П;)ОЗерю; гю-:отез, р:]ЗJшч:сющее изменение одних только дисперсий (мощност:� шума). Пусть стоит задача: ,;Jtk: Mh У�= oJ, М,, Yl YJ = of, при i -=1= j; М1 , Yt = = mh4 ; k = О, 1 ; i, j= 1, ... , п. Переходя yf-06, получаем: (yf -og)2 = Задача в ыщых наблюдениях тождественна рассмотренной в i-:он11,· предыдущего пункта. а оптимаJ1ьным будет прави:ю (7.1), (7.2)в обозначfниях: у = у ·2· -а2 М У2 = (т -a4\ll. ti' О 0-i rl/,.' q2 = (m14 --о;)/ (tnv 4 -crj). Неточные корреляции. Пусть корреляции не являются точны• ми и заданы не все, а частично. Скажем, не все элементы Hij и Kij корреляционных матриц заданы, а часть, да еще и не точно, а их некоторые границы. Такая задача может решаться нанр�!мую нашими методами. Собственно, одно такое решение было уже найдено в начале этого параграфа, когда известными были верхние границы С'�'!\О,1 ;щагонаJшных элеме:нто-в ко,рреляционных мат / ·, µиц: М0у2 = ":'::,B;;/n=a2o, М1 (у-х,)2= 'f,К.u/n=az ,. Рассмотрим еще один случай. Пусть известны только «нотолi{ю, д"1я мощности отдельных элементов наблюдений: М0у'l.;==Вн и i\11 (y;-w,)а2 = Ru, i= l, ..., п, а какая корре.1яция между ними совсс!\1 нс ювrстно 1,а!< при гипотезе, так и альтернативе. С,-а:,:.�нвое !!С· нс;,.;1ючс1ет, ч,о наблюдени;! в наименее благопрш,тном : , у1• ас (1/. = ' ) жн·� т fН)В'!•ор нть друг друга. Теперь бу J.ет по:':?·rсн i; с:-.н,1сл о:1т,1л1;;,;,;-,110го лрави.11а, найJ.еш-:ого решением этой ?адачи нашимr: ж.�то.1:.1:1,11;. Оно нмеет внд (7.1), в которо!\1 У фор�шрустс:я ка 1( отбор rоль,ш ·одного элемента У=Yi при таком i = l, при r:отором \П1ч1:ча.'iЬНО значение [3;, найденное по формуле (7.2) саГ,(ЦCTE.li,(;[3;-;oi\ тy,J)l Д3ННЫХ i-ro Эс1ементг: q;=R;;/B;;, p2 ;=W2./B,;.Итак, внача.пс отбирается один наиболее «инфор:v1ативпый» элемент у1, ко1орый в сравнении с каждым другим обеспечит меньшую ошибку В; при заданном а. Ззтем по нему строится правило. J (!·' :L!H П одытожим оба частных случая. В первом осуществлялось квадратичное преобразование у2 наблюдений, во втором его можно считать линейным, полагая giO для всех •i=l=l, ·кроме одного = g1 = 1. А в обще.м, по теореме 7.1 о достаточ:ности 1) это будут преобразования вида ��CiJYiYj при суммировании по тем (i, j), для которых имеются данные о Bij, остальные Cij= O. Если так -окажекя, что оптимальные c*ij= gigj и ��c*iJYiYj= (�giyi)2, т,о преоб.разова,ние овщет,ся к линейному. В общем, это бу,,цет не так. 7.3. ИСПОЛЬЗОВАНИЕ ДОВЕРИТЕЛЬНЫХ ОЦЕНОК ДЛЯ ПРОВЕРКИ ГИПОТЕЗ Описание способа. Нередко задача проверки гипотез сводится к принятию решений относительно значений �параметра. Так, на отсутствие сигнала можно смотреть как на нулевое значение его амплитуды, оценку надежности аппаратуры можно перевести в проверку соответствия норме параметра надежности и т. д. Наша цель -связать правила проверки гипотез о параметре с доверительной оценкой этого параметра, чтобы затем использовать материалы предыдущей главы. Пусть х есть числовой ,параметр и .fftYx -переходная ИМ, задающая модель на l5Jj при фиксированных х. Пусть гипотеза и альтернатива ,соответствуют значениям х0 и х1 параметра х. Тогда JlY0=.fftYx 0 , -две гипотезы. В этом разделе считается хо= 1. Возьмем СИМ .,,f{XY=::Jx.l{Yx и пусть да (х) ,есть доверитель-пая 11 == оценка уровня а параметраох: aMxY(l-дay (x))supMYx(l- x -да 11 (х)). По доверительной оценке построим следующее прави = дОу дау (Хо ). Принимается .нулевая гипотеза ,с той же достоверностью, с какой значение х0 включается в оценку да (х). Ошибка первого рода этого правила не больше уровня а оценки, так как у --( 1-дуо) ( 1-дуа ) �supMx (l-д yа(д)=М0 =М-ух0 (х0) -у х Следующее утверждение дает ,способ приближенного расчета ошибки второго рода правила (7.3). Теорема 7.4. Пусть д13у (х) есть доверительная (при xl) = оценка уровня � параметра х и пусть �* есть наименьший уровень �. при котором выполняется неравенство да 11 (хо) +д1311 (х1):::;;;; 1. Тогда ошибка -�(д) правила д0 у =до:у (х0) проверки гипотезы х=х0 при альтернативе х=х1 будет не больше значения �*· -� (д) = -д -у -у 1-д/(3 (х1)] � М1 о = Мх, дуо � Mz, [ � sup М� [ 1 -д�• (х)] = �*. х Значение �*' в общем, может отличаться в большую сторону от ве.11ичины ошибки j3' (д), а потому называется прикидочным значением ошибки второго рода. Оно будет тем более точно приближать ошибку, чем меньше границы МУхду (х) и МУхду (х) зависят .ОТ Х, Дадим наглядное пояснение к т,еореме (рис. 7.4). Положение ,оценки да.у (х) зависит от наблюдения у, а сама оценка как функция х расширяе11ся при уменьшении а. На рисунке сплошной линией и штриховой изображены два ее вида при разных уровнях, первый из которых равен а, а уровень �* (на рисунке �*<а)подыскивается таким, чтобы ,сумма высот сплошной кривой .в точке хе= х0 и штриховой в точ,ке х= х1 равнялась 1. Величина �* и даст прикидочную ошибку. Так как �* будет т-ем меньше, чем менее расплывчатой являет,ся оценка дr>у (х), то правило проверки гипотез будет тем лучше, чем меньше ширина оценки в направлении изменения х, а поэтому в качестве исходной лучше брать оптимальную оценку, или хотя бы квазиоптимальную. Следующие разделы дают примеры построения правил и расчета ошибок по теореме 7.4. Асимптотическое правило при симметричных ограниченных флуктуациях. Пусть yi= x+si, .i= 1, ... , п, где параметр х равен О при гипотезе 1И рав-ен х1 а флуктуации Si неза висю-1:ьr, имеют нулевые средние Msi=O и ограниченную ,среднюю мощность .м62 • Данная задача относится к рассмотренной в §е7.2, если положить там а1 �о=а. Введем дополнительные ·предположения: 1) �,. ограничены сверху и снизу уровнем Н, т. е.еF(lsil>H)=O, 2)�; симметричны, т. е. Msi21i -1 =0, i=l, 2, ... Тогда из доверительной оценки (6.22) степенного типа будет следовать правило д�= [1-(у/ Л)2k]+.е Расчет размаха 2Л по уровню ,а был произведен там же в §е6.4; асимптотически ·при n-+oo размах, умноженный на vn: оценивается неравенством (6.23), правую часть которого обознаЛа (k) = cr[ (2k) !/ (cvkl)]112k/V 2. три максимума: при у=О, ,при у=х1 и в средней части между точками О и Х1. Нас интересует последний. Он достигается при В= =Х1:[(Лр(k)/Ла (k))21tf<24-1>+1]-1 и равен 2-(x21n)k,(Лa+,Лр(k)2k/(2k-1J]1-21t. Этот максимум должен быть не Отсюда находится размах искомого дРу 1.н = [(х1Vn) 21•/(Zl<-t)_Лa (k)2k/(Zlt-t)]+, а из него уже -прикидочнаяошибка, которая применением формулы Стирлинга запишется в явном виде при условии Х1Vп�,да (k):н мизирующее при заданном уров:не а, И значении Х1Vп -·-,11,рикидочную ошиб.к:у второго рода � •. Мы не будем решать эту задачу, которая строго требует ·численных методов, а приближенно можно ограничиться найденным в § 6.5 значением k*. Поставим другую цель: сравнить прикидочное значение ошибки �* ,с точным � (д), полагая для простоты k= 1. Тог да дан= =atV а, д� = [1-аn у2 /о2]+, Л�. = (х1 (n)2 -Л,;, �* = (р2 -1/а)-1• ла к оптимальному правилу и его вероятности ошиб,ш, что явлнется по1<азатслем в пользу этой методи1ш. Проверка пшотез по мощности флуктуаций. Снова :1уемся из.поженной методикой, позволяюще�"1 переводит: 01н:нкив правила. Пусть y;н= Xs;, i= 1, ... , п, где параыстр масш� �.С,:, х принимает прн гипотезе значение х0, а .при альтернативе -л1; с1 1итаем для кою-:ретности х,>х0• Пусть флуктуации Si не:н1нисv.мы, имеют ну.1евые средние M�-j = О, единичные дисперсии М[:�;, J и ограниченные четвертые :-.юменты M;t; = mн1• Воспол1,:;(;в;нт1исьCЦCIIIJIOЙ (6.27), ПО.'lучим мини Это есть правило уровня а. Ищем прикидочное значение ошибки второго рода .р* как минимальное р такое, что an ,,.__ + (х1)= [1----(l-y2/x0 )2 j + m4-l + + (1-� (l-y2/x1 ) 2 j �1. m4-l у2 Сумма в левой части как функция при интересующих нас р ,,.__ ,,.__ имеет три максимума: при у2=х0 и у2=х1, где эта сумма равна I, и в промежуточной точке у2= (а/хо+Мх1 )/(а/х20 +Мх21), где эта сумма не должна превышать 1, что записывается 2 -n а� (Х1 -Хо)2 (�/Х� + а/х3) (m4-1 )-I (а Х1/Хо + �Xof X1)-2 � 1.е Из этого уравнения находится 1р.:. �* = V [а(р-1)2/2 +q]2 +q [ар (p-l)+q]-а(р-1)2/2-q,еm4-1 Х1/Хо, q= р= --n ·еНесколько более !Простое ,выражение для прикидочного значения будет получено, если искать минимальное р такое, что -о� Тогда �••=qt[l-(1 + у q/a)/p]-2. Очевидно, что д; Оу (х1)=О. р •• >р •. При увеличении р=х1/х0 имеем: p •• -+q= (ffi4 -1)/n. 7.4. СПЕЦИАЛЬНЫЕ МЕТОДЫ СИНТЕЗА ПРАВИЛ Задана формальная плотность альтернативы по отношению к гипотезе. Пусть сущес твует плотность альтернативы по отношению к гипотезе р(у)='.lt1/Jt0. По определению формальной плотности § ,1.4 это соответствует тождеству М 1f (у) =MG{J(у) f (у),V/Е!Г1, справедливому для всех f из области существования Jt111.Если -гипотеза (Mr$) зада•на первичными значениями M0g (у), gE�, то Jt1 будет определено значениями м,g(у)/р(у)=M0g(y),gE�, и M1(1/p(y))=l. Выпишем весовую сумму ошибок rt (д) = лах (д) + �х (д) р(у)- л.Моду +(1-х) М 0 ду ( На основании неравенств Мод0 11 �Мод0 11 (р(у)-л), Мод 0 11р(у)-Молд�11 ,s;;;;Мод611 (р(у)-л) (д) по х всегда можно поды скать такое к*, O,s;;;;x*,s;;;; 1, что будет верно равенство л)+ = л + мх•д2(р (у)-л),е rде Ми=хМ+ (1-х)М -взвешенное среднее. Тогда минимизирующим ГИ\(д) будет пра-вило р(у) �л (в соответствии с которым при строгом неравенстве нмее11t у д011=1, при обратном неравенстве -д011 =0, а пря р(у)=л считается du 11=y).От значения '\' величина rи\(д) не за-ансит и определяется в результате выражением ,1· (д) = л+ м"" <Р <и>-л)+. Варьируя величинами л и у, можно добиться того, чтобы уровень ,правила бЫJr Теор ем а 7 .5. Е ели формальная плотность альтернативы по отношению существует такой коэффичто оптимальное правило уровня а будет состоять в сравнении порогом: р (у) �л. у при таком выборе у и л., чтобы уровень равнялся а. Точные плотности вероятностей. Перейдем теперь к одному очень 'важному частному по отношению к предыдущему случаю, когда .J/{0 =90 и .J/(1 =(JJ1 -точные (на алгебре d0 ) распределения вероятностей, заданные своими плоетностями вероятностей по какоей-то мере. Следующая теоерема в принципе хоерошо известна, но она ра,скрашивается в цвета «оептимизма-пессимизма». Теорем а 7.6 (лемм а Ней м аен а -Пир с он а). Пусть Ро(У), Р1 (у) есть плотности вероятностей точных на d0 конечно х"' или счетно-аддитивных распределений. Тогда при некотором , х*� 1, и при всех х� 1 оптимальным для проверки гипотезы р0 (у) при альтернативе р 1 (у) будет .правило Неймана -Пирсона, со стоящее в сравнении отношения плотностей с порогом: Р1 (y)fPo (у) ::;:;; л, (7.4) у где О<л<оо и О�у� 1 выбираются исходя из нужного уровня а= 1-Мод0 у .е Д о к а з а т ел ь с т в о. Существование х*::::;; 1, прп котором правило ( 7.4)еявJiяется оптимальным, следует из теоремы 7.5. Пусть теперь х;;;,, 1. Тогда достаточный к.,а.:с образуют .Wu -измеримые правила. Оптима,1ы10сть правила (7.16) в классе измеримых правил доказывается в [3, стр. 95]. Робастные методы. Их суп, состонт н ннтсрпрстащш гипотезы и аJiьтернативы в вн.:.�.е се:\fейст,в ра-с11ре,1сленнй вероятностей и подмене семейств на выбранные внутри них наименее б.пагоеприят• ные «экземпляры» распределений вероятностей. Пара flJ*oc..J/{o, 9*1 c.Jt1 распределений вероятностей назы вается наименее благоприятной (нб) для статистической задачи проверки гипоетезы .!1{0, при альтернативе .J/(1, если [ 13] М�� {5'1>;/3<>� ::;:;; л} = М0 {В1>;t5'1>� 'f л.} = 1-а,е Мg;,• {5'1>;!№� ::;:;; л} = М1 {№;1.1>�::;:;; л} • 1 у у Здесь 9*1/9*0 обозначает -плотность 9*1 по отношению к 9* 0(оно же -частное плотностей /1'*е1 и 9*0 по отношению к однойеи той же мере), а фигурными скобками оттенена индикаторнаяфункция ·соотве11ствующего события с рандомизацией на границе(т. е. при равенств.е). Для существования нб-распределений, веобщем, требуются Ао-измеримости первичных признаков гипотезы и альтернативы. У тв ер жде ни е 7.7. Если наименее благ оприятные распреdеления существуют, то 9*1/9*0�;л является оптимальным прави = лом при х1. обеспеч ения уровн одбираются л и у). Т огда для любого правила д0 уров 11 f3(д)-М1ду;,;а.м_:,>; дуо;,;а.М_р; '1' 7Р1/fРо�Л {'" • } = Таким образом, ошибка второго рода у д не может быть меньше, чем у d*, что и доказывает утверждение. нб-распределений -это целая 1проблема, устанавливаемая в каждой конкретной задаче. Ниже рассматривается один такой случай. Проверка гипотез по заданным интервальным вероятностям. Пусть JfYo= �o(Y), Ро(У)), JfY1= (J?1(Y), Р1(У)) заданы своимие интервальными плотностями (по .мере-длине на б// =fRn, хотя этои не обязательно), что эквивалентно заданию интервальных вероятностей , порождающих аддитивные ИРВ. Введем следующие плоТtности:е ( Ро (У) при Ро (у) < С1 Р1 (у), р� (у)= l С1 Р1 (у)еf!.o (у) � С1 Р1 (у) � Ро (у),е l приеС1 Р1 (у) < !!_о (у) ;е при ( Р 1 < Р1 (У) < Ь1 Ро (у), при (!1 (у)�Ь1 Ро (у)� Р1 (у), при Ь1 Ро (у)< !!_1 (у) ;еприеРо (у)< C2f1 (у),е п риеРо-(у) � С2 Р1 -(у) � Ро (у),е l прие С2 -Р1 (у) < -Ро (у); ( Р1 (У) при Р1 (у) < Ь2 е_о (у), при < у) ,;;:; Р, <У>. при Ь2 ео (у) < f!.1 (у) ; где коэффициенты с1, с2, Ь1 и ·Ь2 определяются однозначно из у словия нормировки плотностей: J p\.(y)dy= J q*,i(y)dy=1, k=O, 1. Вид этих плотностей приведен схематически (для уЕ9'/,) на рис. 7.5. Отличие q*o(y) от р*о(У) будет с·остоять в поведении на участке перехода с нижней границы плотности ,на верхнюю,где р*о(У) движется пропорционально Р1 (у) и выше ее, а q"' o(Y) пропорционалыно f!.i (у) и ниже ее, причем коэффициент пропор циональности в первом случае больше единицы, во втором меньше, но и там и там однознач·но таков, что выполняется нормировка плотностей. Аналогичным является различие между q*1 (у) и р"' 1 (у). Уже с беглого взгляда видно, что эти ,плотности имеют характер ·«наименее благоприятных», так как в максимальной мере «наплывают» на сторону 111ротивоположной гипотезы. Этот факт облачим в строгую формулировку. Теорем а 7.8. Пусть гипотеза и альтернатива заданы своими интервальными плотностями и пусть выполняются условия (у) dy+ f!.1 Р1 J J f Р,(У)>О f е_о (у) dy > 1. (У)=О + Pi Тогда, если с1,Ь1;;;,:, 1, то нб-плотностями будут р*о(У) и р*1 (у). если с2Ь2 �1, то q*o(Y) и q*1 (y), наконец, если с1·Ь1<1 и с2Ь2 >1, то нб-плотности р**о(У) и р**1 (у) таковы, что их отношение -при - - : - Р;• (у) = 11 Ь l f!_i(Y)!Po (у) р�•(у) з где постоянная Ь3 определяется из уравнения f [е_1 (у)-Ьз Ро (Y)]+dy-f [Ьз е,о (у) -Pi (y)J+ dy + Ьз = 1. Доказательство теоремы имеется в :[ 13]. Таким образом, в зависимости от значений нормируемых констант с1, Ь1, с2, Ь2 разделяются три случая. Первый с 1 Ь1 > 1 соответствует на рис. 7.5 меньшей единице площади областей как А+ (B+C+D+E), так и F+ (B+C+D+E), и дает возможность линии перехода нб-плотностей с одной границы на другую пройти, 1<ак на рис. 7.5. Второй случай с2Ь2< I эквивалентен превышению единицы площадей как А+ (B+D+E), так и Р+ (B+D+E), и позволяет линии перехода пройти, как это обозначено на рис. 7.5 штриховой ли,нией. Наконец, если оба этих •случая исключаются, то наименее благоприятные плотности проходят та•к, ,как эт,о показано на рис. 7.6: они просто в области •перехода произвольны, пропорциональны друг другу, но лежат внутри rра•ниц и .подчиняются условию ,нормировки плотностей. страним понятие нб-плотности на независимую однородную вы борку у= (у1, ..., Уп ), каждый элемент которой опи{:ывается интерва.11Ьными шютностями е_о(yi), Ро (yi); е_1 (Yi), Р1 (yi). У тв ер ж де н и е 7.9. Пусть р*о (у;) и p*i (Yi) есть нб-плотности для одного элемента Yi· Тогда нб-плотностя.ми для вектора у с независи.лtыми компонентами Yi будут произведения 1[ 13] Р� (у) = П Р� (уд, Р; (у)= П Р; (Yt)· i i Таким образом, оптимальное при х= 1 правило прооерки гипотез имеет вид Пр*1(yi)/p*o(Yi)�л, а после логарифмирования: 1 � ln[p*1(yi)/p*o(Yi)]�л. Оно пр,,, едполагает обработку к аждого 1 у элемента выборки в соответствии с нелинейной функцией f(Yi) = =ln[p*1·, (yi)/p*o(Yi)], суммирование результатов обраб•отки и сравнение их с порогом л: �f(yi) �л. 1 у при d2 < Yt �ds, при d3 < У1 � d Вид �нелинейной функции f(yi) зависит от исходных границплотносте й. В самом общем случае f(yi) записывается: при у1 �d1 , при d1 < Yt �d2, , (у1 )] при d,. < у1 �d,., а1 f (У1) = ( ln t!'1 (Удl!!.,о у;)] а" .верхние Такой же вид нелинейности будет, если заданы толькограницы плотностей и не заданы нижние (е,о(Yi) е, == 1 1 (Yi)=О); с той лишь раз ницей, что в этом ·случае на еред,нем участке /(yi)равна ·In:[p1(Yi)IPo(Yi)]. Возможен и другой вид нелинейности: ·ln [Р1 (у;)/е_о (У1Н при Yt �ds, f (yi) = { а2 при d2 < Yt �dr,, ln [f1 (у;)/Ро (Y1)I при dr, < У1· Здесь, наоборот, выделяются выбросы наблюдений и �«смазывается» .средняя неопределенная часть, т. е. работа производится по «вершкам» наблюдений в отличие от ,предыдущего случая, где полез.нее оказались «корешки». Заемечания. 1. Утверждение 7.9 справедливо и 1В том случае, если считать выборку [13] -значит, дополнительный тезис о стационарности -наблюдений, хотя и сужает по сравнению с однородностью математическую модель, но в данной задаче 1Не меняет ее решения (интересно, насколько это обЩIИЙ факт?). 2.еВсе изложенное нами в этом параграфе справедливо, еслиеплотности определены не по длине, а по !Произвольной мере µ,только тогда инт-егралы Римана по dy (для счетно-аддитивных моделей -интегралы Лебега) заме1 няют,ся 1на интегралы Римана С'Г'илтьеса (Лебега -Стилтьеса) по dµ. 3.е3 ад а н ы г р ан и ц ы в е р о я т ,н о с т е й с об ы т и й. Подера-с,смотренный случай интервальных плотностей nод:падает дискретный эксперимент, исходами которого являются / взаимноис·ключающих событий. Формально пронумеруем их числами от от 1 и до/: oY={l, ... ,/}.Считаются заданным,и границы вероятностей 1:_0(j), P0(j), 1:_,(j), P1,(j) этих событий j=l, ... , /, опреде ляющие собой гипотезы. Имея результаты п независимых таких экспериментов в виде зарегистрированных чисел п,, п2, •••, nJ вы J падения каждого события, � n;=n, нужно проверить гипотезу. Совершенно формально здесь на вероят-ности надо смотреть ка-к на плотность по -считающей мере (µ(j)= 1) и, следуя замечанию 2, использовать результаты последнего раздела. Тогда нелинейность f (Yi) заменится на указатель событий, какие произошли в i-м эксперименте, суммирование f (Yi) по i от 1 до п превраruтся в счетчик чисел n; и оптимальное правило примет вид J � ni ln (Р; (i)I Р� (j)) � л. j=I '1' Расчет значений отношений �наименее благоприятных вероятностей в аргументе логарифма осуществляется по теореме 7.8 с подстановкой там границ вероятностей на место плотностей (вместо у подставляется j) и заменой интегралов по dy на суммы по j. 7.5. ПРОВЕРКА ГИПОТЕЗ О ЗАДАННОМ ЗНАЧЕНИИ ПАРАМЕТРА Формулировка задачи. Если в § 7.3 при гипотезе Х=Хо альтернатива звучала как точное значение х=х1 параметра, то здесь она конкреТlно задается. Альтернативу будут составлять -все значения х, не равные х0, т. е. x-=l=xo. Решения выносятся такие: соответствует х значению х0, т. е. х= х0 или нет, т. е. x-=l=xo, а место альтернативы занимает направлеНlие отклонений, указываемое ,параметром х, а точнее, его физическим смыслом и связью с ·наблюдениями. Так, если �нет •сигнала, то значение его амплитуды -ноль (х=О), есть -не равно нулю. Пусть каждому з·начению параметра х поставлена 1В соответствие 1переходная модель JtYx на ау. Тогда гипотеза х=х0 о значении параметра и альтернатива х=1=х0 в терминах ИМ ,принимает ВИД (7.5) 3 а меч ан и е. Альтернатива (7.5) соответствует тому, что априори какие-либо данные о х, кроме x=l=x0, отсутствуют. Тогда .Jl(Y1 будет част,ной ИМ к совместной :yx,JtYx, где ;1х1 -голая на xEPlJ-x0 ( W без точки х0); если же априорные данные о х имеются в виде ИМ .4tx1, то -будет частной ·К произведению J{X1 .,,/(УХ• Часто х имеет физическое толкование как параметр состояния среды. Например, при функциональном представлении у= Vх� вектор (11.r1и процесс) s означает флуктуации (шум среды), а V.v. оператор, согласно которому влияние s на наблюдения зависит or х. Пусть Yi= x+si, тогда параметр состояния среды есть СДВИГ на .величину х всех наблюдений Yi, гипотеза х=О соответст·вует отсутствию такого сдвига. В случае непрерывности .lfux по х (в смысле непрерывности ми...,f(у) как функции х при любых fEfГ) или непрерывности оператора V х в точке х0, ,казалось бы, возникает безвыходная С'Итуация, так как аJiые.рнатнва охватывает гипотезу: .Jf{110c.!1{11о1 , сн·куда для любого правила д0 имеет место /3 (д)= М,д0 �Мо0д0 = у уу = = 1-М0д1 у 1-r:_(д) и аналогично �(д)� 1-а(д). В результате при х� 1: t3х(д) � 1-r�(д) +(х-l)а(д) � 1-ха(д) + (x-l)i(д) = = 1-а(д) и в любом ;Случае оптимальным становится тривиальное правило д0 1/== 1-а. Задача вырождается. В следующих разделах предлагаются различные способы выхода из создавшегося затруднения. О правилах при оптимизме. Оптимизм х< 1 в услопиях охRатывания альтернативой гипотезы :позволяет строить оптимальные нетривиальные правила, что иллюстрируется .примером. Пр им ер 7.3. Пусть в векторных ооозначениях у= lx+ s и пусть флуктуаuии s заданы интервальной плотностью g(z), p(z) по отношению к мере-длине на fYl.n. Будем считать, что границы p(z) и p(z) унимодальиы и достигают максимума при z=O. Будем рассматривать детерминированные (измеримые относительно алгебры отрезков) правила, причем те, для которых �(д)= s д�R(z)dz, а(д)= s д�p(z)dz, что будет иметь место при f p(z)dz в не представляет практического интереса, так как при этом-/3(д) ;;а,, 1-а, и поэтому может быть ,ис-ключеи из рассмотрения. Введение защитного диапазона. Этот метод состоит в сужении альтернативы до неравенства: О<е� lx-xo/ �Н<оо, где е и Н -числа, ограничивающие диапазон изменения х. Задача проверки гипотез, в общем, будет зависеть от выбора е и Н. В целом ряде задач значения х0 ±е .и х0 ±Н будут соответственно наименее и наиболее благоприятными в том смысле, что для оптимальных правил д0у уровня а справедливы равенства --. о у � (д) = Мх±е ду, � (д) = Мх±Н до В силу этих равенст•в при поиске оптимального правила и расчете ошибок первого и второго -рода альтернатива .;/{У1 = V .;/{Ух eв задача нахождения оптимального правила сводится к минимизации °f(д)= М д? г+� = min {J д�р(у-l в)dу, 1-f д1 е_ (у-l в)d у} при заданном а(д)= f д\ p(y)dy=a. Оптимальным будет то из двух правил р(у-lв)/р(у) :,;;;;;л, .Е(у-tв)/р(у):,;;;;; '}., (где л выбирается по заданному уровню а), для которого минимальна ошибка 13(д), рассчитанная по границам плотностей, составляющим .правило. Правило будет равномерно оптимальным, если его вид не зависит от значения в. Сказанное будет иметь место, например, в случае «нормальных»границ вида: _е(у)=уро(У), p(y)=VPo(Y), o:s;;;;�:,;;;;;1:s;;;;v1'. ошибка второго рода /3 (д) =v s po(y-вt)dy, конечно же, зависит от ут в-1 i,;;1..величины в и стремится к 1-а при в-+О. Минимизация интегральной ошибки. Пусть х= 1. Введение �ащитного диапазона /х-х0/ �е, отделяющего альтернативу от гипотезы, эквивалентно априорному до,пущению о невозможности пр-и альтернативе появления «очень близких» к х0 значений х. Обобщением является задание соответствующего альтернативе вероятностного закона на tc с помощью .,f{x1. Тогда .,f{Y1 будет частной к произведению .,f{X 1.,f{Yоx, а ошибки будут: --у 1 --х-у О -х а(д)= Мх0 ду, � (д)= М1 Мх ду= Му �х (д),о где �х (д) =МУхд0 у . При точной априорной плотности q (х) (по отношению к мере-длине), задающей .,f{x 1 , ошибка находится интегрированием: if( д) = J i\ (д) q (х)dx. (7.6) Задача поиска оптимального правила сводится к минимизации этой интегральной ошибки выбором д0 у п·ри заданном уровне а. От.мети,м, чтов (7.6) q(x) характер·изующей уровень предпочтения, отдаваемого различным значениям х при альтернативе. Например, допускается q (х) = 1 (тогда �(д), тю сути, уже не ;величина ошибки, а некоторый функционал от нее). Использование доверительных оценок. Пусть д* у (х) есть оптимальная доверительная оценка па•раметра х при коэффиц1Иенте = пессимизма х1. Бели считается, что .,f{XY=:Jx.,f{Yоx, то уровень оценки определяется формулой: а=sирМ'Ух [1-д*у (х)]. х = Для ,проверки гипотезы хох0 при альтернативе х*хо введем = правпло д0 у д*у (хо). Оно будет уровня не больше а, так как а (д}= М0 (1-д�) = Mf. [1-д;(х0)] � st1p М¾ [1-д; (х)] =а. х Трудно говорить об оптимальности в,веденного прав1ила d0 11 • Тем не менее на примере будет показа,но, что оптимальность оценки д*у (х) в смысле минимума расплывчатости Q ( д) = =МУ f д*у (х)dх в некотором смысле приводит к сокращению ин тегральной ошибки (7.6) второго рода. Пр им ер 7.6. Пусть в .векторны х обозначениях у= Jx+ s и х= 1. Если об х и его связи с s д0функцией y-tx, поэтому правило д0 У проверки гипотезы Х=Хо будет =д*(у-1хо). Его ошибка первого рода равняется уровню а оцен·ки d"(s); действительно, а(д) = Мо ( 1 -д�) = Мо (1-д* (у-1 Хо)]= М ( 1 -д* (s)I = а. А ошибка второго рода при х = х1 будет равна 'ifx, (д)= MI, д�= MI, д(у-1 Хо)=М д(s+ 1 Х1 -1 Хо) С другой стороны, интегральная ширина оценки .МQ(д)=.МJ д(y-lx)dx= =М J д(s+ tx-lxo)dx:,;;;J .Мд(s+ tx-lxo)dx =J р.,(д)dх. Если здесь вместо нера 0 у будет минимизировать интеграл от ошибки второго рода по параметру .х, следовательно, будет оптимальным в смысле интегральной ошибки, что мы и хотели показать. Таким образом, предлагаемая здесь методика позволяет прямо приложить все доверительные оценки параметров, полученные в гл. 6, к проверке гипотез о значении этих параметров. Выписать получающиеся отсюда правила предоставляется интересующемуся читателю. 7.6. РАЗЛИЧЕНИЕ НЕСКОЛЬКИХ ГИПОТЕЗ Общие положения. Мы выше рассматривали задачу проверки нулевой (консервативной) гипотезы при противостоящей ей альтернативе. Пусть теперь гипотез, в общем, не две, а К, и они в какой-то степени равноправны, ,каждая определяется своей ИМ .,/{k, k= 1, ... , К на 6/J. По наблюдению у нужно установить, какая из гипотез имеет место, т. е. какой ИМ подчиняется у. Этот случай охватывает многие практические задачи классификации и распознавания образ0�в, сю�а вхО1дит прие.м ансамбля сигна_лов, различение букв рукописного текста, узна·вание вида болезни по диаг,нозам и т. д. Решающее правило составляется ка•к совокупность dy = = , (д1 у, ... , дRеу ) решений, каждое из которых дhеу, k= 1, ... , К, определяет тот уровень п,редпочте.ния, который при наблюдении у отда·ется k-й гипотезе. Суммарное шредпочтение не должно превышать 1, что выражается в требовании az � 1, V у. (7.7) За.дадимся вопросом, а можно ли сумме предпочтений разрешить быть меньше 1? Будем считать, что, в общем, да, оставляя не к долю д?у = 1-� дk у предпочтений, называемуюе k=l нейтральным решением (примеры дает рис. 7.2,а, б, в, где д? у равняется длине отрезка по вертикали, заключенного между сплошной и штриховой линиями). Нейтральное решение не относится ни к о�•ной из гипотез, т. е. никакого решения не выносится. J:::ro введение вызвано исключительно удобством и никак не умаляет общности, а скорее .наоборот: по ,крайней мере, как мы вокоре увидим, д?у всегда можно «разs11.ать» по дk у так, чтобы �сумма предпочтений (7.7) при всех у .строго равнялась 1, а качество сохранялось Предпочтения дkу , когда это не 1 (а остальные -О) или не О, представляют собой рекомендации, ·ост,авляющие все-таки последнее слово за человеком (способным при принятии окончатель,ного решения воспользоваться допол,н.ительными соображениями). При необходимости «механического» -выбора в пользу конкретной ги потезы ;предпочтения заменяются на процедуру «слепой» рандомизации, ,согласно котор,ой при каждом у разыгрывается иг·ра с исходами k= 1, ... , К, и вероятностями дkу исходов. . Обозначим Jtk...,.. модель на •простра,нстве значений 1, ... , К, вбирающую в .себя априори ,все статистические данные о гипотезах. Произведение Jtku = .JltkJth дает совместную модель гипотез и ,наблюдений, т. е. СИМ. Величина Mд=MkMkдky есть нижняя вероятность правильного решения (опознавания), у.среднен:ная по ги1потезам. Это -совокупная характеристика надежности правила. Соста,вными ее частями являются Mhдky -нижние вероят ности правильного принятия k-x гипотез (каждая вычисляется по своей .11(,, продолжением первичных средних), и обрат,ные им величины а,, (д) = 1-Мhд11оу, охватывающие все ошибки, связанные с k-й гипотезой. Выделим два крайних случая. Первый, когда .Jl(k=:J'11, т. е. априор•ных да1нных нет, тогда о,ператQ,р М11 осуществляет .минимизацию и получается Mд=rпin Мkд11у. Другой случай, когда а;приор k ные ве.ро:1т1ю�rи заданы точно и равны '),!,, �лh= l, тогда Мд= - k = �л,,М,,дhу• В последней сумме, чтобы она приобрела новую 110 k лезную -окраску, полезно снять с .л,, «одежду» вероятностей (какправи.'lо, неиз.вест,ных) и .наложить г,руз ответственности за последс1 вия .неверного отказа от гипотез, это общий пр нем. Проблема оптимального ·синтеза состоит в поиске правила, минимизирующего совокупную ошибку а(д)= 1-Мд при огра,ничею:н (7.7). Методом множителей Лагранжа оптима.11ьное правило получается минимизацией составного риска а(д) +лтах�д11.у при у k выборе '}.. согласно (7.7). В этом плане формулируется и достаточность. В этом же плане у.слеживается явная аналогия с доверите.ТIЬным оц<.'ниванием дискретного параметра x=k (с точностью до способа выбора л). Осталось переформулировать теорему 6.1 ( следствие 1) о достаточ.ности к гипотезам. Теоорем а 7.10. Достаточный при х= 1 класс правил в заdаче различения нескольких гипотез .;/{h, k=1, ... , К, определенных каждая своими первичными средними М,,g,ц(у), j=l, ... , Jk, образуют усеченные снизу нулем, а сверху -совокупны,п требованием (7.7), вторичные признаки соответствующих гипотез: а;= [ck-� at g1ii(Y)J+, k= 1, ... , К, i причем те, для которых ошибки определяются как суммы первичных средних: -+- ak (д) = 1 -с,,+ � aki Mk g11i• i Обратим внимание, что решение дk у в пользу k-й гипотезы .строится только по первичным признакам, определяющим k-ю ИМ Jth (в теореме 7.1 это соответствовало настройке на одну или другую ги,потезу), а по их пер·вичны,м средним Mk.gk; нахо:Цятся ошибки aii, эависящие только ,от .вида дk11• После применения теоремы ;поиск оптимального правила ,саодится к нахождению К'()эффициентов a+k;, минимизирующих совокупную ошиб1ку а(д) =.Мkаk(д), а в конечном счете, благодаря послед.ней части теоремы, минимиз.ирующих линейную форму от a+k; при огра1ничении (7.7). Чем выше ·и шире как функция у каждое дkу, тем меньше будет ошибка ak, поэтому совершенно яено, что оптимальное правило будет стремиться увеличить сумму предпочтений �дk11 ближе к 1, делая тем самым как можно меньшим �нейт.ралыное ;решение д?11, и конеч.но же, ра•венство сум у'"н мы 1 будет обязательно достигатЬ1Ся в каких-то точ,ках , называемых «горяч.ими», ,в которых -нейтральное решение отсутствует: д?11•=0. Эти точки определят ошибки и вид правила. Будь оптимальное 1правило �построено, дk11 станут как можlНоншн,рокими и дальше расширять их уже некуда, только лишь за счет «раздачи» нейт.рального решения, что не меняет ни горячих точек, ни, следовательно, ошибок, поэтому все эти ·правила будут эквивалентными независимо от способа «раздачи». С ин тез дет ер м ин и ров ан н ы х пр а вил. Правило ду, компоненты д"" .которого -при-н,имают только значения О или 1 (если одна -1, то остальные -О), называется детерминированным и эквивалентно детерминированной оценке Ry состояния k: д""н= l51�(яу) (см. § 5.5). Риск оценки при дельта- потерях М/51�(я11) превращается в совокупную ошибку а(д) правила различения гипотез. Детерминированные правила не являются оптимаJ1ьными. Кроме случая, когда все .к,., k= 1, ... , К, представляют coбoli интервальные распре• деления вероятностей (что следует из ·индикаторной структуры первичных призна-ков ИРВ и теоремы 7.1). Детерминированное правило эквивалентно разбиению пространства "IJ на непересекающиеся части А,.= {у: д"и = 1}, �A1iн= 'Y; при попадании наблюдений k у в A1i прин,имается k-я гипотеза. Оптимальнре (по крайней мере, в классе детерминированных) правило соответствует таким А,., которые максимизируют Мд=М"Р,.(А,.). Это может быть максимум по k стоящих справа нижних вероятностей правильных решени,й, или ,взвешенная их сумма �л1iP1t (А,.). в ПОС• леднем случае особенность оптимальных А"' помогающая 11х нахождению, следующая: �,.Р,.(А,.);;;;,,л1Р1(А,.), Vl, k, т. е. взвеше.н-ная вероятность множества лри «своей», k-й гипотезе должна быть не меньше, чем при других.н А" Для ИРВ множества должны составляться из первичных событий ги- А" потез и строиться на объединенной (по k= 1, ... , К) алгебре этих событий. Нужно отметить, что выбор оптимальных А,., в общем, не является однозначным (намек на существование нейтральной области, уже как-то розданной поА1�). «Горячие» точК1J1 будут располагаться на границах областей и будут совершенно неподвижны: нейтральная область их не захватывает, что Ф,ИК•· сирует ошибки. Различение гипотез по заданным корреляциям. Рассмотрим и ка:к иллюстрацию си,нтеза, и как важный для практНIКи случай задачу, где каждая .из гИ�ПОтез зада1на с·воими корреляциями, пусть точными: .J(,k:Mk(Y-Wk)(y-wk)T=B,н k-1, ... ,к. Здесь у и wk --векторы-'Столбцы элементов Yi, wk(i), i=1, ... , n► о а Bk -матрицы корреляций размернсти пхп. Таким образом► каждой ги11отезе соответствует свой вектор сдвига wk и заданная с учетом этого сдвига матрица корреляций. Критерием считаем МИНИМУМ а(д) =�Лkаk(д). Определим, пользуясь теоре.мой 7.10, по признакам моделей форму оптимальных решений. Число •первичных признаков для каждой отдельной гипотезы равно, очевидно, n2 и согласно теореме 7.10 каждому из признаков должен быть приписан ·коэффициент, что в векторной ·форме выглядит следующим образом: а:= [ck -(y-wk)T Ak (y-wk)]+, k = 1 , ... , к. (7.8) -к. Mk а:= 1-a1i (д) = ck -� tr Ak Bk , ,_. где аk(д) выписаны 'Согласно последней части теоремы,_ а Ан и: будут симметричными (по симметрии Bk) матрицами неизвестных. коэффициентов Ak (i, j), выбор которых и составляет проблему синтеза. Правило называется контрастным, если inf дh11=0, sup дk11 = 1" у у Vk. Для (7.8) 1ю1прастность эквивалентна ck= 1: тогда каждое dяу д:остигает 1 при y=wk и совоюупная ошиб-ка запишется: a(d) = =�д.k tr AkBk, Нетрудно видеть, что веса гипотез легко могут быть. учтены умножением ,на -них B,i, поэтому допустимо (включив их в Bk) ,считать далее .лk=const и минимизировать суммарrную ошибку� tr AkBk, Контрастные правила оказываю"ГСя достаточными при определе11'ном удалении ги1потез друг от друга (чтобы отойти от тривиального случая днkу ==Ck). Как функции у они представляют собой совокупность параболоидов дkнс вершинами •В точках y=wk увысwой дkw=1. Для наглядности интерпретации удобно мыс.1ить. k n=2. Основаниям-и -параболоидов, где они пересекают координатную плоскость, будут эллипсы (см. рис. 7.8) с середина-ми в wk. Чем шире параболоид k-й гипотезы, тем шире будет эллипс и тем меньше будет ошибка ak ( д). Но ширина ограничивается требованием (7.7), соотве11ствующим тому, что сумма параболоидов не должна нигде превышать 1. Контролировать это требование достаточно лишь в рас-полагающихся где-то между wk «rорячих»точках, обозна•ченных на р·и.с. 7.8 звездоч,ками. Для о,пти<маJ1ьноrо п.ра•вила, посколь·ку в,се дkу делаются как можно шире, «горячих» точек должно быть максимальное число, •причем они будут рас,пола-гаться .где-то в серединах групп в ра.эн-ых сочетаниях векторов wk (причем теми, для которых пересечение оснований дkу�ненулевое). Кроне «горячих» точек и центров wk везде ,сумма параболоидов предпочтений окажется •строго меньше 1. Наиболее это выражено в зоне на рис. 7.8, лежащей вне эллипсов, где решение д? у пол,ностью нейтральное: = 1. «Раздача» нейтрального р·ешения, хотя, в общем, и произвольная, но �подчиняется разумным нача д? лам: нап-ример, все содержащееся в у предпочтение удобно отдать близлежащей гипотезе. Другой ilозможный путь: ввести во все матрицы Ak один постоя,нный множитель а и для каждого у пс,дыски,вать такое аеу , .при 1которо.м сум.ма предпочтений станет равной 1. Возможны иные ,вариа1 нты. Оптимальность решений определяется формой лежащих в основаниях элл·ипсов, минимизирующих ,суммарную ошибку. Оси эллипсов и их ширина ставятся в зависимость от расположения W1t и -вида Bk и управляются искомыми матрицами Ak. Перейдем к наиболее простому случаю К=2. Оптимальное правило различения двух гипотез. Пусть К= 2 и будем искать опти�малыюс пра•вило вида (7.8), т. е. ис,кать матрицы А1 и А2, минимизирующие суммарную ошибку tr А1В1 + + tr А2В2. Требование д1у + д2 у::::::;; 1 должно контролироваться в области ненулевых значений д1у и д2у, где запишется как огра,ничение сверху единицей •суммы двух параболоидов 2-(y-wi)ТX XA1(Y-W1)-(y-w2PA2(y-w2) (квадратичных форм у). Максимум по у достигается в �<<горячей» точке у*, получающейся решением уравнения (A1+A2)Y*= A1w1+A2w2; в результате подстановки у* т1ребование запишется: )T 2-wr А1 W1 -w; А2 W2 +(А1 W1 +А2 W2(А1 +А2)-(А1 W1 + +А2 W2) � 1,еили же после некоторых \Преобразований перепишется: (w2 -w1)т Af (А1 +А2)-А2 (w2 -w1) ;::= 1. (7.9)е Здесь минус в ,показателе означает, что матрица псевдообратная 1, Га.нтмахер Ф. Р. Теория матриц.-М.: Наука, 1966.-С. 34. а именно, такая, что АА-А=А (обратная матрица в подпространстве собственных векторов, если она особая). Сказанное �важно .вот почему. Минимизация tr А1 81 +trA2 82 прп условии ,(7.9), замененном на равенство, производится методом множителей Лагранжа и ведет к матричным ура-внениям '\' (А1 +А2) 81 (А1 +А2)= А2 wт w А2, W = W2-W1 , у (А1 + А2) 82 (А1 +А2 ) = А1 wт w А1 , в которых у находится из (7.9). Отсюда, так как правая часть имеет ранг 1, сразу же следует •вывод, что матрицы А1 и А2 также должны иметь ра1нг 1 и записываться в виде: A11=akggт, k= = 1, --вектор-,столбец. Тогда .обратной матрицы не су 2, где g ществует, а лишь псевдоо6ратная: (A1+A 2)-=ggт/(a1+a2). Обозначая Ь11= gот 81,g, mh= gтwk, сводим матрич,ные уравrне,ния вУiесте с (7.9) к системе скалярных ура,внений: т2 а1 а2 = а1 + а2, т = т2 -т1 , 1' (а1 + а2) 2 Ь1 = а� т2, 1' (а1 + а2)2 Ь2 = ai т2• Решая их, находим оптимальные a,о= (l+ir Ь2/Ь1 )/т2, а2 = • В итоге подстановки 1найден1ных а 1 и а2 правило за-пишется д� = [l -(1 + Jf Ь2/Ь1) (gт (у-w1))2/(gт w)2 ]+, а д2у ,есть либо 1-д1у (когда .нейтраЛЬ'НОе решение отдается в пользу второй гипотезы), либо дается аналогичным записанному выражением с переменой индексов 1 и 2 местами. Суммарная ошибка правила будет ра•вна а1 + а2 = (Vgт В1 g + Vgт 82 g)2 J(gт w)2. Остал-ся последний шаг -.найти вектор линейной обработки g (на который проектируе'ГСЯ у), минимизирующий вы-писанную суммарную ошибку. Это сделать несложно при одинаковых кор реляциях: 81 = 82 8, тогда Более двух гипотез. Пусть К>2 и нужно найти правило вида g минимизирует отношение = (7.8), минимизирующее суммарную ошибку. Требование (7.7) подстановкой туда (7.8) (конкретнее, суммирова•нием содержимого квадраТ1ных скобок (7.8) и взятием максимума по у, который достигает,ся •при �А 11у= �A1iwh), обращается в систему неравен·ств: � w: Ah wk -( 1: Ah wh)т ( 1: Ah )-( 1: Ak wk) � ( 1: ch)-1, (7.10) где суммы перебираются для ,любых сочетаний индек•сов в числе от д'Вух (аналогично (7.9) К. Причем для 'Каких-то сочетаний будут равенства, соответст�вующие каждое ·своей «го �k рячей» точ·кеа. Само неравенство ,в (7.10) имеет в виду, что не между всеми сочетаниями Wk способны располагаться «горячие» точки (так, если все wk стоят на одной прямой в ,ряд, то равен-сТ1Ва будут лишь для смеж·ных пар). Обл,егчение синтезу дает �следующее общее утверждение, яв.ляющееся аналогом теоремы 6.5. У тв ер ж де ни е 7.11. Пусть гипотезы симметричны между .собой в том смысле, что существует преобразование наблюдений V, оставляющее задачу на месте, меняя гипотезы между собой: .J(,:Y =.1(%k, k= 1, ... , К, где vk осуществляет перестановку индексов k. Тогда минимизирующее суммарную ошибку правило экви дvk Если V -удовлетворяющее утверждению преобразование, то последовательное применение VL =V ... V будет также удовлетво VL рять ему, поэтому образуют группу преобразава,ний. Смысл ут,верждения 7.11 в том, что, -построив какую-то од'Ну из составляющих решающего правила, ,скажем, д1у, мы 'Переносим ее на .другие составляющие дkу , где k=v1 1, ,подставляя V1y в д1у на место у. Если v1 1 при изменении l пробегает •в-се k=,1, ... , К, то -оказывается достаточным построить всего одну составляющуюа.правила, .перено-ся ее преобразованием V1y на в-се остальные.аДля пра1вила (7.8), если имеется V, циклически переставляющее гипотезы 1-2, 2-з, ... , к-1, сказанное соответствует: Ak= = (Vk PA1Vk . Перейдем к ра,с,емотрению -прим,еров синтезаа. Три ортогональных сигнала. Пусть К=З и .в ве•к·торной .записи y=wk +s, k=l, 2, 3; «шум» s есть о�нород,ный некоррелир.Msis.i = o2бij ,п,р,оцесс, а «-еи•r.налы» Wk ортого оваюный .нальны между собой: wтkw1=m�k1, т -их «ам.плитуда». Задачаа.симметрична к перестановке гипотез между -собой, причем плос кость, mатя,нутая ,на векторы w1 , w2, w3 .в fll,n, ·вращаясь, остается на месте (см. рис. 7.9). По = KJ этой причине и в силу инвариантности свойств шума к таким вращениям оптимальные Ak должны проектировать у на плоскость (z,, z2), где и достаточно решать задачу синтеза, направив новые оси согласно рис. 7.9: Z1 = ут (2 W1 -W2 -Wз)/(2 т), z, = Vзут (wa -W2)/(2 т). Рис. 7.9. Преобразования координат в новых координатах z = ' (z1, z2) т исходная задача лереnисывается: z=mk--1-b, m1 = (т, О)т, m2 = (-m/2, vзт/2)т, mз = (-m/2, -Vз m/2)'r, ь = (�1, �2)т , м �i �j = ь 6и, ь = 3 02/2. Перестановка гипотез 1-+2, 2-+3, 3-+1 соответст,в ует вра щению z .на 120° по часовой ,стрелке. Обозначим V -унитарную матрицу вращения. Ее элементами будут: V11= V22а= -1/2, V21 = = = -V12-V3/2'�. Ищем матрицы Ak в пра,виле вида d11.аz =а =·(1-(z-mk)Ak(z-mk)]+, минимизирующие суммарную ошибку.а V V равную �b(A11.(l,l)+A11.(2,2)]. Согласно утверждению 7.11 имеем: k V V V V А2= Vтд1V, A3 = VA1V1 (где использовано vт=V2 ), так что задача \_,/ '-' сводится 'К нахождению матрицы А1 =А, определяющей д1аz . В силуасимметрии положения m2 и m3 по от,ношению к осям z1 , z2 мат \..J V V рица А должна быть диагональной: A(l,2)=A(2,1)=0, откуда V 2 -А( 1,1)(z1 -m) 2-A (2,2)z«Горячих» точек для д1z будет три: одна -в начале новой координатной системы z1= z2= О, относитель: д \=[1,2 ]+. но этой точки соверд1 шается вращение V и потому по симметрии 1 =д20 =д30 = V '--' = 1-А (1,l)m2, откуда из требования д10 +а20 +аз0=З-ЗА (l,l )m2 = V = 1 следует А(1,1) =2/(Зт2 ). Другие две «горячие» точки располагают,ся на •серединах между парами m1 , m2 н m1 , 1113 11 дают " V одно уравнение 111т1(V-IP( (VтА V)-1+д-1]-1(V-I) 111 1 = 1, из ко v торого нaxoJJIТt.:Я А (2,2) =2/(Зт2). Таким образом, на 1шоскост11 (z1, z2) основання:\111 iJ1аz , д2аz = =д1 vz, д·1 z =д1vтz будут круги радпуса ( Э.'2m с це·нтра:,..ш в m1, m2 И Пl3. Ч ст ы р е л о 11 и р н о о р т о г о н а .1 ь н ы х п р о т и в о п о лож ных с111·налаа. Пусть К=4, y=w;,-!-s, М;11s1=а2б;,1, !г, l= = 1, ... , 4, а «сигналы» попарно принимают протпвоположные значения Wза= ·-w,, W4а= -w2 11 ортогональны в двух направ.1ениях: wт1w2а= 0, !iw,11 =m,, ilw2II =m2, имеют в них разные, в общем, «амплитуды» т1 и т2. Действует только один сигнал wk, нужно узнать какой, наблюдая у. Очевидно, достаточной яв.'lяет,ся проекция задачи на плоскость z1 =утw1/т, z2 =yтw2/m и ,на этой плоскости задача выглядит так: z= mk+ь, m1= -mз= (т1, О)Т . m2=-m4= (О, m2 P, м;;т=а21. Ищем, как и в предыдущей зада v че, матрицы Ak, k= 1, ..., 4, которые в силу симметрии задачи ·к перемене знака ±z1, ±z2 будут попарно одинаковыми и диаrо нальными; обозначим их диагональные элементы соответст,венно V V ..._,, V A1(j, j)=Aз(j, j)=ai(j), A2(i, j)=A4(j, j)=a2(j), j=l, 2. Будем их некать исходя из минимума суммы ошибок 2о2.(а1 (1) +а1(2)+ + а2( 1) +а2(2)] при требовании (7.10), которое воплотится в три неравенства: a1(l)+a2(l) а1(2)+а2(2) 2) 2miа1 (1) > 1, 3) 2т�а2(2) � 1.о Пусть для определенности m2 2 -;;;?::m2 1• Тогда картину ра1споло жения «горячих» точек дает рис. 7.8, а в 1) и 2) будут равенства. По .сим1метрии раtВеНСТIВ и из 2) находится: а1(1)=а2(1)=о=1/(2т21), и далее � 1): а1(2)=а2(2)=3/(2т22).Получаем следующее оптимальное пра•вило:о [1-(z1 -m1 )2/(2mi)-3 Z�/(2mm+ -д� = [1-zЩ2mП-3 (z2-т2) 2/(2 т�)]+,о а аз: отличается от д1z как И д4z от д2 переменой знака у ,mj • z = ,Ошибки будут одинаковы: ak= a2/(2m21) +3а2/ (2т22). Замечания: 1. Разные значения дисперсий М�2;=М(6тw;)2=а2;, j=l, 2,-оставляют тот же вид опmмальноrо правила, если m22/cr22�m21/cr21 (вместо m22�m21), при этом а=О'21/(2т21)+3а22/(2т22). 2.о Задача: y=±w;+s, Mssт·=B, w;B-1w1=6;1m2;/0'2;, j, l=1, 2, где шумокоррелирован, а w; совпадают с направлениями собственных векторов 8 и ,а2 ; -сабственные числа, Э1К•В1Ивалентна предыдущей. 3. При равных амплитудах сигналов m1=m2=m и a21=0'2z=0'2 оптималь:иыми будут значения a1(j)=l/m2• Основаниями опт.имальных д"z станут кругио(на .подобие ОЛИМПИЙСIКОЙ эмблемы) И a11=20'2/m2• 4.оСовершенно прост переход к непрерывному времени: векторные произведения заменяются на интегралы. С ист ем а орт ого на ль н о-п р от и в о •П о л о ж н ы х с и rfl а лов р а в н о й а м п л и ту д ы. Обобщим предыдущее правило на случай любого четного числа 1сиг.налов , разбивающюося на пары -сигналов, внутри каждой ,пары .противоположных, а между парами -ортогональных, все одинаковой амплитуды: y-wk +s, k= 1, ... , 21(; wк+; = w1 Wz =т2 бл, j= 1, ... , К; М ssт = 02 I. По аналогии ,с замечанием 3 оптимальным правилом будет m2 д� = [ 1-(zk -m)2/-� z7Jm2]+; Zj = ут w, ;о i#-k д:+1=д�z ; аk =Ко2/т2; j, k:;= 1, ... ,/(.о На1писа,нное осмыслено лишь в том случа,е, если ak=:::;;;; (2.l(-i)/21(, .314 иначе оптимальным делается тривиальное пра1вило дk=== I/2K с ak = (2к-1)12к. Неточно известные корреляции. Пусть корреляционные матри цы Bk, определяющие J{k, ны прибли,виде оце1ночных Bk (i. j), Bk (i, j) (это мо,гут быть к т. е. зада· и давер-ительные границы, по обучающему э:сперименту). Для каких-то ,i, j этих данных о границах, впрочем, может и не быть •совсем, что лишь способно упростить зада•чу, так как ,по теореме 7.10 о достаточности для этих i, j следует положить Ak (i, j) =О. Пример 7.7. Пусть К=2 и заданы лишь диагональные элементы матриц корреляций В 1 (i, i), В2 (i, i), i = 1, ... , п, а относительно взаимных корреляций сведениli нет. Тогда А" (i, j) =О, i=I= j, а матрицы А" станут диагональными. Их ранг должен быть равен 1 (аналогично вышеизложенному при К =2), что может быть, лишr, когда все диагональные эJrементы матриц Ah нулевые, кроме одного. Сказанное эквивалентно тому, что из наблюдений Yi, ... , у" выбирается всего один элемент yj, тот самый, для которого минимальной будет суммарная ,ошибка ,построенного по нему правила, равная v зано при рассм отрении двух гипотез) величине: (lJ +az= ( VВ1 (j, j) + -tl1.(j, j)! / ( wz (j)-w1 (.i)) 2. Все о.:тальные наблюдения можно «забыть». Причина в том,ичто неизвестность взаимных корреляций вынуждает не исключать (в пессимистическом режиме х= 1) случай, когда все элементы у; повторяют друг друга, тогда остальные у; ничего нового по сравнению с одним значеннем не несут. Другой пуп, сннте3а п,ра1::111л нри ,неточных К_?рреляциях ба:шрустся на том, что недоопределение корреляции, как и задание их границам11, формирует ·собственные ,семейства 23k корреляцион ных функций (матриц). Ошибки, очевидно, будут равны (lk �-"' """' sup tr A1,Bh и поиск олтпмального правила сводится к мини вkе:!8h мнэации -сум�11,1 ошибок, т. е. ·к м11нимаксной 3адаче при о,·раниче,ниях. 7.7. ЗАКЛЮЧЕНИЕ Ра,:сматрнвиюн·я две гипотезы, нуJl(.;вая и а.'t!,ТСjНiатнвная, от:шч:;юн,.т:..:я р;,:mыми етипктическrпrн опи.:а11ш1�111 в виде 11нтерва.1ы!;,::: мо_:l1;л1:i: ,·редни;, За гипотс:Jами стс;я r r{онк,Jr·:·ныr• п;;актичес1ше ,, ;111,, (•c,l, cиrrrЗJI ИJШ нtт его прв обнару;�•:е:ти, :ш!iо 11рсвt�р1,а неисправнос1;; у,;тро: •. <:тна, соотвстс пшя t'l о технпчrскпм т1,ебовшrням II т. 11. 1-iазначенис peшa,;)i!•,(.;ro п;ншила в том, чтобы 110 резут,тата"1 сделать выбор н птимальной оценке р. Порог л здесь должен быть IВЫrбран исходя из зада1нной \нащеж�н,ости р = � J ···J µr (р ) Рр (r) w (р) dp, (8.2) vr 1 куда на,именее благоприятная плотность w (р). Трудности нахожден,ия наименее благоприятных пло11ностей вынуждают прибегать к некоторым «разумным» ва,м·их подбора. Модель наибольшего правд оподобия. Пусть априорное распределение вектора р равномерно w (р) =const и пусть Pw• (r) =•const, т. е. апр·иори никаким векторам частот предпочтения ,не отдается, п с·мысле риятную �ситуацию. Тогда формула (8.1) Рр (r) ;;;,::л, т. е. оценкой является индикатор,ная функция р макс.ималыной вероятности После логарифм,ирования обеих частей •последнего •Неравенства, перемены з·на1ка и объединения между собой оценка примет вид а k+I" F (р, р) = - � р1 ln р1 � лн л1N= -ln л+lп (NI)-� Jn (r1!), �1 1 Отметим, что функп:ия F (р, р) неотрицательна и .принимает " а " k+I минимальное значение при р=р, ра1вное: F(p, р) =-� {Jj lnpj. 1 л (а отсюда ,и л1 ) находится по (8.2) с подИнтеграл при получается трудоемким, ,поэтому есть смысл определять л исходя из нижней границы надеЖ'Ности: p=min � Рр (r). (8.4) р r: Рр (r) ;;i,). (8.3) с tНахождением л1 векторов р, составляющих доверительную мо р. Эта ..lt иначе задается своим.и срещ,ними, •К ,поиоку юоrорых и присту�паем. Здесь (так как се'МейС'l'ВО ..lt непрямоугольное) первич�ными признаками задающие события Aj (вероят.ности р которых оцениваю-гся), а будут ,измеримые функции на ·них. k Обозначим р0 = (Р01, ••. , р0 1<), 011.нн 0; -решения уравнения F(p, р)=н р= 1-�р 1 =л1 оmосительно р при выборе л1 по заданной надежности р. Эти решения образуют набор, задающий поверхность семейства .4. Первичные сре;,.ние определяются гиперплоскостями в подмножестве I пространства 92"+н1, касающимися семейства .4 111 точках р0 • Так как дF(r,р)/др;=-г;/р;, то уравнения этих rипep- k+I плоскостей имеют вид Эти гиперплоскости и определяютн 1 первичные признаки вида k+I g o(Z)= � PJAJ(Z)/Pj• /Jj=Гj/N, /=1 O 0 1 1 н сответст-вующие им средние k+I k+I �А O �А pe.J(, В результате различным р 0 как решениям уравнения .F(p, р) =� соответствуют различные ,11ервичн.ые признаки gpo(z) с одн·им и тем же у всех равным 1 верх Таким образом, первичными средними, определяющими дове k+I А о М -� P1 A1 (z)/p1= 1, Vp0 : -� Pi lпр, = л1 • (8.5) 1 1 При N_,,..oo ,модель .,f{ стягивается к точному распределен,ию соответствующему предельным частотам р;= lim JJ;. Получим ,в я,вном виде ,не1юторые из первичных средних, соответствующих набору (8.5). Для этого фиксируем p0;=JJ;, j= =2, ... , k, и будем искать р0 1 из равенства F(p, р) = л1. Получим 0 р 1 как решение уравнения ... ,. "' А k "' А -Р1 lп Р1 -Рн1 ln (рн1 +Р1 -Р1)= л1 + � Pi lп Pi· 2 Этих решений будет два: е_0 1, р0 1, где f!.0 1::r;;;,p1::r;;;,p01. Таким оЬразом, 1ис1юмый вектор р0 .,,, вероятностей будет иметь вид р0 1,Р2, ...,�.,,,, k (l-�,61-P0 1), где р0 1 равно либо р0 ,, либо р0 ,. Соответствующее - 2 каждому такому вектору ,первич,ное среднее находится из уравнения (8.5) и имеет вид М (Р1 -р,)И1 (z)/pj -Ан1 (z)/(Рн1 -1-Р1 -Pi)J= О. Заменяя индексы 1 и k+ 1 -разными комбwнациями индексов l, т, l=l=m, от 1 до k+ l, получи,м поднабор первичных средних вместе с уравнениями для нахождения P.:,i и p0z. Если склоняться к упрощениям, то от -всего набора (8.5) первичных средних можно отказаться, оставив их какую-то часть, что приводит к расширению доверительной модели с увеличением наде21шости. За основу расширения могут быть взяты любые приз• k+I на,каждый из них се ки вида g (z) = �giAi(z). Интересно то, что точно·стью до множ-ителя совпадает с одним из первичных признаков (8.5) (для эюго ,нужно подобрать соответствующее pеu ), поэтому такое ра,сширение эквивалентно уменьшению числа первич• ных ,средних. Использование критерия хн-квадрат. ОпредеJ1яющее доверителнную модель Jt семейст,во векторов р может быть :выбрано с позиций упрощенного пор·ога Л. Ислользуем для этого статистику хи-·квадрат k+I " � (Р1 -P1)21Pi� Лz, (8.6) 1 где л2 находится по заданной надежности р. При больших N левая часть нера:вен·ства имеет приближенно распределение хн-квадрат с k степенями свободы ,[25]. Тогда порог Л2 ,будет критической точкой этого распределения. Семейству Jt векторов р, определенн·ому нераве,н�ством (8.6), соответствуют первичные значения -k+I " О k+I " 2 2 О М � Pi Ai (z)/(Pi)2 = � Pi/Pi , 1 1 где р0 есть всевозможные решения уравнения (8.6), ·в котором не равенство заменено на равенство. Информационный построения доверительной модели. Будем ,считать в (8.1) w (р) =,const и оста•нов•имся на подборе плСУDности w* (р), .входящей в знаменатель. Будем искать максимум зна•менателя по w* (р) при каждом заданном векторе частот r. Этот .ма•ксимУ'м достигается при дельта-функции Дирака w* Р Оправданием .нашим действиям служит то, что имея наблюденным ·вектор r, мы рас•с·матриваем наименее благоприятную плотность w* применительно к r. С учетом найде·нного P(r) после подста·новки его в (8.1), ло гарифмир-ования обеих ча,стей неравенства и перемены зна.ка прик семейству Jt векторов р, определяемому ,неравенством ,. k+I.. .. J (р, р) = � PJ ln (PJ/P1)� Ла. (8.7) 1 Левая часть неравенства (8.7) есть различающая информация [24], содержащаяся в векторе р в пользу точной вероятностной модели, этим вектором, при конкурирующей альтернативе р. ,Ясно, что чем меньше эта различающая информа ция, тем ближе р к р, а при р=р эта информация минимальна и ра•В'На О. Таким образо,м, со•rласно (8.7) доверительную модель образуют та·кие векторы р, которые ,в смысле различающей ин р .не более, чем .на число :Л.3• Порог Лз находится из формулы (8.4) с пощстановкой неравенства (8.7) .под 'IШI' символа суммы как ограничения на r (вспомним, что p=r/N). В сра,внении ,с ,(8.3) имеем А А А А k+I J (р, Р) = � Р1 ln р1+ F (р, р), 1 k+I поэтому (8.7) совпадает с (8.3) при л1и=лз-� JJ1lnp1. Заменим 1 в (8.7) неравенство на ра•венство и обозначим какое-то его вектор-решение р0 правым равенсrnом в (8.5), если подставить туда вновь пересчи с (8.5) при с,первичных средних доверительной •модели и уравнений •для р0 и лз: -lt+l А А м � Pi A1(z )!Pi = 1, J (р, рО)=лз,и 1 p=min р А r:J(p,p) ��. Доверительные совместные оценки. Пусть dk= {А1, ... , Ak} произвольный ('В общем, пересекающийся ) ·набор событий на �Требуется получить совместные довер,ительные оцеН'ки 'Вероятнос их событий PJ= Р (AJ) �J) отдельных событий: JA,z (р) =П µz(P1). Требование к надежности 1 совместной оценки на•кладывает огра�ничения на .надежности отдельных оценок. Этот вопрос здесь и рассматривается, а именно получить совместную доверительную оценку, имея отдельныеоценки. Для отдельного события AJ доверительная оценка !:j, Pi уров ня а1 :Цается как ,решение уравнений [25] 'J·lиi i rг4 ·-i -i � Cиpj(l-P1)N -i =l-r:t10, � c.�Pi(l-P1)N -=r:t11, -- i=O где аjо+ал =aJ и ГJ -ча,стота этого события. В асимптотическом варианте при N-+oo ,и aJo=,aJ1 =,а)2 доверителыные границы будут приближенно равны Pi ± Ф-1 (1/2-а.;/2) V;;j (l -pi)IN' где Ф (х) -функция Лапла·са. 1 Тео;рема 8.1. Пусть x=l и µr (PJ), j=l, ... , k, есть доверительные интервальные оценки параметров PJ = Р(AJ) уровней aJ, определяемые границами � (А1)=f!.J, Р (AJ)=PJ· Тогда эти грани цы, взятые за первичные, задают доверительную интервальную k модель Jlp надежности, по крайней мере, р� l-�a1. 1 k Доказательство. Для совместной оценки µr(Р)=П1 µ,1(Р;), используstа а а элементарное неравенство �µ•/P;).;;э:1-f[l-µ,/P;)], имеем: p=MµiP)=а k k k =МПµ,j(Р;);;;;,: 1-IM[l-µ,j(P;)],=1-Ia;, что и требовалось.а -1 1 1 3 а ·меч ан и я. 1. Теорема 8.1 имеет смысл для любых совместных д:оверительных оценок задающих .параметров. но ·не обязател:ь�но, что это оценк,и вероятностей и что ,они интер вальные. Так, если µz (т;), j= 1, ... , k, есть расплывчатые довери тельные оценки пара,м етров m;=MgJ(z), то размытая модель на ' дежности р� 1-�а; бу�ет опре�деляться первичными размыты�ми средними µz (т;) признаков g;(z), j= 1, ... , k, и k модели (если нет ,избыточ·ности в ее первичных средних). 2.аЕсли уровн,и а;, i= 1, ... , k, считать равными то в соответствии с теоремой 8.1 нужно брать а;= (1-p)/k. Это является явно особенно k,что приведет к излишне расширенной д;верительной модели, поэтому требуется пересчет надежности по уже выбранным первич (доверительным оценкам) отдельных параметров. Это делае-гся так. Пусть m;=M�g;iAi(z) = �gjipi, где Ai .--непе l i ресекающиеся множества, образующие разбиена Pi -их вероятности. Тогда пере-счита-н�ная надежность р= miп � Рр (r) µ.. (т). Р vr 3.аПри увеличении числа первичных параметров надежностьалр·и заданных оценках отдельных параметров, ,в общем, Кроме того ,случая, .когда задающие параметры «сильно связаны» между собой, т. е. один лишь неЗiНачитель:но отличается от другого. Такая связь имеет место, если задающими являют,ся вкладывающиеся друг в друта события, к рассмотрению чего и приступим. Доверительная функция распределения. Пусть задающим (онже пер,вичный) является ,набор вкладывающихся друг в друга ообытий Аве�. 0E.91l, АвсАв, при 0�0'; обозначим через /Jeа= N =�{ZiEAe}/N частот попада•ния по следовательности Zi ис•пытаний Если отобразить � •в .91l так, что А в отображается в полуинтервал (-оо, 0), то ре как функция 0 будет выборочной функIJJией ра<:пределения. Обозначим ре= Р (zEA в). Требуется найти доверительные границы для ре, такие, что Р(П{рв-сN(Р)�рв�рв+сN(Р)})=р. Разность -в 1 -известная стати�стика Колмогорова, поэтому cN (р) есть табулиро'Ванные процеН11ные точки ра·спределения этой ста ззо ти определяющими доверительную модель, будут , Р (Ав)= рв + сн (р).е Мы видим, что -несмотря на бесконечноев данном случае чис ло задающих параметров Рв доверительные границы отдельных параметров не становят,ся тем не менее тривиальными, ·не расширяются до интервала (О; 1), как это следовало бы из теоремы 8.1. 8.3. СОГЛАСОВАННЫR СИНТЕЗ МОДЕЛЕR И ПРАВИЛ Надежность моделей и истинные ошибки правил. Процесс изготовления промышленных издел-ий «обрастает», хотим -мы этого или не хотим, мас·сой подготовительных работ .и вспомогательных служб. Нужно раздобыть сырье, сделать заголовки {модели), скомплектовать их, доставить .к месту, а для этого нуж,но иметь помещение, подготовить станки, технику, наконец, найти рабочих и заинтересовать их зарплатой, организо·вать экономичеоl{,Ие службы (хотя и это еще, конечно же, .не все). И толь·ко потом можно приступать к са,мому изгото.влению. На надежность, рит,мичность работы нужно смотреть ,в комплексе с охватом .всего отлаженного -механизма предприятий · В ,целом. Прим·ерно то же самое имеет место при синтезе модели, гдеподю"Говитель:ные ра·боты состоят в выборе Jtxv, !1), ,[л:], х, составляющих статистическую задачу, а самое главное -в выборе •модели JtxY, ,своего рода ИIНструмента к будущему изделию решающему правилу (заготовкой к которому я·вляется f!l)). Брак в части инструмента делает бессмысленным само дальнейшее «изготО1Вление» (какая бы ни была заготовка), поэтому .в первую очередь модель Jtxu должна быть надежной, доверительной. В то же время нельзя и это требование доводить до пол,ного абсурда, забывая о целевом .назначении модели -прямо вести к изделию -решающему правилу. Чрезмерные издержки на инструмент поднимут и время изготовления, и суммарную стоимость. Здесь нужен 1компромисс. Будем мыслимо .под «издел·иями» подразумевать правила доверительного оценивания (хотя это может быть проверка гипотез). У модели и у правила �евои атрибуты: у ,модели -это надежность, у правила -ошибка (уровень значимости). Последняя рассчитывается по виду модели. Очевидно, имея ненадежную модель, нельзя уже доверять ошибке (расчетному уровню значимости а), рассчитанной (по модели) для правила, ибо истиlНная вероятность ошибки ожидается •выше расчетной. В то же время �слишком широкая и отсюда чрезмерно надежная модель приведет к неопра-вданному увеличению расчетных ошибок правил. Возникающее противоречие рождает потребность вскрыть строгую связь надежности модели с ошибками правил, к чему и перейдем. Пусть а"(д) -уровень, или расчетная вероятность ошибки решающего правила д, рассчитанного по доверительной модели Jtp надежности р. Тогда с !Вероятностью 1.-р, с какой модель «бра�кова1на», эта ошибка не соответствует истине, и неконтролируема. Песси�М·ИЗIМ х= 1 при расчете за,ста.вляет усугубить ситуацию, .есчитать ошибку правил из-за «брака» -модели максимально возможной, ра1вной 1; а крайний оптимизм х= О -наоборот, есть, 1по сути, ,вера, чrо .все бу1дет ,как ,нельзя л;учше, т. е. ошиб·ка минимальна и равна О. В результате мож,но .подметить, что неконтролируемая ошибка просто равна коэффициенту песс-имизма х. Так как «бра,к» модели по ее ,построению закладывается с ве,роя11ностью 1-р, то истинная (полная) вероятность ошибки правил соста-вляется из неконтроли-руемой х с вероятностью 1-р и расчетной с вероят,ностью р: а: (д) = ра" (д)+(1 -р) :к. (8.8) Подставив в полученную формулу а"(д) = ха(д) + (1-х)�(д)е, где а(д) =1-Мд, а(д) = 1-.Мд, ,перепишем исти•нную вероятность ошибки в другом виде: = а: (д) х (1-р (1-а (д)+� (д))] +� (д). Отсюда наблюдается связь истинной ,вероятности ошибки ic -коэффициентом пессимизма :к. Чем больше �пессимизм х, тем больше истинная ошибка а"и (д). Но эта ошибка всегда не �выше а0и(д) = р�(д)е, что соответствует х= О. При х= 1 исти•нная ошиб ка а1�1(д)= а(д)+(l-р)•[l-а(д)] с.кладываеrея из верхней границы ошибки а(д) и (при а(д) � 1) ненадежности 1-р (вероятности брака) доверительной -модели. Если записать (8.8) еще в од:ном виде: а"и(д) = а"(д) + + (l-р)1[х-а"(д) ], то будет •видно, что при х>а"(д) истинная вероятность ошибки всегда больше расчетной а"(д), причем чем меньше 1надежность р и больше �пессимизм, тем существенней эта ,раз.ница, тем больше истин.пая вероятность ошибки. При х;;;э:;;а, 1-а"(д) истюmая ошиб-ка превышает расчетную, по •крайней мере, 'На величину •ненадежности 1-р. Установим с•вязь между истинной ошибкой правила и надежностью •модели, для чего запишем при х = 1: а1 и ( д) = 1.-р [ 1-а ( д) ] • Уiвеличение р вроде бы должно уменьшать а1 и(д)е. На самом деле, при у�величении р доверител1::.ная модель расширяется, в результате а(д) возрастает, устремляясь ,к 1 при i>-1. Тогда и а1 и(д)-1. Та·ким образом, брать большую ;Надежность модели бессмысленно. А так как (в силу установленного выше) и малая ,надежность не имеет смысла, то. для каждой статистической задачи дол:жно существовать оптимальное значение надежности р (пример будет рассмотрен 1В последнем разделе). Пусть заданный исти.оценки: а" и (д) �·а. ·(8.8) кой онизу на надежность р� ( х-а)/,[ х-а"(д)] и величи,на расчетного .уровня арас, на который нуж'Но настраивать •правило: �-[a-x(l-p)]/p=ap ac• Если ство .невыполнимо: ,нельзя ,найти арас, получили бы истинный уровень а, получения по ненадежным моделям уровня а оценок. -истинный уровень правила больше ненаdеж ности модели, взвешенной коэффициентом пессимизма. ,на расчет ошибки первого Теперь понятен общий случай, в1слючающий в себя рассмотрени ох,ваты,вающий также задачу фильтрации. ПрН1Век следующему выражению для истинного риска: Ц: (д) = рП" (д) + (1-р) [х sup П (д)+ (1 -х) inf П (д)], ( 8.9) iJ iJ где пер,вое слаrа,емое есть риск, ,рассчитываемый по доверительной модели и взвеше-нный ее надежностью р, а слагаемые в квадратных скобках -это, в аависи,мости от степени пессимизма х, отра правил, тот наибольший ущерб и ,соответкоторого можно ждать от «бракованной» что структура пра•вил от пере расчетов рис,ка, .в общем, защищена, так как ,всецело определяется первым слагаемым (8.9), и в �конечном счете, первичными признака,ми доверительной модели. Гибкими параметры этих пра•вил, вариации которых управлять расплывчатостью Итак, установлено, ненадежность модели ведет к необходимости введения _поправок в ошибки правил: истинные ошибки будут, в общем, больше расчетных. При -потребности обеспечить фиксированную истинную ошибку (уровень) нужно но брать заведомо меньшее _расчетное значение надеж•ность, что соответствует и что приведет к падению реальных качеств правил как -оптималыных, так и неоптимальных. Размытые доверительные модели и решения. Расплывчатые оценки задающих .параметров ведут ·к разным причем индикаторные оценки ·ведут к ИМ, а неиндикаторные -к более общим размытым ,моделя,м § 2.3. И тут возникает ,вощюс, ,как для размытых (неинтервальных) моделей организовать синтез 00111 мальных правил. Этот важный момент оставался вне ,рамок рассмот,рения, пос-кольку -при синтезе мы ограничивались строго интервальными 1моделя•ми. К его освещению и •перейдем. Пусть имеет,ся задающий параметр 6=Mq(z) (пока 1всего оди,н)и f.tz (6) есть его ра•сплывчатая оцен:ка надежности р= 1-а(µ). Считаем оценку µ. (,0) унимодалыной контрастной функцией пара,метра 0 (т. е. достигающей О •и 1). При каждом числе O�y�l, называемой высотой горизонтального среза, нера• венство µz (6) � �'\' выделяет интервальную оценку (,задающего слой) :[Ov, ev] па,раметра 0, так что при непрерывной по 0 фун.кции µz (0) имеем µz (�V) =·µz (0V) =у. Каждый срез :[�v, 0'v] •в свою очередь опреде ляет свою интервальную модель .Ко< �о> = (0�, ёv), располагающуюся на высоте у, причем .К(v'> с:.Кiv>•при у'�у, а все вм есте они,положенные друг на друга в соотвеrетвии с высотами, дадут размытую мо:Цель. Пространство 2 так или иначе связано с произведением f!ВXO/J, поэтому ·по .К определяется СИМ .кt:> на этом произведе,нии, и для каждой из них находится свое оптимальное правило ду за·висящее от высоты ср-еза у модели (с•воего рода привилегий к ней), �причем чем больше у, тем (при х�1) более узкой будет .J11,ff> и менее · расплыв·чатым -правила ду (х), т. е. ду<'V'> (х) � �ду (х) при ,у'�'\'- Теперь оптимальным правилом д*о11 (х) при размытой •модели .кt/>, построе.нной по расплывчатой оценке µz (6),будет 1 = J д�v> (х) d у. (8.10) о Поя-с,ним .его, считая д оценкой ,параметра xEg/,, Если a11(х)есть при 1каждо•м 'У интервальные оценки х, то так как они вкладываются друг в �друга, будет .иметь место равенство {д*о11 (х)�"\'} = = ду (х), где слева ,стоит ·индикаторная функция ·множества. Таким образом, 'Интервальные оценки для моделей .кt/>, ра,осматриваемые как положенные друг на друга слои на высотах срезов О�у� 1, формируют вместе расплывчатое правило д*у(х). Это наглядная интерпретация (8.10). Исти,нный уро·вень или ошибка правила (8.10) ра-ссчитывается (8.8), где 1-р е•сть уровень (вероятность ошибки) µz (0), а следовательно, р -надежность доверительной модели. Мы рассмотрели один параметр 0=Mq, задающий модель. Очевидно, все сказанное будет верно и для произвол�ного их числа, когда с целью построения доверительной модели -находится совместная расплывчатая оценка µz (0) «вектора» 0=MQ'= = {Mq, qEQ} и эта оценка, в общем, -не является интервальной, а имеет расплывчатый Jшд. Адаптация, надежностное оценивание среднего при неизвест-. ной дисперсии. Принцип адаптации состоит в сужении доверительной модели ,в процессе поступления наблюдений у1, ... , Yn• Особенность в том, что «обуч�ение» производится по тем же наблюдениям, по которым принимаютсястоя.ний (оценивание, 1П1роверка гипотез); это первое. А во-вторых, е уточнение модели осущпо п. Для описания схемы адаптации рассмотри,м один \Случай, когда требуется оценить параметр .сдвига JНезависимой выбор1ш при неизвестной дисперсии флуктуаций. Адаптация состоит в оцени и вании дсперсий и по!Цстановке в оценку параметра сдвига. = Пусть Yix+si, i= 1, 2, ..., ·и пусть требуется оценить х, когда н Si независимы, имеют нулевые средние Msi=O, ограниче:ные дис персии m2= Ms2iО. ,начале параграфа, ,связаны соотношением р ( 1-арас) = 1-а, где аистинный (требуемый) уровень правила. Выразив 1-р=.(а-арас)//( 1-арас ) и подставив в (8.11), ,можно было бы найти оптимальное значение арас , минимизирующее расплывчатость ,оцен,ки (8.11). Чтобы обойти технические громоздкости, ,найдем з'начение арас,минимизирующее расплывчатость 1 при заданном у. Для этого ,нуж Дифференцируя его по арас и ,прира1внивая О, прихо�Д;и.м ·К урав ,нению: 2V (l-ap ac) (a-ap ac>3-1f c(l-y)/n[2(1- ap ac)(а-арас) ++арас ( 1-а)] = О. Нам нужно выявить качественную -сторону, поэтому приближенно полагая 1-а� 1, откуда 1-арас � 1-а� 1, и считая п достаточно большим, так что c (l-y)/n мало, получаем арас � а-V с (1-у) а2/4п, р= Мы видим, что при увеличении п расчетный уровень арас 3 устремляется к истинному со скоростью 1/ Vп, а оптимально выбранное р с той же скоростью стремится к 1, так что суммарная ошибка арас + ( 1-р) = а есть истинный уровень. Для получения 1,онк ретных расчетных значений арас и р вмес то н-1но подстав-ить среднее между О и 1 число, еизвестного у нужнапример у= 1/2, и положить c�m4-l. Здесь fii4 , если оно не известно, та·кже может оцениваться по наблюдения•м или нахо�иться из других соображений. 8.4. ЗАКЛЮЧЕНИЕ Какую же выгоду все же сулит использ-ование интервальных моделей? В качественном отношении они проигрывают точным вероятностей), и это как будто бы стаВ1Ит на них крест. Представьте на миг, что наблюдается доселе невиданный объект и требуется описать его форму. Причем объект плохо различим (находится в тумане или далеко от нас). Ясно, что придется оговаривать условность сделанного описания вставками типа «вроде бы» , «кажется», л·ибо удовлетвориться грубым образом, уняв воображение ло отношению к тому, что не ,различ·имо (наука -не фан• тастика). То же самое-и для моделей, которые видятся в большинстве реальных задач весьма смутно из-за конечности времени и выделенных средств на изучение явления, наконец, сменносm, неустойчивости самих реальных явлений. Прекрасно осознавая, что ошибочность -модели тут же сделает никчемной ее дальнейшую эксплуатацию, постараемся .осторожнее, т. е. в размытой форме описать грани модели, отобрав при этом лишь наиболее «видимую» их часть. И прих.одим к «чистокровным» интервальным моделям •В их конструктивном задании набором первичных средних. Построение модели в реальных условиях -сфера многосторонних (под час, многострадальных) исследований: физических, экспериментальных стати сшческих. Нас интересуют формальные способы, когда при полной начальной неясности в распоряжение предоставляются обучающие реализации. Тогда построение модели суть совместное оценивание отобранной части параметров, задающих модель (§ 8.1). Точечные оценки ведут к точным моделям. А до верительные оценки формируют доверительную модель заданной надежности. Вопрос сведется к выбору задающих модель параметров. Ими могут быть вероятности, совместное оценивание .которых рассматривается в § 8.2. Другой путь выбора модели, свойственный классическому подходу, со стоит в проверке согласия, что модель имеет выдвинутый кон·кретный вид (например, нормальная). Этот путь, обязанный во многом крайней узости рабочего арсенала точных моделей, заставляет с самого начала «довольство ваться» заранее .выбранным гипотетическим в меру простым вариантом. llри нятие последнего, если согласие имеет место, тем не менее не приведет к околь-либо надежной модели, а всего лишь установит вхожесть гипотетиче ского варианта в нашу доверительную ИМ-модель в качестве составной ча сти. В конечном же счете это будет «выхватывание» из доверительиой моде ли ее заранее сформироваиного ,кусочка -подход, свойственный режиму оптимизма. Мы же поступаем значительно осторожнее, используя доверительную мо дель всю целиком (необъятный арсенал ИМ позволяет произвести любой вы бор), регулируя ширину с помощью надежности. Чем больше положить надеж ность, тем шире доверительная модель, от чего пострадает конкретность и ка чество выводов при эксплуатации модели. Наоборот, меньшая надежность, казалось бы, выводы сделает более конкретными и качественными, но доверие к ним уменьшит из-за утраты верности модели. Выход из этого заколдова11 иого .круга состоит в совместном рассмотрении тандема модель-выводы (§ 1:!.3), беря в расчет оба типа ошибок: за счет ненадежности модели и при эксплуа тации из-за случайности наблюдений. Совместное рассмотрение заставляет вво дить поправки в расчетные ошибки эксплуатации, увеличивая их сообразно ненадежности модели, что ведет к истинным ошибкам, а при более широком изложении -к исти,нно�1у р:�юку. Это ,как раз и есть то, что объективно нужно для целей анализа и синтеза решающих правил. Трудности в том, что доверительные модели по наследству от породивших их доверительных оценок, в общем, расплывчатых, неиндикаторных, становятся размытыми по форме средних, т. е. с размазанными итервалами средних . .Определение понятия оптимального правила при размытых статистических моделях позволило в § 8.4 рассмотреть совместную картину синтеза модели по ее единственному задающему параметру -дисперсии, с последующим нахождением оптимальной оценки параметра сдвига. Все вместе это выглядит как доверительное оценивание дисперсии (уровень доверия которой и станет надежностью модели) с последующим использованием ее при доверительном оценива.нии сдвига при своем уже доверии (р·асчетной ошибке). Причем все про по одной и той же выборке по мере удпииения котоуточнение оценки т. е. адаптационное сужение еще рассмо'I\рения тандема правипо явипся (истинные ошибки) синтезированного правила. А надежность модели .пишь вспомогательный атрибут е.интеза, приобретающий конкретное значение путем минимизации истинного риска. Такая оптимапьная существует и найдена в рассмотренной нами задаче адаптации § 8.4, где установпена ее тенденция с ростом дпины выборки стре миться к единице со скоростью кубического корня. Теперь мы можем обоснованный ответ на поставпенный в вопрос: выгода интервапьных моделей состоит в поnученин объективно надежных обоснованных во всех отношениях решающих правил с оценкой их истинных качеств. Это и есть главное достижение надежностного синтеза. 1.е Лоэв М. Теория вероятностей/Пер. с англ. под ред. Ю. В. Прохорова. М.: И.П, 1962.-719·с.е 2.е Уиттл П. Вероятность/Пер. с англ. под ред. В. В. Сазонова. -М.: Наука,е1982. -287 с.е 3.е Леман Э. Проверка статистических гипотез/Пер. с англ. под ред. Ю. В. Прохорова. -М.: Наука, -498 с.е выводов/Пер. с англ. под ред. Ю. К. Беляева. -М.: Мир, 1975. -776 с.е 4.е Закс Ш. Теория 5.е Wald А. Statistical Decision Fuпctioпs-N. У.: Wily, 1950.е 6.е Тарасенко Ф. П. Непараметрическая статистика. -Томск: Изд-во Томского университета, 1976. -291 с.е 7.еГаек Я., Шидак 3. Теория ранговых критериев/Пер. с англ. под ред.еЛ. И. Большева. -М.: ФМЛ, 1971. -375 с.е 8.еКузнецов В. П. Некоторые обобщения ранговых критериев//Мат. статистикаеи ее прилож.: Труды СФТИ. -Томск. 1974. -Вып. 6. -С. 70-108.е 9.е Кузнецов В. П. Инвариантность решений по отношению к мешающим параметрам//Проблемы передачи информации. -1971. -№ 4. -С. 36-44.е 10.е Кузнецов В. П. Инвариантность решений по методу максимального правдоподобия по отношению к мешающим параметрам//Проблемы передачи информации. -1972. -№ 3. -С. 38-47.е П. Робастность в статистикеjПер. с англ. под ред. И. Г. Журбен ко. -М.: Мир, 1984. -303 с.е 12.еС., Пур r. Робастные методы обработки сиrналов//ТИИЭР. -т. 73. -№ 3. -с. 54-110.е 13.е Кузнецов В. П. Минимаксные критерии при ограниченных семействах плотностей распределения//Теория вероятностей и ее применения. -1982. Вып. 2. -С. 286-295.е 14.еДе Гроот М. Оптимальные статистические решения/Пер. с англ. под ред.е 10.еВ. Линника. -М.: Мир, 1974. -491 с.е 15.еЗаде Л. Понятие лингвистической переменной и его применения. -М.:еМир, 1976. -168 с.е 16.е Шокин Ю. И. Интервальный анат1з. -Новосибирск: Наука, 1981. -112 с.е 17.е Карлин С., Стадден В. Чебышевские системы и их применение в анализееи статистике/Пер. с англ. под ред. С. М. Ермакова. -М.: Наука, 1976. 567 с.е 18.еОбработка нечеткой информации в системах принятия решений/А. Н. Бори·есов, А. В. Алексеев и др. -М.: Радио и связь, 1989. -304 с.е 19.еКузнецов В. П. Интервальная мера и интеграл//Численный анализ и задачи интерпретацип экспериментов: Межвузов. сборнпк. -Красноярск,е1987. -с. 75-95.е 20.е Колмогоров А. Н., Фомин С. В. Элементы теории функций и функционального анализа. -М.: Наука, 1972. -496 с.е 21.е Кузнецов В. П .. Интервальные модели вероятностей //Мат. статист. и еееприлож.: Труды СФТИ. -Томск. -1986. -Вып. 10. -С. 128-151.е Экланд И., Темам Р. Выпуклы.% анэлиз и вариационные проблемы: Пер. сеангл. -М.: Мир, 1979. -399 с.е 23.е Ахиезер Н. И. Лекции по теории аппроксимации. -М.: Наука, 1965. 407 с.е 24.е Кульбак С. Теория информации и статнстнка/Пер. с англ. под ред. А. Н. Колмогорова. -М.: Наука, 1967. --408 с.е 25.е Ван дер Варден Б.-Математическая статистика.-М.: ИЛ, 1960.-518 с.е ПРЕДМЕТНЫЯ УКАЗАТЕЛЬ Адаптация 335 Аксиомы 15 -интервальных вероятностей 49, 50е-обращения 16е-переноса 15е-полуа.цди�ивносm ·16е-сt>хранеиия порядка 15е-средних 15еАлгебры событий 44е 45,е 46, 51, 55еАр.ифметика .интервальная 82 -IJ)азмытая 91е Белый шум 188, 192е 12е- 13е-относительные 49е-ошибок 204, 205е--весовые суммы 276е--интегральные 305е--истинные 332е--первого и второго рода 276е--,nри.к.идочные 293е-:..... расчетные 332е--совокупные 307е-первичные 35, 38, 40, 45, 109, 124е-правильных ,решений 307е-превышен.ий (выбросов) 22, 163;е 282е-размытые 90е-согласованные 34е-точные 12, 43е -условные 64, 65еВершины модели 32, 56, 66, 81е Гипотеза нулевая 275 -альтернативная 275еГруппы преобразований 214, 236, 281е Дкскретизация 164 Дисперсия с. в. 58, 123, 266, 335 Доверительные модели см. СИМ -.интервалы 198, 227, 239, 247еДоп,редельная проблема 141еДоnредель'Ные неравенства 140, 147еДостаточность глобальная 207е-класса nра,вил 207е---п.ровер,ки гипотез 277е---различения •гипотез 307е---расплывчатого оuениванияе 233е- м-ножества решеН1Ий 209е--,-сnеuиальная 207, 232, 277еЗадача надежностного синтеза 319е-·проверки гипотез 276е---смежная 276е-различения гипотез 307е-расплывчатого оценивания 230е-статистическая 204еЗакон больших чисел 132е---неу•СТОЙЧ'И,ВЫЙ ,135е---устойчивый •133е Измеримость 43 Изображения наблюдений 87 -<Признаков 84е-событий 73е-точек 73еИМ (интервальные модели) см. мо дели интервальные Инвариант к -группе 214 ---ма,ксимальный 215еИн.тер вал корреляuии процесса 165еИРВ (интервальные распределенияе вероятностей) см. IJ)аоо.ре.делеиия вероятностей интервальные Квантова.ние 165 Кольuо событий 44 Ковариа.ционные I'раниuы 173, 190 -фун,кции 173е--однородные -180еКорреляционная матрицае--неточная 254, 291, 315е--точная 221, 253, 289, 309е-функция 24, 163е--наименее благоприятная 254.е 255еКорреляционные свойства 170 пессимизма 204 Ли.ндеберга-Феллера условие 153 Мера 42 Мера-длина 45 Модели 14, 317 -11нтервальные (ИМ) 16е-- 69е 104, 198, 199е--инДШ{аторные 24, 67, 69, 82.е85, 135е uересечення 31, 68, 81, 94, 179, _ -момеитные 62 -расплывчатые (доверительные)а31, 56, 68, 80, 94, _ -объединения 228, 292а _ --амплитуды сигнала 253, 254а--вероятностей 324а 182 --дисперсии нормального распре_ -переходные 78, 170, 197 деления 240а_ -,предельные 37, 45, 51 --интервальные ;198, 227, 247 _ -,простые 52 --конт•растные 246а_ -процесса 162 --масштаба 264 --МОЩ}ЮС,ТИ 267а _ -.разложимые 96 --оптимальные 230 _ -размытые 90 --реr.реоси.и 239, 247, 252 --совместные 92а--сдвига 244, 249, 251, 335а_ -ста,ндартные 58 --совместные 329а--условные 63 --степенного типа 256а--частные 93 Ошибки см. вероятност.11.ошибока-статистические интервальные Параметры задаюш,,ие 319 -мешающие 199 Модифицированная формула продол Моменты .начальные 27, 139, 163, 256, 268 --абсмютные 27, 137 -цен'I'ралыные 58, 124, 145 -.нормировки 266а-подчиняюш.ие 101а -стациона,рные 127а Первпчный !Набор ·18а Пло11ность вероятностей 60, 70, 123,. 200, 239, 296 Мощность случайной велич:ины 21, 266 -i!Iipoцecca 24, 163а -оредняя 244, 283 МультипЛП1,Кат.нвность ннтервальиаяа--апостериорная 231а --интервальная 207, 297, 304а --наименее �благоприятная 2!:IH --совместная 207, 23'1а --.переходная 85 82, 106 --частная 231 Надежность доверительной маделн 323 ---оптимальная 332аНад.модель 322 Независимое п,роизведение моделей см. произведение моделей Независимость последовательности с. в. 125 -явлений 106аНековарин,рованность алгебр событийа 116 -1Классов прзнаков 115 -признаков 108а-случайных ветIЧ'ИН 115 -· элементарных исходов 113 Некоррелированость 115, 126, 220, 249, 251, 268, 290 Неравенства 129 Нормальная с. в. см. случайная ве личина нормальная Область существования средних 14 ---предельная 37аОболочка ли, нейная 26а-,полулинейная 18, 26 Образ призна,ка 75 -оо�бытия 73 Обучающие испытания 321аОтображения см. преоб.раэованияаОценкиа -формальная 61, 295, 296 Подооие ИМ 77 (см. преобразованиsr ,подооия) --случайное 86 -ИРВ 47аПолуадд.итив,ность 16, 34 Последовательности см. случайныеа,последовательности Потери -дельта 202, 218а-квадратаЧ!Ные 202, 220а-составные 202аПравилаа-взвешенного правдопо.:�:обпя 219·а-детермини,р<>ванные 217, 308 -.квазиоптимальные 219а-rконт.растные 201, 276, 309а-минимаксные 205 -оптимальные 205 --асимптотичеоки 261 --при (}ПТИМИЗМе 234, 302 --при полуоптимизме 206 -оцен:иваJ11Ия см. оцеНЮ1 -провер;ки rип,отез 277 ---аси.мптотичес;к,ие 293а---контрастные 276, 288 ---о значен.ии параметра 3Ul ---опти,малыные 276а---равномерно оnт.имальныеа -детермин.и,рованные 217, 218а276а -характеризащш иормаJIЬИой с. в. 124 Шкалы -расплывчатости оценок 229 ---взвешенная 229, 231 ---обобщенная 229, 232 Универсальный 1Класс пр.изнаков IiS9 ШЦ)аф за раоолЬ\\Вчатость 230 Уровень 228, 276 Энергетические спектры см. спектры Фильтр однор,одный 190 энерrетическне ·Фильтрация линейная 220 Я,вленяя случайные 9 -Лапла-са 123, 240, 259, 329 -инва.риантная 214 -.распределения интервальная 4б --доверительная 330 ·Фурье ряды .и преобразования Н!4 Цена задачи 205 --независимые 106, 115 ---,подч.иненно 112 --·свобод:ные 115 --статистическ.и неустой•чивые 12 --статистиче(;Хи ·устойч.ивые 12 ОГЛАВЛЕНИЕе Введение . 3 q А С Т Ь П Е Р В А Я, ИНТЕРВАЛЬНЫЕ МОДЕЛИ 9 Глава 1. Описание случайных явлений 9 1.1. Интервальные вероятнос'J\и и средние . . . . . . . . . 9 Пространство исходов (9). Признаки явления (10). Средние значения приЗ1НЗ1КОВ ( 11). И-нтервальные средние и вероятности (13). Математ.ическая модель явления (14). Аксиоматика (15). Определение интервальной модели средних, основные свойства (16) 1.2. Продолжен.не первичных средних . . ·. . . . . . . . 17 Вступление (17). Первичные признаки и средние (18). Теорема прод-олже.ния .и согласования средних (19). Согласованные первичные оредние (20). Признаки случайных веJIИч;ин (21). Признаки случайных про-цессов (24). Голая модель (24). Мод111фии:ированная формула продолжен.ин (24), Дополнен.ин (25) 1.3. Отношения между интервальными моделями . . . . . '27 Геометрическая иллюстрация ИМ (27). Обсуждение (29). Иерархия моделей (29). Пересечение ИМ (3,1). Объедмение ИМ (31). Свойства операций (32). Дополнения (33) 1.4. Интервальные .распределения вероятностей . . . . . . . . 33 Свойства интервальных вероятностей (33). Продолжение первичных вероятностей (35). Предель-ное 'продолжение средних (36). Иллюстрация ИРВ (37). Конечно-аддитивные ИРВ (38). Счетно-а,ддитивные ИРВ (40). Обобщения (42). Точные распределения вероятностей ( 43). Интервальные фу-н1Кции распределения ( 46). Подобие ИРВ (47). Семейства распределений (48). Относительные вероятности и средн,ие (49). ДопоJIJНения (49) 1.5. Представления моделей . . . . . . . . . . . . . 52 Предисловие (52). Сечения модели (52). Свойства сечений (53). Теорема о представлении ИМ (54). Определение ИМ задающими сечениями (56). Представление через стандартную ИМ (58). Фую(циональные представления (59). Плотность (59). Дополнения (62) 1.6. У�ловные интервальные модели . . . . . . . . . . . 63 Постановка проблемы ( 63). Определение услов-ной интервальной 1110дели (64). Расчет условных моделей через вершины (66). Некоторые свойства условных интервальных моделей ( 67). О восстановлении безусловной модели по условным (68). Абстрактно-условные модели (69) 1.7. За.ключение 71 Глава 2. Совместный анализ 72 2.1. Детерми-нированные преобразования исходов . . 72 Отображения (72). Преобразования признаков (74). Расчет средних (75). Подобие моделей (77) 2.2. Случайные преобразования . . . . . . . . . . . . 78 Переходные модели (78). Преобразования моделей (78). Свойства преобразований модели (80). Индикаторные прео·бразова.ния, пнтервальная арифметика (82). Простые преобразования (83). Допо.1нения (85) 2.3. Нечеткие события и размытые вероятности . Н7 Наблюдения ,и их .и.зобра_жения (87). Размытые вероятности и сред111ие (88). Размытые дей,ст5111я (91) 345 2.4. Совместные .интервальные модели . . . . . . Совместные ;и частные интерваль,ные :модели (91). Представление совместных м·оделей .случайными преобразованиями (95). Восстановление сомнож,ителей р-азложимой модели (96). Разложимость совместной модеJLИ (97). Первичные средние разложимых ИМ (98). Подчиненные произведения (101). Свободные произведения (102). Дополнения (Ю4). :2.5. Независимость . . . . . . . . . . . . . . . Определение независимости ( 105). Свойства независимости ( 107). Незави,симое ·произведение (108). Независимые произведения ,на дискретных щюстранствах 111,сходов (1·11). Геомет.ри,чеокая иJ1люстрация незавиеимости (113). Нековариированность случайных величин (114). Независим-ость, (117) 2.6. Заключение свобода, н,е,ковариированность ( 115). Дополнения Глава 3. Случайные величины, последовательности, суммы 3.1. Случайные величины, пос.�1едовательност.и . . . . . . . . Определения (121). Детерминирова·нные преобразова,ния (122). Нормальная случайная величина ( 123). Случайные последовательности ( 125). Од,нородность и стационар.ность последовательности (126). Зависимые последовательности ( 128) .3.2. Сходимости . . . . . . . . . . . . . . . . Неравенства для случайных велич.ин (129). Сходимость моделей (130). Сходимость случайных велич-wн и сход,имость их моделей (1131). Сходимость среднего арифметического, закон больших чисел (132). Закон больших чисел для неустойч:и,вых последовательностей (135). Дополнения (136) 3.3. Допредельная и предельная проблемы . . . . . . . . . Аппро�симация модели суммы независимых •с. в. ( 137). Гармоническая аппроксимация (139). Допредельная проблема, однородный случай (141). Введение в предель,ную проблему (144). Дополнение (146) .3.4. Предельные модели сумм общего вида . . . . . . . . Центральные допредельные неравенства (147). Первая ослабленная предельная теорем-а (148). Вторая осла·бленная предельная теорема (149). Третья ослабленная предельная теорема (152). Центральная теорема нормалЬJНой сходимости (152). Ин-тервалЬ'l!ая нормальная сходи;мость (154). Дополнения (156) ·з.5. Заключение Глава 4. Случайные процессы .о 4.1. Описания случайных процессов . . . . . . . . . . . Принщшы оuис-аний (159). Реал-изации и признаки (160). Модель процесса (162). Характерные черты п·роuессов (165). Дробление процесса на составляющие (166). Фун,кциональные представления ( 166). Различные аддитивные представления ( 167). Дополнения 069) 4.2. Корреляционные сво1"rства . . . . . . . . . Процессы второго порядка ( 170). Представление процессов второго порядка семействами средних и ковариационных функций ( 172). Интервальные ковариац.ии и корреляции ( 173). Разложение процесса ло базису ( 175) 4.3. Однородные и стационарные процессы . . . . . . . . Одн-ород,ные процессы (178). Стационарные процессы (181). Спектра.'!Ьиые двойни1ш процессов (184). Спектральные процессы (186) 4.4. Линейные преобразования процесса . . . . . . . . . Гладкость преобразований и ,непрерывность процессов (188). Расчет выхода фильтра (188). Линейное преобраз.ование и представление стационарного процесса ( 190). Узкополосные процессы ( 192) 119 121 121 129 137 147 158 159 159 170 178 188 ЧАСТЬ ВТОРАЯ. СТАТIIСТИЧЕСКИй СИНТЕЗ реляционными свойствами из шу.ма ограниченной мощности (221). Ф,ильтрация 'При некоррелир,ованном ·шуме {222). I(орреляuщи зада ны -с погрешностями (223) 5.6. За,ключение 225 fлава 6. Расплывчатое оценивание 227 6.1. Обш.ие вопросы . . . . . . . . . . 227 Ошибки п·равил (227). Расплывчатость, риск (228). Оптима.,ьные расплывчатые правила при заданных совместных плотностях ве роя·тностей (230). Достаточные классы ра,сплывчатых правил (232). Оптимизм и достаточность (235). Симметрия статистичеСJ<их моде лей и эквива,риантность расплывча'Гых п·равил (236) 6.2. Доверительное оценнвание при заданных расп.ределениях вероятно стей флуктуаций . . . . . 238 Предисловие (238). Оценка регрессии при .известной плотности ве роятностей (239). Доверительное .оценивание дисперсии (241) 6.3. Оценка ,параметров .регрессии .по энергетическим и корреляционным данным о флуктуациях . . . . . . . . . . . . . 243 Обоснование (243). Оценка параметров сдвига при заданной мощ ности флу,ктуаций (244). Развитие энергетического типа оценива ния {246). Оптимальная оценка параметра сдвига при од111ородных некоррелированных флуктуациях (249). Оценивание <'двига при не од.нородных некоррелированных флуктуациях (251). Обобщения оце нок (252). Оценка амплитуды сиr'нала при �колебаниях ero формы ,195 fлава 5. Теория принятия 5.1. Статистическ.ие модели· 195 Что такое математическая вальные модели ( 197). ний (199). Модели с модели ( 199) 5.2. Оптимальные прави.1а . . . . . 2UO Расплывчатые решения и решающие правила (200). Потери (202). PJtcк (203). Статистическая задача (204). Оптимальность ,и пессимизм (205). Проблема д<>статочности (207). Достаточность и функция потерь (208) 5.3. Достаточная редукция наблюдений . . . . 2U9 ТеQре:ма о представимости (209). Перви,чные признаки и достаточность {211). Достаточные преобразования и факторизация (212) 5.4. Редукция наблюдений и и.нвариа111тность . . 214 Инвариантные модели (214). Симметрия, и,нвариантность и достаточность (215) 5.5. Детерминированные решения и фильтрация . . 217 Общие соображения (217). Оптимальные ,решения при дельта-потерях (218). Постановка задачи ли111ейной фильтрации ,сигнала при квадратичных потерях (220). Фильтрация сигнала с .известными кор и 111еточных ,корреляциях шума (254) 6.4. Оценивание пара.метра сдв.ига по моментам и гармоничеаким средним 256 Оценивание по моментам (256). Асимптотическая подстройка оценки степенного типа (258). Использование допредельных и преде.1ьных результатов (259). Синтез кваз,иоптимальиых оценок по гармоничес.ким средним (261). Об оценива.нии параметра сдвига при неоднород,ных флуктуациях (264) 6.5. Доверительное .оuенивание параметра масштаба . 264 Общие соображения (264). Оuенивание пара.метра масштаба по зада.иной мощности флуктуаций (266). Оцен,ива•ние параметра масштаба по некоррелирова,нной выборке (268). Развитие проблемы (270) 6.6. Заключение 272 1'.яава 7. Проверка гипотез . 274 7.1. Общие положения . . . . . . • . . . . . . 274 Введение (274). Математическое оформление задачи (275). Основная теорема о достаточности (277). Коммен1'арии (279). Инвариантность и симметрия (280). Обнаружение сигнала по вероятностям превыше111ий (282) 7.2. Корреляционная теория проверки гипотез . . . . . . . . 283 Получение оптимального правила при за.да.и.ной средней мощности •наблюдений (283). Общая форма п.равила (286). Проверка гипотезепо заданным корреляциям (289). Неточные корреляции (291)е 7.3. Использоваяие доверительных оценок для проверки гипотез . . . 292 Описание способа (292). Асимптотическое правило . при е,и,мметричных ограниченных флуктуациях (293). Прове!JiКа гипотез по мощности флуктуаций (294) 7.4. Специальные методы ·синтеза правил . . . . . . . :.!\J5 Задана формальная плотность альтернативы по отношению к гипотезе (295). Точные плотности ·вероятностей (296). Робастные .методы (296). Проверка гипотез по заданным интерва.JJЬным вероятностям (297). Робастный алгоритм при независимых наб.чюдениях (299) 7.5. Проверка гипотез о заданном значении параметра . . . . . 301 Форму,1ировка задачи (301). О правилах при оптимизме (302). Равномерно оптимальные правила (303). Введение защитного диапазона (304). Минимизаu.ия ,интегральной ошибки (304). Использование доверительных оценок (305) 7.6. РазличЕ'-ние нескольких гипотез . . . . . . . . . . . 306 Общие положения (306). Различение гипотез по заданным корреляциям (308). Оптимальное правило различения двух гипотез (310). Более двух гипотез (311 ). Неточно известные корреляции (315) 7.7. Заключение Глава 8. Надежностный синтез . 317 8.1. Общие вопросы синтеза моделей . . . . . . . . . . 317 Методология синтеза моделей (317). Постановка задачи (319). Стацио.нар.изация статистических параметров (321). Понятие доверительной модели (322) 8.2. Построение доверительной модели на задан1юм .наборе событий . . 324 Исходные положения (324). Модель наибольшего правдоподобия (326). Использование критерия хн-квадрат (328). Информационный критерий построен,ия доверительной модели (328). Довер.ительные совместные оценки (329). ДоверителЬ:ная функция распре,:�,е.чения (330) 8.3. Согла-:ованный .синтез моделей и правил . . . . . . . . 331 Надежность моделей и истинные ошибки правил (331). Размытые доверительяые моде.чи и решения (333). Адаптап,ия, надежностное оценивание среднего при неизвестной дисперсии (335) 8.4. Заключение 336 Список литературы Предмет,ный указатель