Сделай Сам Свою Работу на 5

Сигналы детерминированные и случайные.





Глава 1. Основы теории информации

Информация поступает от источника. Понятие «источник информации» относится только к организованным (кибернетическим) системам окружающего мира (машины, растения, животные, человек). Такие системы принято называть физическими системами. Каждую совокупность качественных и количественных признаков системы называют состоянием. В случае, если эти признаки принимают только отдельные, разделенные конечными интервалами значения, система называется системой с дискретным множеством состояний или дискретной системой. Например, выключатель или реле – дискретная система с двумя состояниями; проволочный потенциометр - дискретная система с числом состояний, равным числу витков проволоки. В случае, если признаки непрерывно заполняют некоторую область значений, система называется системой с непрерывным множеством состояний или непрерывной системой. В качестве примера можно привести тот же потенциометр, но изготовленный из сплошного материала. Физические системы принято также делить на стационарные и нестационарные. Стационарными называются системы, состояния (характеристики) которых не зависят от начала отсчета времени. Строго говоря таких систем не существует, т.к. в окружающем нас мире все меняется («нельзя войти в одну и ту же воду дважды», - говорят философы). Но в первом приближении обычно физические системы считают стационарными (квазистационарными).



Информация всегда представляется в виде сообщения (совокупности сведений об источнике), интересующегося потребителя. Сообщение всегда передается в материально-энергетической форме – в виде сигнала (электрического, светового, электромагнитного, звукового и др.)

Преобразование сообщения в сигнал обычно осуществляется в виде двух операций – кодирования и модуляции. Кодирование представляет собой преобразование сообщения в последовательность кодовых символов (например, кодирование телеграммы при отправлении), а модуляция – преобразование этих символов в сигналы, пригодные для передачи по каналу связи (например, передаваемый радиостанцией радиосигнал). На выходе из канала связи производятся обратные операции: демодуляция (извлечение полезной составляющей из радиосигнала с помощью детектора радиоприемника) и декодирование (расшифровка телеграммы в приемном устройстве).



Теория информации – это наука о получении, преобразовании, накоплении, отображении и передаче информации. Теория информации рассматривает также математические модели детерминированных и случайных сигналов, вопросы, связанные с оценкой количества передаваемой информации, эффективности, помехоустойчивости и пропускной способности каналов связи.

Ниже излагаются основные сведения по теории информации.

Получение информации

Получение (восприятие) информации – процесс целенаправленного извлечения и анализа информации в какой-либо физической системе.

Подобно живым организмам, воспринимающим информацию из внешней среды с помощью специальных органов (обоняния, осязания, слуха, зрения), технические системы воспринимают информацию с помощью специальных устройств – датчиков, чувствительных элементов, анализаторов (восприятие зрительной, акустической и другой информации).

Система восприятия информации может представлять собой довольно сложный комплекс программных и технических средств, обеспечивающих несколько этапов первичной переработки поступающей информации.

Простейший тип восприятия – различение двух противоположных (альтернативных) ситуаций: «ДА» и «НЕТ»; «+» и «-»; «замкнуто» и «разомкнуто», «1» и «0».

Более сложный вид восприятия – измерение, т.е. получение внешней информации и сравнение ее с некоторыми эталонами. В результате происходит определение измеряемых величин в статистике или в динамике (в их изменении во времени и пространстве). В последнем случае особо выделяют системы восприятия, функционирующие в реальном времени, т.е. в том же темпе, в котором происходят изменения физической системы.



Последующие этапы восприятия (в случае необходимости): анализ, распознавание, прогнозирование ситуаций. При этом применяются различные практические и теоретические приемы: аналитические, статистические, логические, эвристические и др.

Критерием качества (эффективности) восприятия может быть количество полученной информации при обеспечении высокой достоверности (малой вероятности ошибки) восприятия.

Устройства, воспринимающие информацию от физической системы (датчики, анализаторы и др.), обычно выражают входную информацию в виде эквивалентных физических сигналов (механических, электрических и др.)

В связи с этим перейдем к рассмотрению понятия «сигнал». «Сигнал» - это материальный носитель информации, средство перенесения информации в пространстве и времени. Носителем сигнала могут быть звук, свет, электрический ток, магнитное поле и т.п.

Все многообразие сигналов в природе можно разделить на две основные группы – детерминированные и случайные. Все сигналы в свою очередь делятся на непрерывные и дискретные. Рассмотрим эти понятия более подробно.

 

Сигналы детерминированные и случайные.

Детерминированным называется сигнал, значения которого в любые моменты времени являются известными величинами. В противном случае сигнал называют случайным или стохастическим (от греческого слова stochastic – догадка). Каждый конкретный вид случайного сигнала Х(t), представляющего собой функцию времени, называют реализацией. Каждую реализацию можно представить бесконечной совокупностью зависимых или независимых случайных величин.

Случайный сигнал описывается статистически с помощью различных вероятностных характеристик.

Предположим, что имеется N реализаций случайного сигнала. Зафиксировав аргумент t (t = ti) получим N значений случайной величины ξ.

Задание вероятностей ее возможных значений эквивалентно заданию так называемой функции распределения (интегрального закона) Fξ(x,ti). Значение функции распределения Fξ(x,ti) в точке х есть вероятность того, что случайная величина ξ примет значение меньшее или равное х, т.е.

(1.1)

 
 

 

 


Рис. 1.1. Функция распределения случайной величины (интегральный закон)

 

Для получения одной ординаты функции распределения, например F(xj, ti) для x=xj (рис. 1.1) нужно подсчитать отношение числа раз n, когда значение ξ во всех N реализациях оказывались меньше или равными заданной величины xj, к общему числу N значений ξ, т.е. n/N. Это отношение называется частотой, а предел этого отношения при N®∞ называется вероятностью того, что случайная величина ξ будет меньше или равной величины xj, т.е. . Очевидно, что если менять значения х, то и частота (вероятность) будет меняться, причем при х® -∞ Fξ(-∞,ti)=0, а при х®∞ Fξ(∞,ti) =1 (n=N), т.е. . Функция распределения является полным статистическим описанием случайной величины в том смысле, что по ней можно определить все возможные значения случайной величины и соответствующие им вероятности. Например, вероятность того, что случайная величина ξ находится в интервале {x1,x2}

Случайная величина ξ описывается также плотностью распределения (дифференциальным законом)

(1.2)

В качестве примера на рис. 1.2 показана функция fξ(x,ti). Имея N значений случайной величины можно построить ступенчатую функцию – гистограмму распределения случайной величины (ступенчатая функция на рис. 1.2). Для этого область изменения х разделяют на определенное число интервалов ∆х и каждому интервалу ставят в соответствие отношение n/N для этого интервала. При уменьшении интервала ∆х функция будет приближаться к непрерывной.

 

 

 


Рис. 1.2. Плотность распределения случайной

величины (дифференциальный закон)

Из (1.2) следует, что

или

,

т.е. площадь, ограниченная функцией fξ(x,ti) и осью х равна 1. С помощью функции fξ(x,ti) можно приближенно подсчитать вероятность того, что в момент времени ti случайная величина ξ находится в интервале {x,x+∆x}:

(заштрихованная площадь на рис. 1.2).

Отметим, что случайные величины, функции распределения которых дифференцируемы по х при любых х, называются непрерывными.

В ряде случаев нет необходимости полного описания случайной величины ее функцией распределения. Большинство практических задач можно решать с помощью немногих усредненных характеристик распределения mn, образующихся из моментов ν порядка случайной величины ξ относительно числа а – т.е. математического ожидания случайной величины (ξ-а)ν.

mn=M(ξ-а)ν, (1.3)

где М – обозначает операцию математического ожидания. Начальный момент первого порядка (ν=1) определяется относительно а = 0 и называется математическим ожиданием случайной величины ξ, т.е. m1=M(ξ)=a.

Центральный момент второго порядка (ν=2) определяется относительно центра распределения и называется дисперсией случайной величины ξ, т.е. Dξ=M(ξ-a)2.

Математическое ожидание и дисперсия дискретной случайной величины ξ определяются по формулам:

(1.4)

(1.5)

В случае непрерывной величины ξ:

(1.6)

, (1.7)

где обозначает среднеквадратичное отклонение случайной величины.

Математическое ожидание Mξ и дисперсия Dξ являются функционалами, описывающими свойства распределения случайной величины ξ : Mξ характеризует «средневзвешенное» положение величины ξ, а Dξ – ее рассеяние относительно математического ожидания.

Рассмотренные характеристики Fξ(x,ti) и fξ(x,ti) являются одномерными, т.к. они получены при фиксированном значении аргумента t=ti. Более полной характеристикой случайного сигнала х(t) является двумерный закон распределения fξ(x,t1;x,t2), заключающий в себе связь между значениями функции в два момента времени. Очевидно, что наиболее полной характеристикой случайного процесса мог бы служить только «бесконечномерный» (n-мерный) закон распределения (в силу непрерывности аргумента – времени) f(x,t1;x,t2;…x,tn). Однако на практике существуют и лучше изучены некоторые типы случайных сигналов, свойства которых полностью определяются законом распределения при малом числе n (обычно для n < 3). К такому классу случайных сигналов относятся чисто случайные сигналы, характеризующиеся независимостью значений х(t) в различные моменты времени (для таких сигналов fξ(x,t1;x,t2,…,x,tn)= fξ(x,t1)· fx(x,t2)·…fξ(x,tn). Чисто случайный процесс является идеализацией, т.к. в реальных процессах всегда существует статистическая связь между значениями х(t) в достаточно близкие моменты времени. Другим примером являются марковские (по имени математика А.А. Маркова) случайные сигналы, для которых, в силу их безынерционности, любая n – мерная плотность вероятности их значений может быть получена из двумерной плотности вероятности.

Получение многомерной плотности вероятности в общем случае представляет собой весьма трудную задачу. Поэтому для многих практических областей применения при определении статистических характеристик случайного сигнала, как и случайной величины, вполне достаточно знания некоторых интегральных (усредненных) характеристик, но вместо моментов порядка ν в случае случайных величин, моментных функций различных порядков ν

(1.8)

При (1.9)

Эта функция времени называется математическим ожиданием случайного сигнала х(t). Очевидно, что математическое ожидание случайного сигнала представляет собой некоторую среднюю кривую, около которой располагаются его возможные реализации.

Сигналы вида обычно называют центрированными. Начальная моментная функция второго порядка (ν=2) характеризует математическое ожидание квадрата процесса, т.е. M[x2(t)], а центральная моментная функция второго порядка (ν=2)

(1.10)

носит название дисперсии

. (1.11)

Корреляционной (автокорреляционной, автоковариационной) функцией называют математическое ожидание произведения

. (1.12)

Случайные сигналы принято разделять на нестационарные (статистические характеристики зависят от начала отсчета времени) и стационарные. Строго говоря, стационарные случайные сигналы, как и стационарные физические системы, не существуют. Однако, стационарные случайные сигналы являются очень «удобной» идеализацией и в практических задачах играют чрезвычайно большую роль. Стационарными случайные сигналы могут быть в «большей или меньшей степени»: в узком и широком смысле. Стационарность в узком смысле – полная стационарность; в этом случае все плотности вероятности значений случайного сигнала не зависят от положения начала отсчета, т.е. не зависят от одинакового временного сдвига t0 всех точек t1, t2…tn вдоль оси времени:

.

Стационарность в широком смысле предполагает, что на случайный сигнал накладывается наименьшие ограничения. Это сигнал, статистические характеристики которого не зависят от времени, – математическое ожидание постоянно, а корреляционная функция зависит только от аргумента , т.е.

.

В дальнейшем изложении, если не будет сделано специальных оговорок, речь будет идти о стационарных, в широком смысле, сигналах.

Среди стационарных случайных сигналов выделяют особую группу эргодических сигналов, которые подчиняются эргодическое теореме. Эта теорема гласит о том, что для эргодических сигналов результаты усреднения по множеству реализаций совпадают с их средними значениями на бесконечно большом интервале времени одной единственной реализации. Отсюда следует вывод о том, что для эргодических сигналов всегда можно выбрать такую конечную длину реализации, результаты усреднения по которой, совпадут с выборочной средней оценкой, полученной по заданному числу реализаций. Последнее положение особенно важно в области измерений статистических характеристик случайных сигналов, поскольку измерительная процедура и аппаратурная реализация различных алгоритмов в этом случае значительно упрощаются.

Для эргодических сигналов (далее, при отсутствии специальных оговорок, речь будет идти только о них) справедливы следующие определения.

Математическое ожидание определяется как среднее по времени

. (1.13)

Дисперсия (мощность)

(1.14)

Корреляционная функция

(1.15)

Для центрированных сигналов корреляционная функция:

(1.16)

При аппаратурном определении числовых характеристик случайных сигналов часто пользуются приближенным значением – оценкой (здесь и далее для обозначения оценок используется знак «звездочка»):

(1.17)

(1.18)

(1.19)

или для центрированного сигнала

(1.20)

Выражение (1.17) определяет оценку математического ожидания – среднего значения случайного сигнала. Наиболее близким к нему, в случае сигнала, заданного N значениями хi, является среднее арифметическое N значений случайного сигнала или выборочное среднее (рис. 1.3)

(1.21)

 
 

 

 


Рис 1.3. Оценка математического ожидания случайного сигнала

Выражение (1.18) дает оценку дисперсии , которая характеризует разброс значений хi от математического ожидания. Наиболее близким к нему в случае сигнала, заданного N значениями xi, является среднее арифметическое квадратов N центрированных значений случайного сигнала или выборочная дисперсия

(1.22)

где - среднеквадратическое отклонение.

Выражение (1.19) дает оценку корреляционной функции. Практически, для нахождения одного ее значения например, для , по одной реализации случайного сигнала х(t) (рис. 1.4а) нужно взять определенное количество произведений значений х(t), отстоящих друг от друга на величину , и найти их среднее арифметическое, т.е.

 
 

 


а) б)

Рис. 1.4. Построение корреляционной функции RXX (τ), для значения τ=τ1

Величина (рис. 1.4б) показывает среднюю силу статистической связи случайных значений сигналов х2 и х1, х4 и х3, х6 и х5 и т.д., отстоящих друг от друга на интервал . Если величина большая – то и сила связи большая (зная одно значение сигнала можно предсказать другое), если величина мала – то и статистическая связь этих значений мала (зная одно значение сигнала, например х1, трудно прогнозировать другое – х2). Аналогичным образом могут быть определены значения корреляционной функции для других значений . Для автоматического измерения множества ординат автокорреляционной функций используются специальные приборы – коррелометры.

Из (1.19), (1.20) следует, что является четной функцией, т.е. = При максимальна и равна оценке дисперсии, т.е. . С увеличением статистическая связь между двумя значениями случайного сигнала ослабевает и при .

Размерность корреляционной функции, как следует из (1.19) (1.20) равна квадрату размерности случайного сигнала. Практически это не всегда удобно (например, при сравнении корреляционных функций двух различных сигналов). Поэтому пользуются понятием нормированной (безразмерной) корреляционной функции , получаемой делением корреляционной функции на дисперсию:

(1.23)

Очевидно, что . При ; при . Примерный вид нормированной корреляционной функции показан на рис. 1.5.

 

Рис. 1.5. Нормированная корреляционная функция

 

Для случайных сигналов можно найти такой интервал времени , что при значения сигналов x(t) и x(t+τ) можно считать независимыми. Интервал времени , называемый интервалом корреляции, - это значение аргумента τ нормированной корреляционной функции, для которого (и всех больших значений) выполняется неравенство

где ε - любая, сколь угодно малая положительная величина. Практически значение τk определяют, задавая ε значение, равное 0,05.

Интервал корреляции используется при определении шага дискретизации по времени при аналого-цифровом преобразовании и передаче сигналов, при оценке энтропии сигнала, при прогнозировании сигналов, при анализе и синтезе автоматизированных информационных систем.

Эквивалентное число N практически независимых отсчетов, обработанных за время T наблюдения за сигналом (например, при оценке математических ожиданий, корреляционных функций и др.) определяется частным от деления времени наблюдения Т на интервал корреляции , т.е.

(1.24)

Среди различных случайных процессов выделяют нормальный или гауссов процесс, полностью определяемый заданием математического ожидания и корреляционной функции. Такой процесс имеет место при действии большого числа независимых и непревалирующих факторов. Одномерная плотность вероятностей значений центрированного сигнала имеет вид

Вероятность непопадания случайной величины в зону составляет менее 0,05 (рис. 1.6).

 

Рис. 1.6. Плотность вероятностей нормального процесса

 

 

Практически часто встречаются случаи, когда исследуется не один случайный сигнал x(t), а система, состоящая из двух случайных сигналов x(t) и y(t). Одномерная функция распределения такой системы случайных величин

(1.25)

Одномерная плотность вероятностей

(1.26)

При этом в общем случае

(1.27)

где - одномерная плотность вероятностей при условии, что значение сигнала y(t) равно y(tj);

- одномерная плотность вероятностей при условии, что значение сигнала х(t) равно х(tj).

В частном случае – независимых случайных сигналов х(t) и y(t) одномерная плотность вероятности не зависит от значения y(tj) и

(1.28)

Нахождение одномерной плотностей вероятности (1.27) представляет собой достаточно сложную задачу. Еще более сложную задачу – нахождение двумерной и более плотности вероятности системы двух случайных сигналов. Поэтому на практике используются более простые, хотя и менее информативные, рассмотренные выше числовые характеристики случайных сигналов. Для оценки взаимной корреляции двух случайных сигналов x(t) и y(t) пользуются понятием взаимной корреляционной (кросскорреляционной) функции Rxy(τ), которая характеризует силу статистической связи случайных значений этих сигналов, отстоящих друг от друга на интервал τ.

По аналогии с (1.19), (1.20):

(1.29)

Или для центрированных сигналов x(t) и y(t)

(1.30)

При t=0 максимальна и равна оценке взаимной дисперсии , т.е. .При , что означает независимость значений сигналов x(t) и y(t).

Размерность равна произведению размерностей x(t) и y(t), что неудобно при сравнении взаимных корреляционных функций двух пар случайных сигналов. Кроме того характеризует не только статистическую связь x(t) и y(t) но и разброс значений этих сигналов относительно их математических ожиданий. Поэтому практически пользуются нормированной (безразмерной) взаимной корреляционной функцией:

(1.31)

Очевидно, что (при τ=0 при )

Отметим, что корреляционная функция Rz(t) случайного сигнала , являющегося суммой (разностью) двух стационарных сигналов x(t) и y(t)

(1.32)

При этом математическое ожидание суммы (разности) случайных сигналов равно сумме (разности) их математических ожиданий. В случае независимых сигналов (взаимная корреляционная функция равна нулю) корреляционная функция

(1.33)

При анализе информационных систем часто ставится задача определения периода измерения (дискретизации) Т входного x(t) и выходного y(t) случайного сигналов и определения времени сдвига δt* измерений значений выходного сигнала по отношению к значениям входного сигнала.

Первая часть задачи решается путем нахождения интервалов корреляции (для x(t)) и (для y(t)), и выбору из них наибольшего, т.е. (1.34)

Вторая часть задачи решается путем построения взаимной корреляционной функции .

Определение величины для одного значения временного сдвига, например для (рис. 1.7а,б) практически осуществляется в соответствии с (1.29) путем вычисления среднего арифметического произведений

и т.д.

 

 

 

 


а) б)

Рис. 1.7. Построение взаимной корреляционной функции RXY (δt)

 

Аналогичным образом могут быть получены величины для других значений и в конечном счете – взаимная корреляционная функция (рис. 1.7б)) Максимуму этой функции соответствует интересующий нас временной сдвиг , при котором действие значений x(t) (на входе системы) на значения y(t) (на выходе системы) проявляется с наибольшей статистической силой.

Значение дает сдвиг по времени измерения значений y(t) по отношению к измерению значений x(t).

На рис. 1.8 показаны входной x(t) и выходной y(t) случайные сигналы, период дискретизации Т и сдвиг между измерениями значений выходного и входного сигналов. Измеряемыми (дискретизируемыми) будут значения х1, y1; x2, y2; x3, y3 и т.д. .

При анализе случайных процессов наряду с корреляционными функциями широко применяются спектральные функции, которые характеризуют распределение энергии по частотным составляющим случайного сигнала. Наиболее широкое распространение среди таких функций получила спектральная плотность мощности , которая определяется, как производная по частоте от средней мощности (дисперсии) случайного процесса, определяемой выражением (1.14),

 

 

 

 


Рис 1.8. К определению измеряемых значений входного и выходного сигналов

(1.35)

 

Очевидно, что средней мощностью (средней интенсивностью, средним квадратом) процесса будет интеграл от спектральной плотности , т.е.

(1.36)

 

Из определения (1.35) ясно, что функция характеризует плотность, с которой дисперсии отдельных гармонии (частотных составляющих) случайного процесса распределяются по спектру частот. Например, теоретически возможен случайный сигнал с постоянной спектральной плотностью в неограниченной полосе частот. Такой случайный сигнал называется белым или функциональным шумом. Реально такой сигнал создать нельзя. Поэтому практически ограничивают полосу частот, в пределах которых спектральную плотность можно считать постоянной. Практически считают, что если ширина частотного диапазона, в пределах которого спектральная плотность постоянна, по крайней мере на порядок больше полосы пропускания исследуемой системы, то этот источник для данной системы можно считать эквивалентом источника белого шума.

Спектральная плотность мощности и корреляционная функция для стационарного процесса, принимающего только действительные значения, связаны между собой прямым и обратным преобразованием Фурье

(1.37)

(1.38)

Спектральная плотность представляет собой четную неотрицательную функцию частоты. Это обстоятельство дает возможность использовать на практике видоизмененные зависимости

(1.39)

(1.40)

Из приведенных выше взаимных преобразований Фурье следует:

(1.41)

где f - частота, Гц

Аналогично значение спектральной плотности на нулевой частоте определяется как

(1.42)

Из приведенных формул следует, что для стационарных случайных процессов имеет место равенство

(1.43)

Одной из общих характеристик случайных сигналов является ширина их энергетического спектра, определяемая отношением

(1.44)

Практически при моделировании различных стохастических систем средствами вычислительной техники часто возникает необходимость в специальных приборах - генераторах для получения реальных моделей случайных сигналов, имеющих заданные статистические характеристики – одномерную плотность вероятности и спектральную плотность (корреляционную функцию).

В связи с трудностями создания «специализированных» генераторов, воспроизводящих случайные сигналы с заданными статистическими характеристиками, обычно создают генераторы, воспроизводящие «типовые» случайные сигналы, а с помощью линейных и нелинейных преобразований обеспечивают получение случайных сигналов с заданными статистическими характеристиками.

Типовым принято считать случайный сигнал с одномерной плотностью вероятностей, подчиняющейся нормальному закону и со спектральной плотностью, постоянной в некотором диапазоне частот.

Выбор для типового случайного сигнала нормального закона распределения обусловлен тем, что этот закон наиболее широко встречается при анализе реальных систем, его проще всего воспроизводить и преобразовывать. Одномерная плотность вероятностей случайного сигнала и его спектральная плотность взаимосвязаны. При преобразовании одной из этих характеристик обычно изменяется и другая. Одним из наиболее важных исключений из этого правила является прохождение сигнала, имеющего нормальное распределение, через линейный фильтр. При этом закон распределения остается нормальным, а его спектральная плотность изменяется. Это свойство сигнала, имеющего нормальное распределение и используется в случае необходимости изменения его спектральной плотности.

Выбор для типового случайного сигнала характеристики спектральной плотности, постоянной в заданном диапазоне частот (белый шум) также обусловлен тем, что такой случайный сигнал может быть использован при анализе многих реальных систем, удобен при математическом описании стохастических задач; в то же время из такого сигнала могут быть получены случайные сигналы с различными спектральными характеристиками

Таким образом задача получения случайного сигнала Z(t), имеющего заданную спектральную плотность и одномерную плотность вероятности практически сводится к последовательному преобразованию типового сигнала x(t) генератора белого шума в 2 этапа:

1. получение на выходе линейного фильтра случайного сигнала y(t) с заданной спектральной плотностью и нормальным законам распределения;

2. получение на выходе нелинейного преобразователя случайного сигнала Z(t) с заданной одномерной плотностью вероятностей и полученной на 1-м этапе спектральной плотностью (рис.1.9).

 

 


Рис. 1.9. Блок-схема формирования случайного сигнала Z(t) с заданными спектральной плотностью и одномерной плотностью вероятностей

1. Для получения случайного сигнала с заданной спектральной плотностью используется зависимость спектральной плотности стационарного случайного сигнала Sвых(ω) на выходе линейной системы от спектральной плотности входного сигнала Sвх(ω) и частотной характеристики Ф(jω) линейной системы

(1.45)

Отсюда частотная характеристика Ф(jω) фильтра, обеспечивающего требуемую спектральную плотность на выходе Sвых(ω) при известной спектральной плотности Sвх(ω) сигнала на входе фильтра

(1.46)

Для входного сигнала, представляющего собой белый шум

(1.47)

 








Не нашли, что искали? Воспользуйтесь поиском по сайту:



©2015 - 2024 stydopedia.ru Все материалы защищены законодательством РФ.