Fondamenti di probabilità

1. Definizioni

  1. Insieme Campionario Insieme formato da tutti i possibili risultati di un esperimento. Può essere contininuo o discreto;
  2. Classe Insieme C formato da sottoinsiemi di S;
  3. Campo si denota con \(\mathcal{F}\) ed è una particolare classe definita come segue e in cui ogni elemento costituisce un evento :
    1. \(\forall A \in \mathcal{F} \ \Rightarrow \ \overline{A} \in \mathcal{F}\) significa che si può verificare l'evento o meno ( appartenenza dell'insieme negato )
    2. \(\forall A,B \in \mathcal{F} \ \Rightarrow \ A \cup B \in \mathcal{F}\) con \(A \cup B = A+B\)
    3. \(\forall A,B \in \mathcal{F} \ \Rightarrow \ A \cap B \in \mathcal{F}\) con \(A \cap B = A*B\)
    4. \(\oslash , S \in \mathcal{F}\)

L'utilizzo dei campi permette di definire in modo analitico gli eventi di modo che questi siano sempre associati a risultati dell' esperimento. Ad esempio in caso nel caso del alncio di una moneta abbia \(\mathcal{F}=\{\oslash, testa, croce, S\}\) con \(S=\{testa,croce\}\) e con \(P(s_i)=\frac{1}{2}\).

  1. Campo di Borel quando le proprietà 2 e 3 valgono per ogni evento di \(\mathcal{F}\) si ha un campo di Borel;
  2. Postulati della Probabilità
    1. \(P(A) \geq 0 \ \forall A\);
    2. \(P(S)=1\) \(P(\oslash)=0\);
    3. \(\forall \ A \cap B=\oslash \ \rightarrow P(A \cup B)=P(A)+P(B)\) eventi mutuamente esclusivi;
    4. \(\forall \ A \cap B \neq \oslash \ \rightarrow P(A \cup B)=P(A)+P(B) - P(A \cap B)\)
  3. variabile aleatoria sia \(x(s_i)\) una corrispondenza tra l'i-esimo elemento dell'insieme campione ed un numero reale \(x_i\), questa è una v.a sse :
    1. \(\forall \ x_i \ \{x(s_i) \leq x_i\} \in \mathcal{F}\). Da quest'ultima abbiamo che anche a\(\{x_1 < x(s) \leq x_2\}\) è un evento infatti:
      1. la condizione \(x_1 \leq x_2\) indica che \(B \subseteq A\)
      2. \(A=\{x(s) \leq x_2\}\) \(B=\{ x_1 < x(s) \}\) sono eventi t.c. \(A, B \in \mathcal{F}\)
      3. inoltre l'insieme \(\{A-B\}\) che è il complementare di \(B\) e appartiene a \(\mathcal{F}\) per cui anche \(\{x_1 < x(s) \leq x_2\}\) è un evento;
    2. \(P(\infty)=P(-\infty)=0\) infatti gli infiniti non sono numeri

2. v.a. Complessa

2.1. Definizione

Dalla definizione ricavata dal * a pag 190 una v.a. complessa è una funzione del tipo \(Z(\omega):\Omega \rightarrow \mathbb{C}\) avente struttura di un numero complesso :
\(z(\omega)=x(\omega)+jv(\omega)\)
e pertanto la relazione tra DDP e ddp è ridefinita come segue :

\begin{equation}\begin{split} \label{eq:02} F_{Z(\omega)}(z({\omega}))=F_{Z(\omega)}(x_{\omega},y_{\omega})=\\ =\int_{Iz=[Ix,Iy]} zf_{Z(\omega)}(z)d_z=\int_{Ix} \int_{Iy} f_{x(\omega),y(\omega)}(x,y)d_x d_y=\\ =\int_{Ix} \int_{Iy} (f_{reale}(\omega)+jf_{immagin.}(\omega))d_x d_y=\int_{Ix} \int_{Iy} [x(\omega) + jy(\omega)]d_x d_y=\\ =\int_{Ix}x(\omega)d_x +j\int_{Iy}y(\omega)d_y \end{split}\end{equation}

3. FDD - Funzione di Distribuzione di Probabilità di v.a.

3.1. Definizione della FDD

definita come \(F_{x(s)}(x_i)=P(\{x(s) \leq x_i\})}\) è una funzione reale di variabile reale che rappresenta il grafico della probabilità e t.c.

Sia \(X(\omega):\Omega \rightarrow \mathbb{R}\) una v.a. t.c. \(X(\omega)\leq \omega_i\) costituisca un evento dello spazio campionario, si definisce Funzione di distribuzione di probabilità la funzione reale t.c. la probabilità che si verifichi un evento è rappresentata dalla notazione :

\(F_{X(\omega)}(\omega_i)=P(X(\omega)\leq \omega_i)\) dove \({F_{X(\omega)}\colon R \to [0,1]}\)

L'immagine 1 mostra il modello della precedente definizione in cui \(P^{*}(B_i)=P(X(\omega)\leq \omega_i)=F_{X(\omega)}(\omega)=P(A_i)\) e dove \(P(A_i)\) è la definizione di probabilità classica

va.jpg
Figure 1: Riepilogo della relazione tra DDP e Probalilità

3.2. Definizione FDD per v.a. discreta

Quando l'insieme campionario è discreto la FDP si definisce come

\(F(x_0)=\sum_{x_i \leq x_0} p(x_i)\)

da cui deriva la possibilià di calcolare la probabilità che si verifichi un singolo evento dell'insieme c. per cui detto \(x_0^+\) e \(x_0^-\) rispettivamente il valore successivo e precedente della v.a. si ha

\begin{equation}\begin{split} \label{org0860960} P(x(t_0,s)=x(t_0))=P(x_0^- \leq x_0 \leq x_0^+)=F_{x(s)}(x_0^+) - F_{x(s)}(x_0^-)= \\ =P(x^+(t_0)) - P(x^-(t_0))= \\ =P(x\{t_0,s\} \leq x_0^+) - P(x\{t_0,s\} \leq x_0^-) \end{split}\end{equation}

Ad esempio ls FDD del lancio di un dado \(F_{x(s)}(x)=\sum_{i=1}^6p_i(x)\) il cui grafico è riportato nell'immagine 2

DDP_dado.JPG
Figure 2: Grafico della FFD del lancio di un dado

3.3. FDD continua

la \(F(x,t_0)\) è una funzione continua pertanto \(P(x(t_0,s)=x(t_0))=0\)

3.4. probabilità congiunta

Modella il concetto di probabilità legata a più v.a.. La v.a. da considerare è il vettore \(X(\omega)=[\omega_1,\ldots,\omega_n]\) e in conseguenza la FDD si ridefinisce come :

\begin{equation}\begin{split} \label{eq:01} F_{X(\omega)}(\omega_{1},\ldots ,\omega_{k})=\\ =P((X(\omega)\leq \omega_{1})\cap \ldots \cap (X(\omega)\leq \omega_{k}))=\\ =P(X(\omega)\leq \omega_{1}) \ldots P(X(\omega) \leq \omega_{k}) \end{split}\end{equation}

Da cui la relazione con la ddp diventa :
\(F_{X(\omega)}(\omega_1, \ldots, \omega_n)=\int_{I1} \ldots \int_{In} f_{X(\omega)}(\omega_1, \ldots, \omega_n)d_{\omega 1} \ldots d_{\omega n}\)

3.5. Proprietà della FDD

  1. Evento Certo : \(F_{X(s)}(\infty)=P\{X(s)\leq \infty\}\)
  2. Evento Impossibile : \(F_{X(s)}(-\infty)=P\{X(s)\leq -\infty\}\)
  3. Monotonia : \(\forall x_1\leq x_2 \Rightarrow F_{X(s)}(x_1) \leq F_{X(s)}(x_2)\)
  4. continuità da dx : \(\lim_{\epsilon \rightarrow 0}F_{X(s)}(x + \epsilon)=F_{X(s)}(x)\)

Nel caso una DDP presenti una discontinuità in \(X_0\) significa che il quel punto i limiti dx e sx tendono ad un valore diverso e l'ampiezza del salto indica la propbabilità \(P\{X(S)=x_0\} \neq 0\) ( vds 2 ) in cui ogni salto è la probabilità dell'uscita della singola faccia ( 1/6 ). Da notare che le probabilità a sx e a dx volgono, rispettivamente, \(P\{X(s) \leq x_0\}\) e \(1 - P\{X(s) \leq x_0\}\) e in cui la funzione di ddp \(p_i(x)\) è continua da dx e ciò implica che rimane costante per ogni intervvallo \([x_0,x_0+1(\).

Invece nel caso in cui \(P\{X(S)=x_0\}=0\) la DDP è una funzione continua infatti \(P(\{x(s)=x_i\})=F_{x(s)}(x_i) - F_{x(s)}(x_i^-)\) in cui \(F_{x(s)}(x_i^-)\) rappresenta la continuità da sinistra.

3.6. Teorema

Sia \(G(x)\) una funzione reale allora questa rappresenta una funzione di distribuzione se :

  1. \(G:R \rightarrow R\)
  2. \(G(\infty)=1\)
  3. \(G(-\infty) =0\)
  4. \(G(x_1) \leq G(x_2) \ \forall \ x_1 \leq x_2\)

COROLLARIO : Se esiste una funzione \(G(x)\) con le proprietà di cui sopra allora esiste un esperimento \(E\) t.c. la funzione di distribuzione dell'esperimento è esattamente \(G(x)\).

4. fdd - Funzione di densità di probabilità

4.1. Definizione

Data una v.a. \(x(s)\) continua di uno spazio campionario \(S\) la fdd è una funzione reale di variabile reale definita come \(f_{x(s)}(x)=\frac{dF_{x(s)}(x)}{dx}\) che rappresenta l'andamento della v.a. in pratica l'andamento della v.a. è descritto dalla variazione di ampiezza della funzione di ddp e sussistono le seguenti relazioni con la DDP :

  1. \(f_{x(s)}(x) \geq 0\);
  2. \(\int_{-\infty}^{\infty} f_{x(s)}(x)dx=F_{x(s)}(\infty) - F_{x(s)}(-\infty)=1\);
  3. \(P(\{x_1 < x(s) \leq x_2\})=\int_{x_1}^{x_2}f_{x(s)}(x)dx\)
  4. Per una singola v.a. : \(f_{X(s)}(x)=\frac{dF_{X(s)}(x)}{d_x}\)
  5. Per un vettore di v.a. : \(f_{X(s)}(x_1, \ldots, x_n)=\frac{\delta^n F_{X(s)}(x_1, \ldots, x_n)}{\delta_1x \ldots \delta_n}\)

il significato analitico rappresenta la probabilità dell'evento \(x_0\) coincide con l'area sottesa alla curva della ddp di base infinitesima \(d_x\) infatti :

\(f_{X(s)}(x)d_x=dF_{x(s)}(x_0)=dP\{x \leq x_0\}\)

poi integrando ad ambo i membri

\(F_{X(s)}(x_0)=P\{x_0 \leq x \leq x_0+d_x\}=P\{x \leq x_0\}-P\{x \leq x_0+d_x\}\)

In modo analogo per più variabili, ad esempio due, si ha che :

\(F_{XY}(x,y)=P\{x_0 \leq x \leq x_0 + d_x,y_0 \leq y \leq y_0 + d_y\}\)

cioè la probabilità di due eventi congiunti è l'area della porzione di piano compresa tra l'intersezione degli intervalli \([x_0, x_0 + d_x]\) x \([y_0, y_0 + d_y]\) che quando sono indipendenti \(P\{XY\}(x,y)=P\{X\}P\{Y\}\).

In modo analogo tre variabili ma in questo caso la probabilità è compresa in una porzione di spazio.

5. Momenti di una v.a

Il momento è un parametro caratteristico della funzione di ddp di una v.a. e ne permette la caratterizzazione senza conoscere la FDP associata e la cui generica struttura è \(E\{(x(\omega) -m)^n\}=\int(x-m)^nf_x(x)d_x\) in cui \((m, n)=(centro, ordine)\)

5.1. Valor Medio e Valore Quadratico Medio.

\(E\{x(s)\}=\mu_x=\int xf_x(x)d_x\). Momento caratterizzato dalla coppia \((m,q)=(0,1)\). Indica il valore valore atteso e gode delle seguenti proprietà : se \(\mu_x=x_0\) allora \(f(x)\) è simmetrica rispetto alla media e ciò implica che se la media è nulla allora \(f(x)\) è pari.

  • nel caso di media nulla n\(\mu_2=\int_{-\infty}^{\infty} x^2 f_{x(s)}(x)dx\)
  • Nel caso di v.a. complessa : \(E\{ z(\omega) \} = E \{ x(\omega) \} + jE \{ y(\omega) \}\)
  • Nel caso di una v.a. discreta diventa :
    \(E\{x(\omega)\}=\mu_x=\int x \sum_i P_i(\delta(x-x_i))dx=\sum_iP_ix_i\)

5.2. varianza

dispersione attorno alla media \(\sigma^2_x=\int (x-\mu_x)^2f_x(x)d_x\). Da notare che sviluppando l'ultima formula:

\begin{equation} \sigma^2_x=\int (x-\mu_x)^2f_x(x)d_x=\\ \int (x^2 + \mu^2_x -2x\mu_x)f_x(x)d_x=\\ E\{x(s)^2\}-\mu_x^2 \end{equation}

Da cui \(E\{x(s)^2\}=\sigma^2 + \mu_x^2\) che altro non è che la definizione di potenza ottenuta con le grandezze caratteristiche di una v.a .

5.3. deviazione standard

\(\sigma_x=\sqrt{\sigma_x^2}\) normalizza la varianza per porter confrontale v.a. diverse;

6. Processo Stocastico

6.1. processo stocastico x(t,s)

sia \(x(t,s)\) una legge che associa a ciascun elemento \(s_i \in S\) di un insieme campionario una funzione, reale o complessa, della variabile reale \(x(s)\) in funzione del tempo allora se :

  1. per un insieme di risultati dell'esperimento \(\{s_i\}\) abbiamo un insieme di funzioni del tempo \(x\{t,s_i\}\);
  2. se per ogni valore fissato di \(\hat{t}\) \(\{x(\hat{t},s) \leq x\}\) è un evento e \(P(\{x(\hat{t},s)=\infty\})=P(\{x(\hat{t},s)=-\infty\})=0\)

allora l'insieme \(x(t,s)\) si chiama processo stocastico. La notazione può essere contratta come segue \(x(t)\)

Da un punto di vista pratico un processo stocastico, insieme di processi aleatori, è una forma di rappresentazione di una grandezza che varia nel tempo in modo casuale la cui evoluzione futura non si conosce con certezza ma può essere descritta in termini probabilistici mediante la conoscenza di alcuni parametri quali ad esempio la media. Un esempio di tali segnali è quello di segnale elettrico contenente informazione ovvero modulato oppure il numero di autovetture che transitano su un ponte, etc.

Nel caso di di segnale elettrico, ma non solo, la sua evoluzione nel tempo può essere modellata sulla base della seguente definizione : funzione, reale o complessa, \(x(t,s_{i})\) in cui \(s_{i}\) è un particolare segnale tra quelli presenti nell'etere ( spazio campionario ). Per come è stata definita la funzione reale possiamo ottenere i seguenti casi :

6.2. tabella di rappresentazione

sia \(x(t,s)\) un p.a.

tipo costanti descrizione notazione note
1 \(t=t_0,s=s_0\) numero reale \(x(t_0,s_0)=x\)  
2 \(t=t_0\) variabile aleatoria \(x(t_0,s) \leq x\) con \(x(t_0,s):S \rightarrow R\). Notazione alternativa \(x(t_0)\) può essere discreta o continua
3 \(s=s_0\) f(t) di una s \(x(t,s_0)=f_0(t)\)  
4 nessuna processo aleatorio \(x(t,s)=X(t)\)  
         

6.3. realizzazione

sia \(S\) l'insieme campionario delle misure della pressione atsmoferica rilevate nel globo in un certo punto del globo di probabilità una data misurazione della pressione atmosferica in un punto della terra costituisce una realizzazione e si indica con la notazione di tipo 2.

6.4. Caratteristiche

  1. Ordine : numero di v.a. di un segnale aleatorio;
    • p.a. del 1 ordine \(F_{x}(t,s)=P(\{x(t,s)\leq x\}) \Rightarrow f_{x}(t,s)=\frac{\delta F_{x}(t,s)}{\delta x}\)
    • p.a. del 2 ordine
\begin{equation}\begin{split} \label{org3c792cb} F_{x}(x_{1},x_{2},t_{1},t_{2})= P(\{x(t_{1})\leq x_{1}\} \cap \{ x(t_{2})\leq x_{2} \})= \\ P( \{ x(t_{1}) \leq x_{1} \})P( \{ x(t_{2}) \leq x_{2} \} ) \\ da\ cui\ \\ f_{x}(x_{1},x_{2},t_{1},t_{2})=\frac{\delta^{2}F(x_{1},x_{2},t_{1},t_{2})}{\delta x_{1}\delta x_{1}} \end{split}\end{equation}
  1. Dimensione : numero di segnali aleatori che formano un processo stocastico ed è statisticamnente determinato quando è nota la funzione di probabilità congiunta.
    Esempio Dati due s.a. di dimensione \(n\) e \(m\), cioè :

    • sia \(x(t)\) un segnale aleatorio di ordine n \(\rightarrow\) processo formato da \(n\) v.a. \(x(t_{1}),...,x(t_{n})\)
    • sia \(y(t)\) un segnale aleatorio di ordine m \(\rightarrow\) processo formato da \(m\) v.a. \(y(t_{1}),...,y(t_{m})\)

    allora la FDP di un processo aleatorio di dimensione due è :

    \begin{equation}\begin{split} F_{xy}(\overrightarrow{(x,t)}, \overrightarrow{(y,t)})=\\ =P( \{\overrightarrow{(x,t_{i}) } \leq \overrightarrow{x_{i}} \} \cap \{ \overrightarrow{(y,t_{i})} \leq \overrightarrow{y_{i}}\})=\\ =P_{\overrightarrow{(x,t_{i})}}(\overrightarrow{(x,t_{i})} \leq \overrightarrow{x_{i}}\})P_{\overrightarrow{(y,t_{i})}}(\overrightarrow{(y,t_{i})} \leq \overrightarrow{y_{i}}\}) \end{split}\end{equation}

6.5. P.A Complesso

Un processo complesso è un caso particolare di un processo a due dimensioni in cui \(m=n\) nella forma \(\overrightarrow{z(t)}=\overrightarrow{x(t)}+j\overrightarrow{y(t)}\).
Nel caso in cui il processo sia formato da k v.a. complesse questo è determinato quando \(kn=km\) ;
\(F_{z}(t,z)=F_{xy}(\textit{come quella a due dimensioni})=P(\textit{come quella a due dimensioni})\)

  • Esempio

    Una funzione \(x(t,\phi)=Am(t)cos(2{\pi}f_{0}t+\phi )\) è di ddp quando :

    \begin{equation} x(t,\phi)=Acos(2{\pi}f_{0}t + \phi ) \, con \, \phi = \begin{cases} \frac{1}{2 \pi} & \phi \in [-\pi,\pi]\\ 0 & altrove \\ \end{cases} \end{equation}

6.6. probabilità

la notazione \(P(x\{t_0,s\} \leq x)\) indica che l'oggetto matematico associato alla v.a. rappresenta una funzione di probabilità, definita a seconda dell'esperimento, con cui si intende la probobabilità di che si verifichi l'evento \(s_i\);

esempio: insieme di lancio di due monete \(S=\{(tt),(tc),(cc),(ct)\}\) con \(t=1,c=0\)

esito \(x(t,s)\) \(P(x\{t,s\})\)
tc / ct 1 p(1)=2/4
tt 2 p(2)=1/4
cc 0 p(0)=1/4

6.7. Funzione di Distribuzione (FDP)

\(F_x(x, t)\) rappresentazione dell'oggetto matematico associato a \(x(t,s)\). Il pedice è in analogia con la definizione della v.a. ma scritto in modo più sintetico;

6.8. funzione di densità (fdp)

\(f_x(x,t)=\frac{\delta F_x(x,t)}{\delta x}\) andamento grafico di \(x(t,s)\). Il pedice è in analogia con la definizione della v.a. ma scritto in modo più sintetico;

6.9. FDP di ordine n-esimo

per caratterizzare esattamente un processo aleatorio occore mettere in relazione due v.a. in istanti diversi, nel caso di due v.a. \(F_x(x_1,t_1,x_0,t_0)=P(x\{t_1,s_1\} \cap x\{t_0,s_0\} )\) . Iterando il ragionamento si giunge alla conclusione che la caratterizzazione di un p.s. è completa solamente conoscendo la FDP di un numero sufficientemente grande di v.a. \(F(x_n,t_n, ... , x_0,t_0)\);

6.10. fdp di distribuzione congiunta

\(f_x(t_0,t_1,x_0,x_1)=\frac{d^2F_x(t_0,t_1,x_0,x_1)}{dx_0 dx_1}\)

6.11. Parametri statistici di un p.s.

permettono la caratterizzazione di un p.s. anche senza conoscere la FDP associata.

  1. valor medio \(E\{x(t,s)\}=E\{x(t)\}=\hat{x}(t)=\int_{-\infty}^{\infty}x f_x(x,t)dx\) unica cosa che so calcolare;
  2. autocorrelazione Funzione del valor medio dipendente solamente da due istanti diversi \(R_x(t_1,t_2)=E\{[x(t_1)][x(t_2)]^*\}\)
  3. autocovarianza
    \(C_x(t_1,t_2)=E\{[x(t_1) - \hat{x}(t_1)][x(t_2) - \hat{x}(t_2)]^*\}=R_x(t_1,t_2)-E\{x(t_1)\}E^*\{x(t_2)\}\)
  4. crosscorrelazione \(R_{xy}(t_1,t_2)=E\{x(t_1)y^*(t_2)\}\)
    1. quando \(R_{xy}=0 \ \forall \ t_1,t_2\) allora i processi sono ortogonali
    2. \(R_{xy}(-\tau)=E\{x(t-\tau)y^*(y)\}=E^*\{x^*(t-\tau)y(t)\}=R^*_{yx}(\tau)\) NB quando i p.a. sono reali \(R_{xy}(f)=R_{yx}(f)\)
  5. crosscovarianza
    \(C_{xy}(t_1,t_2)=E\{[x(t_1) - \hat{x}(t_1)][y(t_2) - \hat{y}(t_2)]^*\}=R_{xy}(t_1,t_2)-E\{x(t_1)\}E^*\{x(t_2)\}\)
    quando
    \(C_{xy}=0 \ \Rightarrow \ R_{xy}(t_1,t_2)=E\{x(t_1)\}E^*\{x(t_2)\} \ \forall \ t_1,t_2\)
    si dice che i processi sono incorrelati.

6.12. Processi stazionari

  • p.a. in senso stretto

    FDP e fdd invariante rispetto ad ogni traslazione temporale;

  • p.a. in senso lato

    p.a. con autocorrelazione dipendente solo dalla variazione temporale \(R_x(t_1,t_2)=R_x(t+\tau,t)=E\{x(t+\tau)x^*(t)\}=R_x(\tau)\) e se il p.a. è di tipo gaussiano si ha anche che la media \(E\{x(t)\}=costante\).

    Un p.a. aleatorio in senso stretto lo è anche in senso lato il contrario è vero sse il p.a. è di tipo gaussiano.

    Inoltre la variazione istantanea \(\tau=t_2-t_1=0\) dell'autocorrelazione vale \(R_x(0)=E\{x(t)x^*(t)\}=E\{x^2(t)\}\) ma se il p.a. è di tipo gaussiano allora si ha un valore costante di \(E\{x^2(t)\}=costante\) in quanto la media è costante. Infine se il valore quadratico medio è inteso come potenza istantanea allora se ne conclude che un p.a. stazionario di tipo gaussiano ha una potenza media statica costante.

  • Densità spettrale

    \(S_x(f)=F[R_x(\tau)]=\int_{-\infty}^{\infty}R_x(\tau)e^{-j2\pi f\tau}d_{\tau}\)
    da cui
    \(R_x(\tau)=F^{-1}[S_x(f)]=\int_{-\infty}^{\infty}S_x(f)e^{j2\pi t\tau}df\)

    Da notare che se \(\tau=0\) si ottiene

    \(R_x(0)=F^{-1}[S_x(f)]=\int_{-\infty}^{\infty}S_x(f)df=E\{|x(t)|^2\}\)

  • cross-spetro di un p.a. stazionario

    \(S_{xy}(f)=F[R_{xy}(t)]\) op \(S_{yx}(f)=F[R_{yx}(t)]\) dalla prop. 20.4.2 abbiamo che

    1. \(R_{xy}(-\tau) \leftrightarrow S_{xy}(-f)\)
    2. \(R^*_{yx}(\tau)=S^*_{yx}(-f)\)
    3. \(S_{xy}(-f)=S^*_{yx}(-f)\) \(\leftrightarrow\) \(S_{xy}(f)=S_{yx}(f)\) l'ultima uguaglianza vale anche per p.a. reali

7. Download

8. Bibliografia

bibliographystyle:alpha bibliography:../bib/Bibliografia.bib

Author: andrea venuti

Created: 2021-09-29 mer 04:07

Validate