Probabilidade e Estatística

O estudo matemático das probabilidades e da estatística, além de sua evidente importância prática, representa uma grande oportunidade para o uso dos conceitos da Teoria dos Conjuntos. Por isso faremos uma revisão dos conceitos relevantes.

Conjuntos

O conceito de conjuntos é um conceito primário, básico ao entendimento de toda a matemática. Conjuntos são coleções de objetos, não necessariamente envolvendo números ou outra entidade matemática. Podemos representar um conjunto exibindo explicitamente seus elementos. É o que fazemos mostrando os naipes de cartas de baralho:

$$ C_{1}=\{\spadesuit,\clubsuit,\diamondsuit,\heartsuit\}, $$
ou o conjunto dos inteiros ímpares menores que 10:
$$ C_{2}=\{1,3,5,7,9\}. $$

Outra forma útil consiste em descrever o conjunto usando a notação:
$$ \text{Conjunto } =\{x_i|\; \text{ alguma propriedade satisfeita pelos elementos} \}.$$
Em muitas situações o conjunto pode ser muito grande ou possuir infinitos elementos, de forma que não podemos explicitá-los uma a um. É o que ocorre com o conjunto dos inteiros pares
$$ C_{3}=\{ \left.n_i \in \mathbb{N}\right|n_i \,\,\text{ os inteiros pares}\} = \{ 2n_i | n_i \in \mathbb{Z} \} $$

$$ C_{3}=\{n_i \in \mathbb{N} | n_i \,\text{ um inteiro par} \} = \{ 2n_i | n_i \in \mathbb{Z} \}, $$

ou o conjunto de pontos no plano \(\mathbb{R}^2\) sobre a circunferência de raio 1,

$$ C_{4}=\{\left.(x,\,y)\in\mathbb{R}^2\right|(x^2+y^2=1)\}. $$

Se os elementos de um conjunto podem ser contados ele é dito enumerável e sua ordem, que denotaremos por \(\text{ord}(A)=n\), é o número de seus elementos. Nos exemplos acima temos \(\text{ord}(C_{1})=4\), \(\text{ord}(C_{2})=5\). O conjunto \(C_{3}\) é enumerável, com infinitos elementos, e \(C_{4}\) não é enumerável (também possuindo infinitos elementos).

Dizemos que um elemento \(a\) pertence à um conjunto \(C\) se \(a\) é um dos elementos de \(C\). Denotamos esta relação por \(a\in C\). Caso contrário escrevemos \(a\notin C\).

Dizemos que um conjunto \(A\) está contido no conjunto \(B\) se todos os elementos de \(A\) estão também em \(B\). Denotamos esta relação por \(A\subset B\). Caso contrário escrevemos \(A\not\subset B\). Observe que vale a seguinte afirmação: se \(A\subset B\) e \(x\in A\Rightarrow x\in B.\)

A contido em B
União e Intersecção

Conjuntos podem ser combinados de várias maneiras. Por exemplo, se \(A\) e \(B\) são dois conjuntos podemos encontrar a união dos dois, \(A\cup B\), ou sua intersecção \(A\cap B\), ilustradas na figura 1. Observe que
$$ x\in A\cup B \Rightarrow x\in A\text{ ou }x\in B, $$
$$ x\in A\cap B \Rightarrow x\in A\text{ e }x\in B. $$

Um número maior de conjuntos podem também ser combinados. Se \(A_{i}\) é uma coleção de conjuntos (\(i=1,\ldots,\,n)\) denotamos a união e intersecção destes conjuntos por: \(\underset{i=1}{\cup}A_{i}, \underset{i=1}{\cap}A_{i},\) respectivamente. Observe que dois conjuntos são disjuntos se \(A\cap B=\emptyset\).

 

Definição: Se \(A\subset S\) definimos \(\bar{A},\) o complementar de \(A,\) como o conjunto de todos os elementos de \(S\) que não estão em \(A\),
$$ \bar{A}=\{x\in S;\,\,x\notin A\}. $$

Observe que \(A\cup\bar{A}=S\).

Se \(S\) é finito ou numerável com \(n\) elementos então existem \(2^{n}\) eventos associados (subconjuntos de \(S\)).

 

O produto externo é outra forma de combinar conjuntos:

$$ A\times B=\left\{ (a,b)|a\in A,b\in B\right\}. $$

Seus elementos são os pares ordenados \((a,b)\). Observe que \(\mathbb{R}^n = \mathbb{R}\times\ldots\times\mathbb{R}.\)

Experimento aleatório e espaço amostral

Um experimento é não determinístico ou aleatório se seu resultado não pode ser determinado previamente, à partir das condições iniciais do sistema usado. Na prática um experimento pode ser considerado aleatório se o conjunto das condições iniciais e sua evolução até a obtenção do resultado forem muito complexas e de difícil análise. Por exemplo, quando se atira uma moeda todas as leis envolvidas no movimento são causais e é possível prever o resultado (com que face ela cairá ao solo) se todas as condições iniciais forem conhecidas. No entanto estas condições envolvem um grande número de variáveis (tais como as colisões com partículas do ar) e é, quase sempre, mais apropriado considerar que o resultado será aleatório. Na natureza macroscópica poucos experimentos são realmente aleatórios. No nível microscópico (quântico) temos fenômenos completamente aleatórios, tais como o momento em que uma substância radioativa sofrerá um decaimento e emitirá uma partícula ou radiação.

O conjunto dos resultados possíveis para um dado experimento é denomidado seu espaço amostral. Denotaremos por \(\varepsilon\) os experimentos e \(S\) seu espaço amostral. Alguns exemplos de experimentos aleatórios (dentro das ressalvas dadas acima) são:

\(\varepsilon_{1}:\) Jogue uma moeda 4 vezes e observe número de caras resultantes. \(S=\{0,1,2,3,4\} \).

\(\varepsilon_{2}:\) Jogue uma moeda 4 vezes e verifique a sequência de caras (que denotaremos por h) e coroas (que denotaremos por t). \(S=\{ \text{(hhhh), (hhht), …, (tttt)}\} \).

\(\varepsilon_{3}:\) Jogue uma moeda 4 vezes e verifique quantas caras e coroas resultam. \(S=\{(0,4),\,(1,3),\,(2,2),\,(3,1),\,(4,0)\} \).

\(\varepsilon_{4}:\) Deixe uma lâmpada acesa até queimar. Verifique o tempo de vida da lâmpada (um espaço amostral contínuo).

\(\varepsilon_{5}:\) Em um lote com 10 peças, sendo 3 defeituosas, retire 1 de cada vez, sem repor, até que todas com defeito sejam removidas. Quantas peças serão retiradas? \(S=\{3,4,5,6,7,8,9,10\}\).

\(\varepsilon_{5′}:\) Mesmo experimento anterior. Quantas peças podem ser retiradas sem que alguma tenha defeito? \(S=\{1,2,3,4,5,6,7\}\).

Definição: Um evento relativo ao experimento \(\varepsilon\) é um subconjunto de \(S\).

Exemplo 1: São eventos associados aos experimentos já listados:

\(\varepsilon_1\): \(A=\{2\} ,\) duas caras ocorrem,

\(\varepsilon_3\): \(B=\{(3,1),\,(4,0)\}\), mais caras que coroas,

\(\varepsilon_4\): \(C=\{t |\, t \lt 3000h \}\), lâmpada queima antes de 3000 horas.

Observe que, com esta definição, \(S\) e \(\emptyset\) são ambos eventos.

Se \(A\) e \(B\) são eventos então também são eventos:

\(A\cup B\) ocorre se \(A\) ou \(B\) ocorrem,
\(A\cap B\) ocorre se \(A\) e \(B\) ocorrem,
\(\bar{A}\) ocorre se \(A\) não ocorre.

No caso de diversos eventos \(A_{i}\) associados ao experimento:

\(\underset{i}{\cup}A_{i}\) ocorre se um dos \(A_i\) ocorre,
\(\underset{i}{\cap}A_{i}\) ocorre se todos os \(A_i\) ocorrem.
Resumindo: União e interseção.

Notação: Se um experimento consiste na execução do experimento \(\varepsilon\) \(n\) vezes denotamos seu espaço amostral por meio do produto externo
$$ \text{S}\times\ldots\times\text{S}=\left\{ \left(s_{1},\cdots,\,s_{n}\left|s_{i}\in S\right.\right)\right\}.$$

Definição: Dois eventos \(A\) e \(B\) são mutuamente excludentes se não podem ocorrer simultaneamente. Neste caso \(A\cap B=\emptyset\).

Definição: Uma coleção de subconjuntos de \(S\), que denotaremos por \(\{A_i\}\), é uma cobertura de  \(S\) se os subconjuntos são mutuamente disjuntos (\(A_{i}\cap A_{j}=\emptyset\) para \(i\neq j\))  sua união é o próprio \(S\) (\(\underset{i}{\cup}A_{i}=S\)). Desta forma cada elemento de \(S\) está contido em exatamente um dos subconjuntos \(A_{i}\).

Definição: A cada evento de \(S\) associado ao experimento \(\varepsilon\) associamos uma probabilidade de ocorrência \(P\left(A\right)\), um número real, satisfazendo

1. \(0\leq P\left(A\right)\leq1\),
2. \(P\left(S\right)=1\),
3. Se \(A\cap B=\emptyset\) então \(P\left(A\cup B\right)=P\left(A\right)+P\left(B\right)\).

Se \(\{A_{i}\}\) é uma coleção de eventos disjuntos (\(A_i \cap A_j=\emptyset\) para \(i\neq j\)) então \(P\left(\cup A_{i}\right)=\sum P\left(A_{i}\right)\).

Teorema: \(P(\emptyset)=0\)

Demonstração: \(A=A\cup\emptyset\) portanto \(P(A)=P\left(A\cup\emptyset\right)=P\left(A\right)+P\left(\emptyset\right)\Rightarrow P\left(\emptyset\right)=0 \)

Teorema: \(P(\overline{A})=1-P(A)\)

Demonstração: \(S=A\cup\overline{A}\), uma união disjunta. \(P\left(S\right)=1=P\left(A\right)+P\left(\overline{A}\right)\ \).

Esta última propriedade é muito interessante em alguns casos onde é mais fácil calcular \(P\left(\overline{A}\right)\), a probabilidade de não ocorrer o evento \(A\).

Teorema: \(P\left(A\cup B\right)=P\left(A\right)+P\left(B\right)-P\left(A\cap B\right)\)

Demonstração: \(A\cup B=A\cup\left(B\cap\overline{A}\right)\) e \(B=\left(B\cap A\right)\cup\left(B\cap\overline{A}\right)\). Como ambas uniões são disjuntas temos que
$$ P\left(A\cup B\right)=P\left(A\right)+P\left(B\cap\overline{A}\right)\,\,\,\text{e}\,\,\,P\left(B\right)=P\left(A\cap B\right)+P\left(\overline{A}\cap B\right) $$
$$ \Rightarrow P\left(A\cup B\right)=P\left(A\right)+P\left(B\right)-P\left(A\cap B\right).\ $$

Aplicando-se este mesmo resultado 2 vezes temos

$$
\begin{array}{rl}
P(A\cup B\cup C)= & P(A)+P(B)+P(C) \\
& -P(A\cap B)-P(B\cap C)-P(C\cap A)+P(A\cap B\cap C)
\end{array}
$$

Teorema: Se \(A\subset B\Longrightarrow P\left(A\right)\leq P\left(B\right)\)

Demonstração: Escreva \(B=A\cup\left(B\cap\overline{A}\right)\Longrightarrow P(B)=P(A)+P(B\cap\overline{A})\Longrightarrow P\left(A\right)\leq P\left(B\right).\)

Definição: Uma coleção de eventos \(\{A_i\}\) é uma partição de \(S\) se

1. \(A_{i}\cap A_{j}=\emptyset\) para \(i\neq j\),
2. \(\underset{i}{\cup}A_{i}=S\),
3. \(P\left(A_{i}\right)>0,\forall i\).

Portanto, uma partição é uma coleção de subconjuntos de \(S\) mutuamente disjuntos, que cobrem todo o conjunto \(S\). Uma partição é uma cobertura composta de subconjuntos de probabilidade não nula. Devido à propriedade 1, quando um experimento é realizado apenas um dos eventos de uma partição ocorre de cada vez.

Espaços amostrais finitos

Vamos considerar, nesta seção, experimentos cujos resultados são descritos por um espaço amostral consistindo de um número finito de \(k\) elementos, \(S={ a_1,\ldots,\,a_k}\). Chamaremos de um evento simples (ou elementar) a um evento formado por um resultado simples, \(A={a_i} \). A cada evento simples associaremos uma probabilidade \(p_i=P({a_i})\) satisfazendo

(a) \(0\leq p_{i}\leq1\),
(b) \(\sum_{i}^{k}p_{i}=1.\)

Notamos que \(\left\{ a_{i}\right\} \cap\left\{ a_{j}\right\} =\emptyset,\;i\neq j,\) o que significa que a coleção de todos os eventos simples de \(S\) é uma partição do espaço amostral.

Se tomarmos um evento constituído de \(r\) destes eventos simples (\(1\leq r\leq k)\; A={a’_1,\ldots,\,a’_r}\) (uma combinação de \(r\) eventos quaisquer de S) então
$$ P\left(A\right)=p_{1}+p_{2}+\ldots+p_{r}=\sum^{r}p{}_{i.} $$

Isto significa que conhecemos a probabilidade de \(A\) se conhecermos a probabilidade dos elementos simples que a compõem.

Se todos os \(k\) resultados são igualmente verossímeis (ocorrem com a mesma probabilidade) então
$$ p_{i}=\frac{1}{k}\;\;\text{e}\;\;P(A)=\frac{r}{k}. $$

Resumindo, se \(A\) é formado por \(k\) resultados simples igualmente prováveis então
$$ P(A)=\frac{\text{número de casos favoráveis}.}{\text{número de casos possíveis}} $$

Exemplo 2: Atirando uma moeda 2 vezes (ou duas moedas, ao mesmo tempo) qual é a probabilidade de se obter 1 cara? O experimento consiste em contar o número de caras resultantes e o espaço amostral é \(S={0,1,2}\). O evento favorável é \(A={1 \text{ cara }}={1 h}\). Note que \(P(A)\neq\frac{1}{3}\) pois os eventos de \(S\) não são igualmente verossímeis. Uma descrição mais apropriada do espaço amostral seria:
$$
S’=\{(h,h),\,(h,t),\,(t,h),\,(t,t)\}
$$

O espaço amostral \(S’\) consiste de 4 casos possíveis, dois deles favoráveis. Portanto
$$ P(A)=P(1\text{cara})=\frac{2}{4}=0,5. $$

Isto mostra a importância de se conhecer técnicas de contagens de eventos.

Exemplo 3: Um dado honesto (bem balanceado) cai com qualquer das faces virada para cima com a mesma probabilidade. Jogando-se o dado uma vez, qual a probabilidade de que ele caia com um número maior que 2? O espaço amostral é \(S=\{1,2,3,4,5,6\}\), o evento favorável é \(A=\{3,4,5,6\}\). A probabilidade procurada é \(P(A)=4/6=2/3.\)

Exemplo 4: Jogando-se um dado 2 vezes, qual é a probabilidade de que a soma dos números obtidos seja 6?

Neste caso o espaço amostral é
$$ S=\left\{\begin{array}{cccc}
(1,1) & (1,2) & \ldots & (1,6) \\
\vdots & & & \vdots \\
(6,1) & (6,2) & \ldots & (6,6)
\end{array}\right\}.
$$

Destes eventos simples os únicos favoráveis são \(A=\{(1,5),\,(2,4),\,(3,3),\,(4,2),\,(5,1)\}.\) Portanto \(P(A)=5/36.\)

Métodos de enumeração ou contagem

Vemos que é importante saber contar quantos eventos podem resultar de um certo experimento. Consideremos então a questão: de quantas maneiras diferentes podemos dispor de \(n\) objetos (permutações)? O primeiro pode ser escolhido entre \(n\) objetos, o segundo entre \(n-1\), até o útimo objeto restante. Como ilustrado na figura, o número resultante é \(n \times (n-1) \times \cdots \times 1 =n!\).

Como notação escreveremos \(_{n}P_{n}=n!\) para indicar a permutaçao de \(n\) objetos.

De quantas formas diferentes podemos escolher apenas \(r,\;(r\lt n)\) entre \(n\) objetos diferentes? Agora a escolha é interrompida após a seleção do \(r\)-ésimo objeto. Denotando por \(_{n}A_{r}\) este número temos
$$ _{n}A_{r}=n\left(n-1\right)\cdots\left(n-r+1\right)=\frac{n!}{\left(n-r\right)!}.$$

Se a ordem em que estes \(r\) elementos entram na seleção não é relevante então temos que remover da contagem acima as seleções repetidas. Temos que \(r\) objetos podem ser permutados de \(r!\) formas diferentes. Então, denotando por \(C\) o número de modos de permutar \(r\) entre \(n\) elementos, temos
$$ C=\frac{_{n}A_{r}}{r!}=\frac{n!}{r!\left(n-r\right)!}. $$

O número de combinações de \(n\) elementos em grupos de \(r\) elementos, sem que a ordem seja importante, aparece em diversas aplicações da matemática e recebe uma notação especial:
$$ C=\left(\begin{array}{c} n \\ r \end{array}\right)=\frac{n!}{r!\left(n-r\right)!}. $$
Estes são os chamados coeficientes binomiais. Eles possuem diversas propriedades interessantes. Entre elas, se \(n\) é um inteiro positivo e \(0\leq r\leq n\) então

$$
\left( \begin{array}{c} n \\ r \end{array}\right) =
\left(\begin{array}{c} n \\ n-r \end{array}\right), \;\;\;\;
\left(\begin{array}{c} n \\ r \end{array}\right)=
\left(\begin{array}{c} n-1 \\ r-1 \end{array}\right) +
\left(\begin{array}{c} n-1 \\ r \end{array}\right)
$$

Exemplo 5:. Na Loteria brasileira Megasena uma aposta simples consiste em escolher 6 entre 60 números. Qual a probabilidade de se escolher os 6 números sorteados? Temos que
$$ C=\left(\begin{array}{c} 60 \\ 6 \end{array}\right)=\frac{60!}{6!(54)!}=50063860 $$

é o número de resultados possíveis. A probabilidade de se acertar com um jogo simples é \(1/50063860\).

Observe que a operação acima pode ser simplificada da seguinte forma:
$$ \frac{60!}{6!(54)!}=\frac{55\times56\times57\times58\times59\times60}{2\times3\times4\times5\times6}=50063860. $$
(Os primeiros \(54\) fatores no numerador são cancelados por \(54!\) no denominador.)

Probabilidade Condicionada

Vamos usar de um exemplo para mostrar a diferença entre escolher objetos de um lote inicial, fazendo ou não a reposição dos objetos retirados após cada escolha.

Exemplo 6: Em um lote com 100 peças, 20 são defeituosas. Retiramos 2 peças e definimos dois eventos: \(\;A=\){1ª peça com defeito} \(B=\){2ª peça com defeito}. Se há reposição da peça retirada temos:
$$P(A)=\frac{20}{100}=\frac{1}{5},\;\;\; P(B)=\frac{1}{5}.$$

Mas, se não há a reposição, após a retirada da primeira peça restam 99, mas não sabemos quantas são defeituosas. Vamos denotar por \(P(B|A)\) = a probabilidade condicionada do evento \(B,\) tendo ocorrido o evento \(A.\) Se a primeira peça tinha defeito, restam 19 peças com defeito em um lote de 99, e \(P(B|A)=\frac{19}{99}\).

Como \(A\) ocorreu, o espaço amostral fica reduzido. Observe ainda que a probabilidade de \(B\) se \(A\) não tiver ocorrido é \(P(B|\overline{A})=\frac{20}{99}\).

Exemplo 7: Ex.: Dois dados são lançados e representamos o resultado por \(\left(x_{1},\,x_{2}\right).\) O espaço amostral é

$$
S=\left\{ \begin{array}{cccc}
(1,1) & (1,2) & \ldots & (1,6) \\
(2,1) & (2,2) & \ldots & (2,6) \\
\vdots & & & \vdots \\
(6,1) & (6,2) & \ldots & (6,6)
\end{array}\right\},
$$
consistindo de 36 eventos simples. Considere 2 eventos: \(A\) onde a soma dos dados é 10; \(B\) onde o primeiro resultado é maior que o segundo:

$$
\begin{array}{rl}
A= & \{(x_1,x_2)|x_1 + x_2=10\} = \{(4,6),(5,5),(6,4)\} \\ & \\
B= & \left\{(x_1,x_2)|x_1 \gt x_2\right\} \\
= & \left\{(2,1),(3,1),(3,2),(4,1),(4,2),(4,3),(5,1),\right. \\
& \left.(5,2),(5,3),(5,4),(6,1),(6,2),(6,3),(6,4),(6,5)\right\}
\end{array}
$$

A probabilidade de ocorrerem \(A\) e \(B\) são, respectivamente,
$$ P\left(A\right)=\frac{3}{6},\;\;P(B)=\frac{15}{36},$$
enquanto a probabilidade condicionada de ocorrer \(B\) tendo ocorrida \(A\) é $$ P(B|A)=\frac{1}{3}. $$ O espaço amostral se reduz para \(A={(4,6),\,(5,5),\,(6,4)}\) e, entre estes eventos apenas \((6,4)\) é favorável. Da mesma forma a probabilidade de ocorrer \(A\) tendo ocorrido \(B\) é
$$ P(A|B)=\frac{1}{15}, $$

pois \(\text{ord}(B)=15\) e apenas o evento \(\left(6,4\right)\) é favorável. Observe ainda que a probabilidade de que \(A\) e \(B\) ocorram simultaneamente é
$$ P(A\cap B)=\frac{1}{36}.$$

Note que:
$$P(A|B)=\frac{P(A\cap B)}{P(B)}=\frac{1}{36}\frac{36}{15}=\frac{1}{15}$$
$$P(B|A)=\frac{P(B\cap A)}{P(A)}=\frac{1}{36}\frac{36}{3}=\frac{1}{3}$$

Isto sugere a definição de probabilidade condicionada (que pode ser formalmente demostrada):

$$ P(B|A)=\frac{P(A\cap B)}{P(A)} $$

para \(P(A)\gt 0\). É claro que, se \(P(A)=0\), \(P(B|A)=0\). Podemos então escrever

$$ P(A\cap B)=P(B|A)P(A)=P(A|B)P(B). $$

Exemplo 8: Entre 100 calculadoras temos aparelhos novos (N) e usados (U), eletrônicos (E) e manuais (M), de acordo com a tabela:

Uma é escolhida ao acaso e verifica-se que é nova. Qual probabilidade de que ela seja eletrônica?

Como já se vericou que a calculadora é nova, o espaço amostral fica reduzido à apenas 70 unidades. Nele apenas 40 calculadoras são eletrônicas. Usando a definição de probabilidade condicionada temos

$$ P(E|N)=\frac{P(E\cap N)}{P(N)}=\frac{40/100}{70/100}=\frac{4}{7}.$$

Exemplo 9: Retomamos a situação das 100 peças, sendo 20 com defeito. Qual a probabilidade de se escolher 2, sem reposição, e serem ambas defeituosas?

Definimos os eventos A = {1ª com defeito}; B = {2ª com defeito}. O evento favorável é \(A\cap B\) e sua probabilidade é

$$ P(A\cap B)=P(B|A)P(A)=\frac{19}{99}\frac{20}{100}=\frac{19}{495}. $$

Uma observação será útil antes de prosseguirmos: seja \(\{M_{i}\}\) \(i=1,\ldots,\,k,\) é uma partição de \(S\). Podemos decompor \(B\) em partes mutuamente excludentes

$$ A=(A\cap M_{1})\cup\cdots\cup(A\cap M_{k}). $$

Portanto:

$$ P(A)=\sum_{i}P(A\cap M_{i})=\sum_{i}P(A|M_{i})P(M_{i}). $$

Exemplo 10: Na mesma situação anterior, qual a probabilidade de, escolhendo 2 peças, a segunda ter defeito? Novamente temos \(A=\) {1ª com defeito}; \(B=\) {2ª com defeito}. Queremos calcular \(P(B)\). Podemos escrever \(B\) como a união disjunta \(B=\left(B\cap A\right)\cup\left(B\cap\bar{A}\right)\). Então

$$
\begin{array}{rl}
P(B)= & P\left(B\cap A\right)+P\left(B\cap\bar{A}\right)=P(B|A)P(A)+P(B|\bar{A})P(\bar{A}) \\
= & \frac{19}{99}\frac{1}{5}+\frac{20}{99}\frac{4}{5}=\frac{1}{5}.
\end{array}
$$

Exemplo 11: Um produto é manufaturado por 3 fábricas diferentes que chamaremos de \(F_{1},\,F_{2}\)e \(F_{3}\). A quantidade de peças produzida por cada fábrica e a porcentagem de defeitos são exibidas na tabela:

Fábrica produção/dia peças com defeito
F1 2 2%
F2 1 2%
F3 1 4%

Após um certo tempo a produção das 3 fábricas é colocada em um depósito e uma peça é retirada ao acaso. Qual é a probabilidade dela ser defeituosa? Vamos definir os seguintes eventos \(D=\) {peça com defeito}; \(F_i\) = {peça fabricada por \(F_i\)}, \(i=1,2,3\). Podemos usar a união disjunta \(D=\cup_{i}(D\cap F_{i})\) para calcular

$$
\begin{array}{rl}
P(A)=& \sum_{i}P(D\cap F_{i})=\sum_{i}P(D|F_{i})P(F_{i})\\
=& P(D|F_{1})P(F_{1})+P(D|F_{2})P(F_{2})+P(D|F_{3})P(F_{3}) \\
=& 00,2\frac{1}{2}+00,2\frac{1}{4}+00,4\frac{1}{4}=0,025.
\end{array}
$$

Podemos ainda fazer a seguinte pergunta: Suponha que a peça retirada é defeituosa. Qual é a probabilidade de que ela tenha sido produzida na \(F_1?\) Queremos, portanto, \(P(F_{1}|D)\). Usamos

$$
\begin{array}{rl}
P(F_1|D)= & \frac{P(D|F_1)P(F_1)}{P(D)}=\frac{P(D|F_1)P(F_{1})}{\sum_{i=1}^{3}P(D|F_i)P(F_i)}= \\
& \frac{(0,02)\frac{1}{2}}{(0,02)\frac{1}{2}+(0,02)\frac{1}{4}+(0,04)\frac{1}{4}}=0,04,
\end{array}
$$

onde, na segunda igualdade, foi usado o fato de que \({F_i}\) é uma partição do espaço amostral.

Teorema de Bayes

Seja \({B_i}\) uma partição do espaço amostral e \(A\) um evento de \(S.\) Então
$$ P(B_i|A)=\frac{P(A|B_i)\,P(B_i)}{\sum_{k=1}^{3}P(A|B_k)\,P(B_k)},\:i=1,…,\,n. $$

Eventos independentes

Dois eventos são ditos independentes se a ocorrência de um não afeta a probabilidade de ocorrência do outro.

Exemplo 12: Um dado é jogado 2 vezes. Definimos os eventos \(A=\){1º mostra número par}, \(B=\){2º cai 5 ou 6}. Vemos que são dois eventos não relacionados. Temos

$$ P(A)=\frac{1}{2},\;\; P(B)=\frac{1}{3}.$$
$$ P(A\cap B)=\frac{6}{36}=\frac{1}{6}, $$

pois \(A\cap B=\{(2,5),(2,6),(4,5),(4,6),(6,5),(6,6)\}\). Consequentemente

$$ P(A|B)=\frac{P(A\cap B)}{P(B)}=\frac{1}{2}. $$

Observamos que \(P(A|B)=P(A).\) Da mesma forma \(P(B|A)=P(B).\)

Definição: \(A\)e \(B\)são eventos independentes se, e somente se, \(P(A\cap B)=P(A)P(B).\)

Uma boa revisão sobre a Teoria dos Conjuntos pode ser vista em Gigamatematica: Conjuntos Enumeráveis