第一章 随机事件

确定性现象是指事前可以预知结果的,即在某些确定的条件满足时,某一确定的现象必然会发生,或根据它过去的状态,完全可以预知它将来的 发展状态。

偶然性现象是指事前不能预知结果的,即在相同的条件下重复进行实验时,每次所得到的结果未必相同,或即使知道它过去的状态,也不能肯定它将来的发展状态。

我们学习《概率论与数理统计》研究的是随机现象,虽然是随机现象,但经过前人的研究发现,随机中有偶然性也有必然性,是一门值得深入研究的学科。

1.1 基本概念

1.1.1 随机试验

​ 满足下列条件的试验称为随机试验。

​ (1)可以在相同的条件下重复地进行;

​ (2)每次试验的可能结果不止一个,并且能事先明确试验的所有可能结果;

​ (3)进行依次试验之前不能确定哪一个结果会出现;

1.1.2 样本空间

​ 我们研究随机现象的方法其实就是利用已知知道的规律来分析未知,既然随机试验的所有可能结果我们都能事先知道,那我们先把这些结果列出来。

​ (1)样本点:随机试验的每一个可能结果称为一个样本点;

​ (2)样本空间$\Omega$:所有样本点全体组成的集合称为样本空间;

1.1.3 随机事件

​ 随机现象往往是通过一个具体情况或具体事件出现的,比如”仍骰子扔出的点数是偶数”这个事件,相当于给扔出的点数又附加了一个条件,它的所有可能结果写成集合为{2,4,6},我们会发现这个集合是样本空间的一个子集

​ (1)随机事件:样本空间$\Omega$的子集称为随机事件,通常用大写字母$A、B、C$等表示;

​ (2)基本事件:由单个样本点组成的单点集;

​ (3)事件发生:在每次实验中,当且仅当时间的结果集合中一个样本点出现时,称这一事件发生;

​ (4)必然事件:在每次试验中总是发生的,称为必然事件。记为$\Omega$。必然事件包含样本空间所有的样本点。

​ (5)不可能事件:在任意一次试验中都不会发生的事件称为不可能事件,记做$\emptyset$。它也是样本空间子集。

1.2 事件的关系及运算

1.2.1 事件的关系

名称 符号 事件发生角度理解 集合定义
B包含于A A$\subset$B 事件A发生必有事件B发生 A是B的子集
A与B相等 A=B 事件A发生必有B发生,且事件B发生必有事件A发生 A与B所包含样本点相同
A与B的和 A$\bigcup$B或A+B 事件A$\bigcup$B发生$\Leftrightarrow$事件A发生或事件B发生 A与B的并集
A与B的积 A$\bigcap$B或AB 事件A$\bigcap$B发生$\Leftrightarrow$事件A发生且事件B发生 A与B的交集
A与B的差 A-B、A-AB、A$\vec{B}$ 事件A-B发生$\Leftrightarrow$事件A发生且事件B不发生 属于A而不属于B的样本点构成的集合
A与B互斥 AB=$\emptyset$ 事件A与事件B不会同时发生 A与B没有共同的样本点
A的对立事件 ${\vec{A}}$ 每次试验事件A与试验$\vec{A}$有一个发生且仅有一个发生 A$\bigcup$$\vec{A}$=S,A$\vec{A}$=$\emptyset$

1.2.2 事件运算的性质

tips:懒得码公式了,这里直接放上高数叔课件上的公式(长杠变短杠,开口换方向)

1.2.3 习题

1.3 事件的概率

1.3.1 频率

在大量重复试验下,随着试验次数的增加,一个事件A出现的频率总在一个固定的数值附近摆动,我们把这个”固定的数”称为事件A的概率。

1.3.2 概率的定义

1.3.3 概率的性质

(1)$P(\emptyset)=0,P(\Omega)=1$;

(2)有限可加性:设$A_1、A_2{\cdots}A_n$是两两互不相容的事件,则有$P(A_1{\bigcup}A_2{\bigcup}{\cdots}{\bigcup}A_n) = P(A_1)+P(A_2){\cdots}P(A_n)$;

(3)逆事件的概率:对于任意事件A,有$P({\vec{A}}=1-P(A))$;

(4)减法公式:设$A、B$是两个事件,$P(A-B) = P(A)-P(AB) = P(A{\vec{B}})$。特别的若$A{\subset}B,则有P(A){\leq}P(B),且P(B-A)=P(B)-P(A)$;

(5)加法公式:对于任意两个随机事件A、B有: $P(A{\bigcup}B)=P(A)+P(B)-P(AB)$

:$P(A{\bigcup}B{\bigcup}C)=P(A)+P(B)+P(C)-P(AB)-P(AC)-P(BC)+P(ABC)$

1.3.4 习题

1.4 古典概型

1.4.1 古典概型定义

定义:一个试验的样本点有限,并且每个样本点出现的可能性都相等,那这个试验就是古典概型(等可能概型),比如掷骰子,每个点数出现的可能性都是$\frac{1}{6}$。

1.4.2 计算方法

(2)计算方法:$P(A)=\frac{A中基本的事件数}{基本事件总数n}$;比如A=掷骰子扔出奇数,则$P(A) = \frac{3}{6} = \frac{1}{2}$

1.4.3 习题

1.5 几何概型

1.5.1 几何概型的定义

定义:如果试验$E$是从某一线段(或平面、空间中有界区域)$Ω$上取一点,并且所取的点位于$Ω$中任意两个长度(或平面、体积)相等的子区间(子区域)内的可能性相同,则所取得点位与$Ω$中的任意子区间(或子区域)$A$内这一事件(仍记作$A$)的概率为:$P(A) = \frac{A的长度(面积、体积)}{Ω的长度(或面积、体积)}$,与古典概型不同的是,几何概型的样本点无穷多

1.5.2 习题

1.5.3 蒲丰投针问题

1.6 条件概率

1.6.1 条件概率的定义

定义:条件概率$P(B|A)$表示已知事件$A$发生的情况下事件$B$发生的概率:$P(B|A) = \frac {P(AB)}{P(A)},(P(A)>0)$,和$P(AB)$不同点在于两中概率的样本空间不同,前者是$A$后者是$Ω$。

1.6.2 条件概率的性质

① $0{\leq}P(B|A){\leq}1$

② $P(Ω|A)=1$

③ $P(A^`|B) = 1 - P(A|B)$

④ $P(A+B|C) = P(A|C)+P(B|C)-P(AB|C)$

1.6.3 乘法公式

若$P(A)>0,P(B|A) = \frac{P(AB)}{P(A)}$,则$P(AB) = P(B|A)P(A)$

1.6.4 习题

1.7 全概率公式和贝叶斯公式

1.7.1 全概率公式

1.7.2 贝叶斯公式

1.7.3 习题

1.8 事件的独立性

1.8.1 定义

事件不在同一个样本空间中,那么事件就是相互独立的,毫不影响。$P(B|A) = P(B) $在A发生的条件下B发生的概率,仍为B单独发生的概率。根据乘法公式我们可以得到$P(AB) = P(A)*P(B|A) = P(A)P(B)$,这就是判断事件独立性的充要条件

1.8.2 独立性的性质

image-20230331090237375

image-20230331090745862

1.8.3 习题

f5c396f4ac7fa714ba565726755e5f3

1.9 第一章习题

第二章 随机变量

2.1 随机变量的定义

定义:随机变量$X$是定义在随机试验样本空间$S={e}$上的单实值函数,记为$X = X(e)$。

image-20230331092755357

2.3 随机变量

随机变量需要注意以下问题

  1. 随机变量$X=X(e)$是一个单实值函数,也就是随机试验的每个结果在实数轴上只有一个值与之对应,当然,不同元素对应的实值可能是一样的,比如年龄问题,很多人都对应60这个年龄。
  2. $X(e)$体现的是对随机事件的描述。
  3. $X(e)$的各个取值都有一定的概率。
  4. 试验之前可知$X(e)$的取值范围,但是无法预知取到何值。

2.4 离散型随机变量

2.4.1 定义

离散型随机变量是指随机变量的全部可能取值是有限个可列无限个(可列无穷多可以理解为有规律的离散实值,可以知道下一个取值,与自然数一一对应)。例如:加油站达到的车辆数,医院一天新生儿出生数。

2.4.2 分布律

设离散型随机变量$X$的所有取值为$X _ k,(k=1,2,3, \cdots)$,$X$取到各个可能值的概率$P(X = x_k) = P_k, (k=1,2,3, \cdots)$,称为随机变量$X$的概率分布,也叫分布律。

X $x_1$ $x_2$ $x_3$ $\cdots$
$P_k$ $P_1$ $P_2$ $P_3$ $\cdots$

注:① $P _ k \geq 0, (k=1,2,3, \cdots)$

② 求和等于1(重要)

2.4.3 常见的离散型随机变量

  1. 两点分布

随机试验的结果只有两个,随机变量$X$只有可能取值0和1,其分布律可以写成

$x$ 0 1
$P_k$ $1-P$ $P$

比如抛硬币,产品是否合格,一个事件是否发生。

  1. 二项分布

只有两个结果的随机试验称为伯努利试验,观察A发生或A不发生,将这种试验独立重复进行n次,称为n重伯努利试验。n重伯努利实验中A发生的次数也是一个随机变量。

假设单独一次试验A发生的概率为$P(0<p<1)$,而A不发生的概率为$q(q=1-p)$,则n次实验中A发生k次的概率为:$P(X=k)={k \choose n} p^k q^{n-k},(k=0,1,2, \cdots)$

我们把这个n重伯努利试验中A发生的次数这个随机试验X服从的分布称为二项分布记为$B(n,p)$。

763e1c0a8ca0472eec7b2919b3f2d22

  1. 泊松分布

泊松分布适合于描述单位时间(空间)内随机事件发生的次数。如加油站一小时内到达的车辆数,一个医院一天内出生二点新生儿数量,受伤单位面积内细菌的分布数量等等。

泊松分布用$P(\lambda),Π(\lambda)$表示,其分布律:$P(X=k) = \frac{ {\lambda}^k e^{- \lambda } }{k!}, (k=0,1,2, \cdots)$这里$\lambda > 0$是一个常数,表示单位时间(空间)内随机事件发生的平均次数。$X~P(\lambda)$表示随机变量$X$服从参数为$\lambda$的泊松分布。拉K艺负拉比上k阶乘

806b17628c3f68b8e61fdaa8c674278

  1. 泊松定理

设$\lambda > 0$是一个常数,$n$是任意正整数,设$npn = \lambda$,则对任一固定的非负整数$k$,有$\lim{n \rightarrow \infty} {k \choose n} p_n^k (1-p)^{n-k} = \frac{ {\lambda}^k e^{- \lambda } }{k!}$。

这个定理告诉我们:如果随机变量$X~B(n, p)$,当n很大,p很小时,X近似服从参数$\lambda = np$的泊松分布,即

image-20230401122019188

ef14b953a933453bf2545d139455b29

2.5 随机变量的分布函数

2.5.1 定义

设$X$是随机变量,x是任意实数,则函数$F(x)=P(X \leq x), -\infty < x < +\infty$称为$X$的分布函数。分布函数表示将随机变量$X$取值中小于等于$x$的所有取值对应的概率相加。(主要是概率相加)(注意区分分布函数F(x)和概率P(X))

image-20230401124908445

$F(3.5) = P(X \leq 3.5) = P(X=1) + P(X = 2) + p(x = 3) = 0.6$。

2.5.2 性质

  1. $F(x)$是一个不减函数
  2. $P(a < X \leq b) = F(b) - F(a)$
  3. $0 \leq F(x) \leq 1, F(-\infty)=0, F(+\infty) = 1$
  4. $f(x)$右连续

2.5.3 习题

576216821768df3d5ff9e9f3cccc47c

2.6 一维连续型随机变量

2.6.1 定义

定义:如果对于随机变量$X$的分布函数$F(x)$,存在非负可积函数$f(x)$,使对任意实数$x$有$F(x) = \int _ {-\infty}^{x} {f(t)}{\rm d}t$。则称$X$为连续型随机变量,$f(x)$称为$X$的概率密度函数,简称概率密度

连续型:时间。例如:一辆车在8点到9点这一小时内任一时刻等可能到达

  1. 问车在8点10分52秒达到的概率。(概率等于0,未必是不可能时间)

image-20230401160551293

  1. 问车在8点10分8点20分之间达到的概率。

image-20230401160736090

image-20230401160934835

2.6.2 性质

  1. $f(x) \geq 0$
  2. $\int_{-\infty}^{+\infty} {f(x)}{\rm d}t$
  3. $P(x1 < X < x_2) = F(x_2) - F(x_1) = \int{x_1}^{x_2} {f(x)}{\rm d}x$
  4. $P(x_1 \leq x \leq x_2) = P(x_1 \leq x < x_2) = P(x_1 < x \leq x_2) = P(x_1<x<x_2)$
  5. 若$f(x)$在点x处连续,则有$F^{\prime} (x) = f(x)$

2.6.3 概率密度函数

使用概率密度函数描述随机变量发生的概率大小,借用物理的思想。虽然连续型随机变量的单点概率为零,但我们可以通过概率密度函数求出连续区间的概率。

image-20230401161229245

2.6.4 分布函数

image-20230401161746121

2.6.5 习题

65a523c8fb0a73f475f1bde744c60c2

2.7 常见的连续型随机变量

2.7.1 均匀分布

image-20230401165051884

image-20230401165211212

00ebc0472e78ca1d8c476ab51099778

2.7.2 指数分布

image-20230401171515005

这里的$\lambda$和泊松分布中的$\lambda$一样。泊松分布中$\lambda$描述医院一天内平均出生新生儿的数量,指数分布中$\frac {1}{\lambda}$描述两个新生儿出生的时间间隔。

指数分布的无记忆性对于任意的$s,t >0$,有$P(X>s+t|X>s) = P(X>t)$。一个元件的寿命服从指数分布,那么它已经工作了$s$小时,还能继续工作$t$小时的概率,就等于从最开始这个元件能工作$t$小时的概率。只看时间间隔,不看起始时间。

2.7.3 正态分布

正态分布,也叫常态分布、高斯分布$(\mu -\sigma)$和$(\mu +\sigma)$是正态分布曲线的两个拐点。

image-20230401185343353

image-20230401185521752

注:① 关于$x = \mu$对称;②当$x=\mu$时取得最大值;③当$x<\mu$时单调增加,当$x>\mu$时单调减小;④$x$轴是正态分布的渐近线。

2.7.3.1 标准正态分布

若$X~N(0,1)$,,则称服从标准正态分布,有概率密度

image-20230401190538528

注:①关于$x=0$对称,$f(-x)=f(x),偶函数$。

② (重要)分布函数$\phi (-x) = 1- \phi(x)$。

image-20230401191122065

第三个性质很重要,将非标准的正态分布转化为标准正态分布。

标准正态分布的函数值可以查表查出来。

2.7.3.2 习题

ba0ec3749b4638e52009d37cad57b73

2.8 随机变量函数的分布

2.8.1 离散型随机变量函数的分布

f8f0e44f435ba2f7c7b79d5d42f4ef3

2.8.2 连续型随机变量函数的分布

image-20230401195246028

738c36f014baf5baccb0386d4edaf2d