LHS 采样
LHS 采样
1. 基本概念
LHS(Latin Hypercube Sampling),中文通常称为拉丁超立方采样,是一种常用的分层随机采样方法。它的目标是在样本数量有限的情况下,使样本尽可能均匀地覆盖变量空间。
与普通随机采样相比,LHS 在小样本条件下通常具有更好的空间覆盖性,因此广泛用于数值实验、仿真分析、不确定性量化、代理模型训练和优化算法初始化等场景。
2. 核心思想
LHS 的关键思想是:在每一维上都进行均匀分层,并保证每个分层区间都恰好被采样一次。
设某一变量的取值范围已经归一化到 ,若需要生成 个样本,则先将该区间划分为 个等概率子区间,再从每个子区间中随机选取一个点。对多维变量重复这一过程后,再通过随机排列将各维样本组合起来,最终得到一组多维样本点。
因此,LHS 保证了样本在每一维边缘分布上具有较好的均匀性。
3. 基本步骤
设问题维数为 ,样本数为 ,LHS 的基本流程如下:
- 对每一维变量的取值范围划分为 个等概率区间;
- 在每个区间内随机选取一个样本值;
- 对每一维得到的 个样本值分别随机打乱顺序;
- 按照对应位置组合,形成 个 维样本点。
4. 直观理解
若在二维空间中进行 LHS 采样,并设样本数为 ,则可以将两个坐标轴都划分为 个区间。最终生成的样本满足:
- 在 方向上,每个区间恰好出现一个样本;
- 在 方向上,每个区间也恰好出现一个样本。
因此,LHS 能有效避免普通随机采样中常见的样本聚集和区域空缺现象。
5. 与普通随机采样的区别
普通随机采样
普通随机采样实现简单,但样本点可能出现明显聚集,导致部分区域覆盖不足。在样本数量较少时,这种问题更加突出。
LHS 采样
LHS 在每一维上引入了分层机制,因此样本分布通常更加均匀。尤其在样本量有限时,LHS 往往比简单随机采样更有效。
不过需要注意,LHS 主要保证的是单维上的均匀性,并不一定意味着多维联合空间中的点分布已经达到最优。
6. 优点与局限
优点
- 样本覆盖性通常优于普通随机采样;
- 在小样本条件下效果较好;
- 实现难度不高,适合工程应用;
- 常作为代理模型和优化算法的初始采样方法。
局限
- 主要保证边缘分布均匀,不能完全保证整体空间填充最优;
- 随着维数升高,样本点的整体分布质量仍可能下降;
- 在高维复杂问题中,常需结合优化型 LHS 进一步改进。
7. 常见应用
LHS 采样常见于以下场景:
- 数值实验设计:用于从参数空间中选取具有代表性的实验点,以减少实验次数并提高覆盖质量。
- 不确定性分析:在输入变量存在波动时,可利用 LHS 生成样本开展仿真分析,其效率通常优于简单 Monte Carlo 采样。
- 敏感性分析:在全局敏感性分析中,LHS 常用于生成输入样本集。
- 代理模型训练:在 Kriging、RBF、神经网络等代理模型中,LHS 常用于构造训练样本,以提升样本对设计空间的代表性。
- 智能优化算法:在遗传算法、粒子群优化、差分进化等方法中,LHS 常用于初始化种群,从而增强初始解的分散性和搜索起点的覆盖性。
8. 与 Monte Carlo 采样的关系
从方法属性上看,LHS 可以视为对传统 Monte Carlo 采样的一种改进。
普通 Monte Carlo 采样完全依赖随机性,而 LHS 在随机采样的基础上增加了分层约束,因此通常能以更少的样本获得更稳定的覆盖效果。也正因如此,LHS 常被视为一种更高效的分层随机采样方法。
9. 常见改进形式
为了进一步提高样本点在多维空间中的分布质量,LHS 常有以下改进形式:
- 最大最小距离 LHS:增大样本点之间的最小距离;
- 优化型 LHS:通过交换或迭代优化提高空间填充性;
- 正交 LHS:增强样本在低维投影下的均匀性。
这些方法在高维实验设计和代理模型构建中较为常见。
10. 总结
LHS 采样是一种典型的分层随机采样方法,其核心优势在于:用较少的样本实现对变量空间更均匀的覆盖。因此,它在实验设计、仿真分析、敏感性分析、代理建模和智能优化等领域具有很强的实用价值。