NLP学习(15)之约束优化

Apr 11, 2019


约束优化

有时候,在的所有可能值下最大化或最小化一个函数不是我们所希望的。相反,我们可能希望在的某些集合中找的最大值或最小值。这被称为约束优化。在约束优化术语中,集合内的点被称为可行点。

范数约束,如是一个常见的约束条件。

Karush–Kuhn–Tucker(KKT)方法是针对约束优化非常通用的解决方案。为介绍KKT方法,我们引入一个称为广义Lagrange函数的新函数。我们希望通过个函数个函数描述,那么可以表示为。其中涉及的等式称为等式约束,涉及的不等式称为不等式约束。
广义 Lagrangian可以如下定义:

我们可以通过优化无约束的广义Lagrangian解决约束最小化问题。只要存在至少一个可行点且不允许取,那么

与如下函数有相同的最优目标函数值和最优点集

同理,要解决约束最大化问题,我们可以构造的广义Lagrange函数。


上一篇博客:NLP学习(14)之基于梯度的优化方法