一、最优化与最优控制基本概念
最优控制(optimal control)可以理解为最优化(optimization)领域下的一个子领域。
1.1 最优化
最优化理论一般研究涉及最优化问题的建模与求解。
一个最优化模型一般包括目标函数,决策变量,以及约束条件这三个基本要素。
最优化问题的目标是选择一组满足约束条件决策变量,使得目标函数最优(如最小化成本,或最大化收益)。常见的问题包括线性规划,整数规划等。
1.2 最优控制
最优化控制问题可视为最优化问题中的一种,该类问题主要针对控制系统进行优化。
控制系统有特定的状态(state)以及相应的控制器(controller),该类问题的目标一般也是选取最优的控制策略(control policy)即告诉我们在什么状态下进行什么样的行动,以使得系统最优(成本最小或收益最大)。
最优化控制理论根据问题的特点,又可细分为确定型最优化理论(deterministic)与随机型最优化理论(stochastic),根据系统输入输出之前的关系又可分为的线性最优化控制理论(linear)与非线性最优化控制理论(nonlinear)。
二、 最优化与最优控制的区别
最优化是数值分析问题,最优控制是泛函问题。
2.1 目标函数
最优化是求使目标函数达到极值
最优控制是目标泛函达到极值
2.2 约束条件
最优化的约束条件非常广,没有具体特征
最优控制的约束条件大多是微分方程(系统的动态模型),是泛函约束
2.3 解空间(定义域)
最优化在空间中考虑问题
最优控制是在函数空间考虑问题。
三、函数空间理解
最优控制的结果是一种控制策略,如火箭燃料流量控制,这个策略是一个随时间变化的函数,如线性控制,二次控制等等。
多种控制策略本质为多种函数(时间或系统状态的函数),不同的函数(控制策略)组成了整个函数空间。
最优控制的目的就是从函数空间中选择一个最优函数,使得目标泛函达到极值,该函数即为最优控制策略。