最优化和最优控制的区别

一、最优化与最优控制基本概念

最优控制(optimal control)可以理解为最优化(optimization)领域下的一个子领域。

1.1 最优化

最优化理论一般研究涉及最优化问题的建模与求解。

一个最优化模型一般包括目标函数,决策变量,以及约束条件这三个基本要素。

最优化问题的目标是选择一组满足约束条件决策变量,使得目标函数最优(如最小化成本,或最大化收益)。常见的问题包括线性规划,整数规划等。

1.2 最优控制

最优化控制问题可视为最优化问题中的一种,该类问题主要针对控制系统进行优化。

控制系统有特定的状态(state)以及相应的控制器(controller),该类问题的目标一般也是选取最优的控制策略(control policy)即告诉我们在什么状态下进行什么样的行动,以使得系统最优(成本最小或收益最大)。

最优化控制理论根据问题的特点,又可细分为确定型最优化理论(deterministic)与随机型最优化理论(stochastic),根据系统输入输出之前的关系又可分为的线性最优化控制理论(linear)与非线性最优化控制理论(nonlinear)。

二、 最优化与最优控制的区别

最优化是数值分析问题,最优控制是泛函问题

2.1 目标函数

最优化是求使目标函数达到极值

最优控制是目标泛函达到极值

2.2 约束条件

最优化的约束条件非常广,没有具体特征

最优控制的约束条件大多是微分方程(系统的动态模型),是泛函约束

2.3 解空间(定义域)

最优化在R^n空间中考虑问题

最优控制是在函数空间考虑问题。

三、函数空间理解

最优控制的结果是一种控制策略,如火箭燃料流量控制,这个策略是一个随时间变化的函数,如线性控制,二次控制等等。

多种控制策略本质为多种函数(时间或系统状态的函数),不同的函数(控制策略)组成了整个函数空间。

最优控制的目的就是从函数空间中选择一个最优函数,使得目标泛函达到极值,该函数即为最优控制策略。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

友情链接更多精彩内容