当前位置:巴黎人注册送18 > 巴黎人-智能硬件 > 韩德仁考虑两种非凸函数优化问题,巴黎人注册

韩德仁考虑两种非凸函数优化问题,巴黎人注册

文章作者:巴黎人-智能硬件 上传时间:2019-11-16

6月22日,应数学与信息科学学院邀请,南京师范大学博士生导师高洪俊教授在数学学院南楼s103会议室作了题为“Stochastic strong solutions for stochastic transport equations”的学术报告。学院相关专业的教师、本科生、研究生等40余人聆听了此次报告。

12月28日上午,应数学与信息科学学院邀请,国家千人计划、长江学者、英国曼切斯特大学(University of Manchester)博士生导师张土生教授在我校数学楼103学术报告厅作学术报告。学院教师和研究生代表近30余人参加了此次报告会。

傅里叶基(Fourier basis)

傅里叶基方法的通用数学表达:
[ phi_i(s) = cos(pi c^i dot s), s in [0,1)] \ where \ c^i = (x_1^i, c_2^i, cdots, c_d^i)^T, with c_j^i in {0, cdots, N} for j = 1, cdots, d and i = 0, cdots, (N + 1)^d ]

3.3 对称阵与反对称阵

若方阵 $S in mathbb{R}^{n times n} $ 满足 (S^T = S),则称 $ S $ 是对称阵(Symmetric Matrix)。若对称阵满足 $ x^TSx ge 0, forall x in mathbb{R}^n $ 则称其半正定的(Positive Semi-Definite),记作 $ S ge 0 $。 若对称阵满足 $ x^TSx gt 0 $ ,则称其正定的(Positive Definite)。

实对称阵 $ S in mathbb{R}^{n times n} $ 具有以下性质:

  1. 所有的特征值都为实数,即 (sigma(S) in mathbb{R});
  2. 特征值互异的特征向量正交,即 $ S v_i = lambda_i v_i, S v_j = lambda_j v_j, lambda_i ne lambda_j Rightarrow v_i^Tv_j = 0 $;
  3. 有 (n) 个单位正交的特征向量,这些特征向量组成线性空间 (mathbb{R}^n) 的一组基底,将特征向量组成矩阵 (V = (v_1, dots, v_n) in O(n)),特征值组成对角矩阵 (Lambda = diag{ lambda_1, dots, lambda_n }),$ S $ 可以用这两个矩阵分解 $ S = V Lambda V^T $;
  4. $ S $ 所有的特征值为非负数,则 $ S $ 为半正定矩阵; $ S $ 所有的特征值为正数,则 $ S $ 为正定矩阵 。

矩阵范数(Matrix Norm)有2范数(2-norm)和F范数(Frobenius norm):

矩阵 $ A in mathbb{R}^{m times n} $

[ {|A|}_2 equiv max_{|x|_2=1} |Ax|_2 = max_{|x|_2=1}sqrt{<x, A^TAx>} ]

[ {|A|}_f equiv sqrt{Sigma_{i,j}a_{ij}^2} = sqrt{trace(A^TA)} ]

矩阵 (A^TA) 是对称阵,且半正定,所以 $ A^TA $ 可分解为 $ A^TA = Vdiag{ sigma_1^2, dots, sigma_n^2}V^T, sigma_1^2 ge sigma_i^2 ge 0 $,可得

[ {| A |}_2 = sigma_1 ]

[ {| A |}_f = sqrt{sigma_1^2 + dots + sigma_n^2} ]

若方阵 $A in mathbb{R}^{n times n} $ 满足 (A^T = -A),则称 $ A $ 是反对称阵(Skew-symmetric Matrix)。

反对称阵具有以下性质:

  1. 所有特征值都为0或者纯虚数;
  2. 可以分解为 $ A = V Lambda V^T $,其中 (Lambda) 是块对角矩阵 [ Lambda = diag{ A_1, dots, A_m, 0, dots, 0 },\ A_i = begin{bmatrix} 0 quad a_i \ -a_i quad 0 end{bmatrix} in mathbb{R}^{2times2}, i = 1, dots, m];
  3. 秩为偶数。

  4. 奇异值分解

矩阵 (A in mathbb{R}^{m times n}, m gt n, rank(A) = p),则 $ A $ 能够分解为

[ A = U Sigma V^T ]

其中

  1. $ U in mathbb{R}^{m times p} $,列向量单位正交;
  2. $ V in mathbb{R}^{n times p} $,列向量单位正交;
  3. $ Sigma in mathbb{R}^{p times p}, Sigma = diag{sigma_1, dots, sigma_p}, sigma_1 ge dots ge sigma_n$。

奇异值分解的应用,广义逆(Moore–Penrose Pseudoinverse):

[ A^dagger = V Sigma^dagger U^T, Sigma^dagger = begin{bmatrix} Sigma^{-1}_1 quad 0 \ 0 quad quad 0 end{bmatrix} in mathbb{R}^{m times n}]

广义逆具有以下的性质:

[ A^dagger A A^dagger = A^dagger, A A^dagger A = A ]

广义逆可用于解线性系统 $ Ax = b, A in mathbb{R}^{m times n}, rank(A) le min(m, n) (,) x_{min} = A^dagger b $ 是在所有最小化误差 $ | Ax-b |^2 $ 的解中,自身模 (|x|) 最小的那个。

(数学与信息科学学院 汪春峰 裴永刚)

高洪俊,南京师范大学教授、博士生导师,科技处处长。美国数学评论评论员,Stochastics and Dynamics编委,南京师范大学学报自然科学版副主编,江苏省工业与应用数学学会副理事长,江苏省高校“大规模复杂系统数值模拟”重点实验室副主任,江苏省“青蓝工程”中青年学术带头人,江苏省“333”工程第三层次培养人选,国防科工委科技进步奖一等奖获得者.目前研究兴趣为非线性发展方程和无穷维动力系统,物理、力学和地球科学(Geoscience)中的随机偏微分方程和无穷维随机动力学。已发表包括Adv. Math.、SIAM J. Math. Anal.、J.Differential Equations和中国科学在内的国内外重要期刊论文160多篇。多次主持国家基金项目,参与973项目,目前主持国家自然科学基金重点项目,江苏省自然科学基一项,江苏省青蓝工程科研基金一项。

张土生以“Global solutions to stochastic reaction-diffusion equations with super-linear drift and multiplicative noise”为题,从乘性时空白噪声驱动随机反应扩散方程的问题开始,介绍了当噪声消时这个含超线性项的偏微分方程常常有非平凡平稳解。另一方面,当噪声存在Bonder和Grosiman时证明了存在有限时间爆破,并指明Bonder——Grosiman条件是不可改进的。最后,在没有改变结论的前提下,给出两个本质不同途径的证明。报告深入浅出,引起大家浓厚的兴趣。在座老师和同学纷纷踊跃提问,与张土生进行了深入的探讨与交流。

径向基(Radial Basis)

径向基方法的通用数学表达:
[ phi_i(s) doteq exp left ( - frac{lVert s-c_i rVert ^2 }{2 sigma_i^2} right ) ]

1.4 内积与克罗内克积

在线性空间中可以定义内积(Inner Product):

[ <centerdot, centerdot> : V times V rightarrow mathbb{R} ]

内积是一种二元运算,将两个向量映射到实数域内,并且运算满足三条性质:

  1. 线性(Linear):$
  2. 对称(Symmetric):$
  3. 正定(Positive Definite):$

由内积可以定义范数(Norm))

[ |centerdot| : V rightarrow mathbb{R}, |v| = sqrt{<v, v>} ]

与度量(Metric))

[ d : V times V rightarrow mathbb{R}, d(v, w) = |v - w| = sqrt{<v-w, v-w>}]

度量可以用于描述长度或距离,定义了度量的线性空间称作是度量空间(Metric Space)。

规范内积(Canonical Inner Product)是内积的一种“实现方式”,也称作点积((Dot Product)[]),线性空间 $ V = mathbb{R}^n $ 中定义在规范基底 $ B = I_n $ 上的点积:

[ <x, y> = x^T y = Sigma^n_{i=1} x_i y_i ]

对应的范数就称作 $ L_2 $ 范数($ L_2 $-norm)或者欧几里德范数(Euclidean Norm#Euclidean_norm)):

[ |x|_2 = sqrt{x^Tx} = sqrt{x_1^2 + dots + x_n^2} ]

如果不把点积定义在规范基底 $ I_n $ 上,而定义在基底 $ B' $ 上($ I_n = B'A^{-1} (,) A $ 是从标准基底 $ I_n $ 到 $ B' $ 的变换矩阵),在新坐标 $ (x', y') $ 下的点积与旧坐标 $ (x, y) $下的点积的关系:

[ <x, y> = x^Ty = (Ax')^T(Ay') = x'^TA^TAy' equiv <x', y'>_{A^TA} ]

$ <x', y'>_{A^TA} $ 被称作从矩阵 $ A $ 诱导出的内积。

最后,两个向量 $ v, w $ 当且仅当 $

两个矩阵 $ A in mathbb{R}^{m times n}, B in mathbb{R}^{k times l} $ 的克罗内克积(Kronecker Product)
[ A otimes B = begin{bmatrix} a_{11}B dots a_{1n}B \ vdots quad ddots quad vdots \ a_{m1}B dots a_{mn}Bend{bmatrix} in mathbb{R}^{mk times nl}]
形式上是将 $ A $ 中的每一个元素替换成该元素与 $ B $ 的数乘。

有了克罗内克积就可以定义矩阵的 stack,矩阵 $ A = [a_1, a_2 dots a_n] in mathbb{R}^{m times n} $ 是将 $ A $ 的所有列向量组合成一个列向量:

[ A^s equiv begin{bmatrix} a_1 \ vdots \ a_n end{bmatrix} in mathbb{R}^{mn} ]

在 Matlab 中可以表示为

A_stack = kron(ones(size(A, 2), 1), A);

克罗内克积有一个非常常用的转换:

[ u^TAv = (v otimes u)^T A^s ]

如果 (u^TAv = 0) ,使用这种转换就可以形成一个线性系统。

专家简介:

讲座结束后,部分教师与学生结合讲座内容与高洪俊进行了热烈的交流。

巴黎人注册网址 1

近似方法的重要性

我们先看看传统方法中存在的问题:

  • 不适用复杂的环境。主要原因是状态和行动太多,策略需要大量空间来记忆策略价值。
  • 环境可能是不稳定的,过去的经验不能适用于未来的情况。需要一个通用性的方法来更新策略价值。
  • 策略价值是一个数值,缺乏通用性。期望有一个通用的方法来计算策略价值。

所以对近似预测方法的理解是,找到一个通用的方法(hat{v}(s, theta))。
数学表示
[ hat{v}(s, theta) approx v_{pi}(s) \ where \ theta text{ - a weight vector} \ theta doteq (theta_1, theta_2, ..., theta_n)^T ]

解释
近似预测方法是指求策略的状态价值的近似值。
求策略的行动状态价值的近似值叫做近似控制方法(Control Methods)(下一章的内容)。

课程第1章介绍了线性代数的基础,MVG 课程前半部分以线性代数的形式对问题进行建模,将模型是否有解、有多少解转化为矩阵秩的问题。

韩德仁,北京航空航天大学数学与系统科学学院院长,教授,博士生导师。国家杰出青年基金获得者,入选江苏省333高层次人才培养工程、江苏省“青蓝工程”中青年学术带头人。担任中国运筹学会理事、数学规划分会常务理事;《计算数学》《Journal of the Operations Research Society of China》编委。

报告中,高洪俊介绍了一类乘法噪声驱动的随机输运方程的强解的相关内容。对于在空间$L^q(0,T;{ mathcal C}^alpha_b({ mathbb R}^d))$ ($alpha>2/q$)中的漂移系数及在空间$W^{1,r}({ mathbb R}^d)$中的初值,高洪俊给出了随机强解的存在唯一性的证明。同时,高洪俊指出与在同等条件下的确定性的情况相反的是,这类乘法的随机布朗型运动扰动足以促使方程的解适定。对于$alpha+1<2/q$且空间维数高于1的情形,可选择合适的初值条件及漂移系数得到强解的不存在性。此外,若漂移系数属于$L^q(0,T;W^{1,p}({ mathbb R}^d))$可得到随机强解的整体可积性,此结果回答了Fedrizzi 和Flandoli提出的漂移系数在$L^q(0,T;L^p({ mathbb R}^d))$空间中的问题,因而部分地推广了他们早期的结果。

张土生是国际知名的概率论学家,主要从事随机微分方程, 大偏差, Malliavin Calculus,狄氏型等方面研究。张土生现为英国曼切斯特大学(Manchester University, UK)概率统计系主任,2005年受聘为南开大学“长江学者讲座教授”,2011年受聘为中国科技大学“千人计划”讲座教授。先后访问了美国加州大学欧文分校、康奈尔大学、德国比勒费尔德大学等数十个国家和地区的大学和科研院所, 被邀请在四十多个大型的国际随机分析会议上作特邀报告。张土生在《Ann. Probab.》,《Probab. Theory Related Fields》, 《Stochastic Process. Appl.》, 《J. Funct. Anal. 》, 《J. Differential Equations》,《Potential Anal.》 等国际权威杂志上发表论文150余篇,出版专著4部。目前为《Stochastic Process. Appl. 》, 《J. Theoretical Probab.》, 《Commun. Math. Stat. 》, 《Potential Anal.》, 《Acta Math. Appl. Sin. 》等国际上重要杂志的编委。

强化学习读书笔记 - 09 - on-policy预测的近似方法

2.1 线性变换

线性变换是指在两个线性空间之间的映射,$ L: V rightarrow W $,这种映射满足两个条件:

[ L(x+y) = L(x) + L(y), forall x, y in V ]

[ L(alpha x) = alpha L(x), forall x in V, alpha in mathbb{R} ]

这种映射可以认为是对线性空间 $ V $ 中的基底进行变换,在标准正交基底 $ {e_1, dots, e_n} $ 的情况下:

[ L(x) = Ax, forall x in V ]

[ A = (L(e_1), L(e_2), dots, L(e_n)) in mathbb{R}^{m times n} ]

所有 $ m times n $ 矩阵组成的集合写作 $ mathscr{M}(m, n) $,当 (m = n) 时,$ mathscr{M}(m, n) equiv mathscr{M}(n) $,就形成了了数域 (mathbb{R}) 中的一个环(Ring),所谓的环就是在这个矩阵集合对矩阵的加法、乘法封闭。

线性变换是线性空间之间满足特定条件的映射,这种映射一般使用矩阵描述。

夏勇,北京航空航天大学数学与系统科学学院副教授,博士生导师,统计与运筹系系主任,中国运筹学会刊编委,在《Mathematical Programming》《SIAM Journal on Optimization》等国内外期刊发表SCI论文43篇。

本文由巴黎人注册送18发布于巴黎人-智能硬件,转载请注明出处:韩德仁考虑两种非凸函数优化问题,巴黎人注册

关键词: