设f(x)在[0,1]上具有二阶连续导数,且|f''(x)|<=A,x∈[0,1],证明|f'(x)|<=|f(1)-f(0)|+A/2,x∈[0,1]

忘高人指点,只有20分了... 忘高人指点,只有20分了 展开
mscheng19
2011-12-18 · TA获得超过1.3万个赞
知道大有可为答主
回答量:3835
采纳率:100%
帮助的人:2259万
展开全部
f(0)=f(x)+f'(x)(0-x)+0.5f''(a)(0-x)^2
f(1)=f(x)+f'(x)(1-x)+0.5f''(b)(1-x)^2
两式相减,移项,取绝对值得|f'(x)|=|f(1)-f(0)+0.5f''(a)x^2-0.5f''(b)(1-x)^2|<=
|f(1)-f(0)|+0.5A(x^2+(1-x)^2)<=|f(1)-f(0)|+0.5A,最后不等式是因为二次函数x^2+(1-x)^2在【0 1】上的最大值是1
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式