组卷网 > 知识点选题 > 导数及其应用
更多: | 只看新题 精选材料新、考法新、题型新的试题
解析
| 共计 5 道试题
1 . 牛顿在《流数法》一书中,给出了代数方程的一种数值解法——牛顿法.具体做法如下:如图,设r的根,首先选取作为r的初始近似值,若在点处的切线与轴相交于点,称r的一次近似值;用替代重复上面的过程,得到,称r的二次近似值;一直重复,可得到一列数:.在一定精确度下,用四舍五入法取值,当近似值相等时,该值即作为函数的一个零点

(1)若,当时,求方程的二次近似值(保留到小数点后两位);
(2)牛顿法中蕴含了“以直代曲”的数学思想,直线常常取为曲线的切线或割线,求函数在点处的切线,并证明:
(3)若,若关于的方程的两个根分别为,证明:
2024-04-24更新 | 767次组卷 | 3卷引用:河北省衡水市第二中学2023-2024学年高二下学期5月学科素养检测(二调)数学试题
2 . 英国著名物理学家牛顿用“作切线”的方法求函数零点.已知二次函数有两个不相等的实根,其中.在函数图象上横坐标为的点处作曲线的切线,切线与轴交点的横坐标为;用代替,重复以上的过程得到;一直下去,得到数列.记,且,下列说法正确的是(       
A.(其中B.数列是递减数列
C.D.数列的前项和
3 . 在信息论中,熵(entropy)是接收的每条消息中包含的信息的平均量,又被称为信息熵、信源熵、平均自信息量.这里,“消息”代表来自分布或数据流中的事件、样本或特征.(熵最好理解为不确定性的量度而不是确定性的量度,因为越随机的信源的熵越大)来自信源的另一个特征是样本的概率分布.这里的想法是,比较不可能发生的事情,当它发生了,会提供更多的信息.由于一些其他的原因,把信息(熵)定义为概率分布的对数的相反数是有道理的.事件的概率分布和每个事件的信息量构成了一个随机变量,这个随机变量的均值(即期望)就是这个分布产生的信息量的平均值(即熵).熵的单位通常为比特,但也用计量,取决于定义用到对数的底.采用概率分布的对数作为信息的量度的原因是其可加性.例如,投掷一次硬币提供了1的信息,而掷次就为位.更一般地,你需要用位来表示一个可以取个值的变量.在1948年,克劳德•艾尔伍德•香农将热力学的熵,引入到信息论,因此它又被称为香农滳.而正是信息熵的发现,使得1871年由英国物理学家詹姆斯•麦克斯韦为了说明违反热力学第二定律的可能性而设想的麦克斯韦妖理论被推翻.设随机变量所有取值为,定义的信息熵,().
(1)若,试探索的信息熵关于的解析式,并求其最大值;
(2)若),求此时的信息熵.
2024-01-16更新 | 1851次组卷 | 8卷引用:河北省2024届高三上学期大数据应用调研联合测评数学试题
4 . 英国著名物理学家牛顿用“作切线”的方法求函数零点时,给出的“牛顿数列”在航空航天中应用广泛,若数列满足,则称数列为牛顿数列如果函数,数列为牛顿数列,设,且___________
2023-02-08更新 | 576次组卷 | 2卷引用:河北省保定市唐县第一中学2022-2023学年高三上学期11月期中考试数学试题
智能选题,一键自动生成优质试卷~
5 . 如图来自古希腊数学家希波克拉底所研究的几何图形,此图由三个半圆构成,三个半圆的直径分别为直角三角形的斜边、直角边、直角边的三边所围成的区域.若,过点,当面积最大时,黑色区域的面积为_________.
2019-11-10更新 | 482次组卷 | 2卷引用:河北省唐山市第一中学2019-2020学年高三上学期10月月考数学(文)试题
共计 平均难度:一般