组卷网 > 知识点选题 > 利用导数研究函数的最值
更多: | 只看新题 精选材料新、考法新、题型新的试题
解析
| 共计 3 道试题
1 . 在信息论中,熵(entropy)是接收的每条消息中包含的信息的平均量,又被称为信息熵、信源熵、平均自信息量.这里,“消息”代表来自分布或数据流中的事件、样本或特征.(熵最好理解为不确定性的量度而不是确定性的量度,因为越随机的信源的熵越大)来自信源的另一个特征是样本的概率分布.这里的想法是,比较不可能发生的事情,当它发生了,会提供更多的信息.由于一些其他的原因,把信息(熵)定义为概率分布的对数的相反数是有道理的.事件的概率分布和每个事件的信息量构成了一个随机变量,这个随机变量的均值(即期望)就是这个分布产生的信息量的平均值(即熵).熵的单位通常为比特,但也用计量,取决于定义用到对数的底.采用概率分布的对数作为信息的量度的原因是其可加性.例如,投掷一次硬币提供了1的信息,而掷次就为位.更一般地,你需要用位来表示一个可以取个值的变量.在1948年,克劳德•艾尔伍德•香农将热力学的熵,引入到信息论,因此它又被称为香农滳.而正是信息熵的发现,使得1871年由英国物理学家詹姆斯•麦克斯韦为了说明违反热力学第二定律的可能性而设想的麦克斯韦妖理论被推翻.设随机变量所有取值为,定义的信息熵,().
(1)若,试探索的信息熵关于的解析式,并求其最大值;
(2)若),求此时的信息熵.
2024-01-16更新 | 1721次组卷 | 7卷引用:河北省2024届高三上学期大数据应用调研联合测评数学试题
2 . 在概率论中,马尔可夫不等式给出了随机变量的函数不小于某正数的概率的上界,它以俄国数学家安德雷·马尔可夫命名,由马尔可夫不等式知,若是只取非负值的随机变量,则对,都有.某市去年的人均年收入为10万元,记“从该市任意选取3名市民,则恰有1名市民去年的年收入超过100万元”为事件A,其概率为.则的最大值为(       
A.B.C.D.
2023-07-07更新 | 414次组卷 | 4卷引用:江苏省泰州市2022-2023学年高二下学期期末数学试题
3 . 《瀑布》(图1)是埃舍尔为人所知的作品.画面两座高塔各有一个几何体,左塔上方是著名的“三立方体合体”(图2).在棱长为2的正方体中建立如图3所示的空间直角坐标系(原点O为该正方体的中心,xyz轴均垂直该正方体的面),将该正方体分别绕着x轴,y轴,z轴旋转,得到的三个正方体,2,3(图4,5,6)结合在一起便可得到一个高度对称的“三立方体合体”(图7).在图7所示的“三立方体合体”中,下列结论正确的是(       



A.设点的坐标为,2,3,则
B.设,则
C.点到平面的距离为
D.若G为线段上的动点,则直线与直线所成角最小为
2022-12-22更新 | 1414次组卷 | 10卷引用:山东省2022-2023学年高二上学期12月质量检测联合调考数学试题
共计 平均难度:一般