备案成功后怎么做网站thinkphp 网站根目录地址

当前位置: 首页 > news >正文

备案成功后怎么做网站,thinkphp 网站根目录地址,忒低网站长怎么做,网站建设公司上海做网站公司一、概念 1.集成学习#xff0c;顾名思义#xff0c;不是一个玩意#xff0c;而是一堆玩意混合到一块。 #xff08;1#xff09;基本思想是先 生成一定数量基学习器#xff0c;再采用集成策略 将这堆基学习器的预测结果组合起来#xff0c;从而形成最终结论。 #x…一、概念 1.集成学习顾名思义不是一个玩意而是一堆玩意混合到一块。 1基本思想是先 生成一定数量基学习器再采用集成策略 将这堆基学习器的预测结果组合起来从而形成最终结论。 2一般而言基学习器可以是同质的“弱学习器”也可以是异质的“弱学习器”。 3目前同质基学习器应用最广泛其使用最多的模型是CART决策树和神经网络。 2.生成基学习器 同质个体学习器按照个体学习器之间是否存在依赖关系又可以分为两类 1存在着强依赖关系串行生成个体学习器。 原理是利用依赖关系对之前训练中错误标记的样本赋以较高的权重值以提高整体的预测效果。 代表算法是Boosting算法。 2不存在强依赖关系并行生成这些个体学习器。 并行的原理是利用基学习器之间的独立性通过平均可以显著降低错误率。 代表算法是Bagging和随机森林Random Forest算法。 3.集成策略 根据集成学习的用途不同结论合成的方法也各不相同。 1通常是由各个体学习器的输出投票产生。 通常采用绝对多数投票法或相对多数投票法。 2当用于回归估计时一般由各学习器的输出通过 简单平均或加权平均产生。 4.Bagging 1思路是从原始样本集合中采样得到若干个大小相同的样本集然后在每个样本集合上分别训练一个模型最后用投票法进行预测。 2采样方式用于训练的每个模型的样本集合Dt是从D中有放回采样得到的 3训练得到的模型可用于分类也可用于回归:     分类投票法     回归加权平均法 5.随机森林 说白了就是建了一堆简单版的决策树然后放一块变成森林模拟器这个健壮性一下就上来了。 1抽样产生每棵决策树的训练数据集。 随机森林从原始训练数据集中产生n个训练子集假设要随机生成n棵决策树。 训练子集中的样本存在一定的重复主要是为了在训练模型时每一棵树的输入样本都不是全部的样本使森林中的决策树不至于产生局部最优解。 2构建n棵决策树基学习器。 每棵决策树不需要剪枝处理。由于随机森林在进行结点分裂时随机地选择m个特征参与比较而不是像决策树将所有特征都参与特征指标的计算。这样减少了决策树之间的相关性提升了决策树的分类精度从而达到结点的随机性。 3生成随机森林。使用第2步n棵决策树对测试样本进行分类随机森林将每棵子树的结果汇总以少数服从多数的原则决定该样本的类别。 6. Boosting 1是一种可将弱学习器提升为强学习器的算法。 这种算法先从初始训练集训练出一个基学习器再根据基学习器的表现对训练样本分布进行调整使得先前基学习器做错的训练样本在后续受到更多关注然后基于调整后的样本分布来训练下一个基学习器。 2如此重复进行直至基学习器数目达到事先指定的值T最终将这T个基学习器进行加权结合。 3分好几种如AdaBoostGradientBoostingLogitBoost等其中最著名的代表是AdaBoost算法。Boosting中的个体分类器可以是不同类的分类器。 7.偏差与方差重点 1偏差bias 偏差是指预测结果与真实值之间的差异排除噪声的影响偏差更多的是针对某个模型输出的样本误差。 偏差是模型无法准确表达数据关系导致比如模型过于简单非线性的数据关系采用线性模型建模偏差较大的模型是错的模型。 2方差variance 模型方差不是针对某一个模型输出样本进行判定而是指多个(次)模型输出的结果之间的离散差异注意这里写的是多个(次)模型即 不同模型 或 同一模型不同时间 的输出结果方差较大。 方差是由训练集的数据不够导致。 一方面量 (数据量) 不够有限的数据集过度训练导致模型复杂另一方面质(样本质量)不行测试集中的数据分布未在训练集中导致每次抽样训练模型时每次模型参数不同导致无法准确的预测出正确结果。 3偏差决定中心点期望输出与真实标记的差别方差决定分布使用样本数相同的不同训练集产生的方差 4泛化误差可以分解为偏差Biase、方差Variance和噪声Noise 8.如何解决偏差、方差问题 首先要知道偏差和方差是无法完全避免的只能尽量减少其影响。 1偏差实际上也可以称为避免欠拟合。              1.寻找更好的特征 – 具有代表性。              2.更多的特征 – 增大输入向量的维度增加模型复杂度。 2方差实际上也可以称为避免过拟合 。              1.增大数据集合 – 使用更多的数据减少数据扰动所造成的影响              2.减少数据特征 – 减少数据维度减少模型复杂度              3.正则化方法              4.交叉验证法 二、习题 单选题 11. 集成学习的主要思想是B。 A、将多源数据进行融合学习   B、将多个机器学习模型组合起来解决问题   C、将多个数据集合集成在一起进行训练   D、通过聚类算法使数据集分为多个簇   12. 下列不是Bagging算法特点的是D。 A、各基分类器不存在强依赖关系并行生成基分类器   B、各基分类器权重相同训练出来的每个模型独立同分布   C、通过有放回采样获取每个模型的样本集合   D、只需要较少的基分类器   Bagging算法通常会生成多个基分类器而不是较少的。增加基分类器的数量可以提高整体模型的泛化能力和稳定性。 13. 下列关于随机森林的说法错误的是B。 A、易于实现、易于并行。   B、基本单元是决策树将所有特征都参与特征指标的计算。   C、通过集成学习的思想将多棵树集成的一种算法。   D、在引入样本扰动的基础上又引入了属性扰动。   在随机森林中并不是所有特征都会参与到每棵树的建立中。随机森林在每棵树的建立过程中会随机选择一部分特征进行训练这个过程被称为特征子集采样。 14. 下列哪个集成学习器的个体学习器存在强依赖关系A A、Boosting   B、Bagging   C、EM   D、Random Forest   15. 下列哪个不是Boosting 的特点D A、基分类器彼此关联   B、串行训练算法   C、通过不断减小分类器的训练偏差将弱学习器提升为强学习器   D、Boosting中的基分类器只能是不同类的分类器   16. 模型的方差B说明模型在不同采样分布下泛化能力大致相当 模型的偏差说明模型对样本的预测越准模型的拟合性越好。 A、越小    越大   B、越小    越小   C、越大    越小   D、越大    越大   17. 在集成学习两大类策略中boosting和bagging如何影响模型的偏差bias和方差variance C  。 A、boosting和bagging均使得方差减小   B、boosting和bagging均使得偏差减小   C、boosting使得偏差减小bagging使得方差减小   D、boosting使得方差减小bagging使得偏差减小   boosting是打一个样本集不断优化的战斗对应偏差是样本偏差bagging是玩一堆方法去养蛊对应方差针对“多”这个特点。 判断题 14. 低方差的优化结果比高方差的优化结果更集中 P 15. 模型的方差和偏差之和越大模型性能的误差越小泛化能力越强Í  不论是偏差还是方差都是越小越好