品牌餐饮加盟网站建设手机版网页

当前位置: 首页 > news >正文

品牌餐饮加盟网站建设,手机版网页,济南手机建站模板,中英文网站开发在线电子书 深度学习介绍 安装 使用conda环境 conda create -n d2l-zh python3.8 pip安装需要的包 pip install jupyter d2l torch torchvision下载代码并执行 wget https://zh-v2.d2l.ai/d2l-zh.zip unzip d2l-zh.zip jupyter notebookpip install rise如果不想使用jupyt…在线电子书 深度学习介绍 安装 使用conda环境 conda create -n d2l-zh python3.8 pip安装需要的包 pip install jupyter d2l torch torchvision下载代码并执行 wget https://zh-v2.d2l.ai/d2l-zh.zip unzip d2l-zh.zip jupyter notebookpip install rise如果不想使用jupyter可以在电子书每一章节的右上角点击colab 不过需要注意colab没有安装d2l所以需要安装
笔者安装的版本 conda create -n d2l-zh python3.9conda install pytorch torchvision torchaudio pytorch-cuda12.4 -c pytorch -c nvidiaconda install nb_conda_kernelspip install d2ljupyter notebook机器学习中的关键组件 首先介绍一些核心组件。无论什么类型的机器学习问题都会遇到这些组件 1.可以用来学习的数据data 2.如何转换数据的模型model 3.一个目标函数objective function用来量化模型的有效性 4.调整模型参数以优化目标函数的算法algorithm。 数据 当处理图像数据时每一张单独的照片即为一个样本它的特征由每个像素数值的有序列表表示。 比如200200彩色照片由200200*3120000个数值组成其中的“3”对应于每个空间位置的红、绿、蓝通道的强度。 再比如对于一组医疗数据给定一组标准的特征如年龄、生命体征和诊断此数据可以用来尝试预测患者是否会存活 当每个样本的特征类别数量都是相同的时候其特征向量是固定长度的这个长度被称为数据的维数dimensionality。 固定长度的特征向量是一个方便的属性它可以用来量化学习大量样本。 然而并不是所有的数据都可以用“固定长度”的向量表示。 以图像数据为例如果它们全部来自标准显微镜设备那么“固定长度”是可取的 但是如果图像数据来自互联网它们很难具有相同的分辨率或形状。 这时将图像裁剪成标准尺寸是一种方法但这种办法很局限有丢失信息的风险。 此外文本数据更不符合“固定长度”的要求。 比如对于亚马逊等电子商务网站上的客户评论有些文本数据很简短比如“好极了”有些则长篇大论。 与传统机器学习方法相比深度学习的一个主要优势是可以处理不同长度的数据。 模型 大多数机器学习会涉及到数据的转换。 比如一个“摄取照片并预测笑脸”的系统。再比如通过摄取到的一组传感器读数预测读数的正常与异常程度。 虽然简单的模型能够解决如上简单的问题但本书中关注的问题超出了经典方法的极限。 深度学习与经典方法的区别主要在于前者关注的功能强大的模型这些模型由神经网络错综复杂的交织在一起包含层层数据转换因此被称为深度学习deep learning。 在讨论深度模型的过程中本书也将提及一些传统方法 目标函数 在机器学习中我们需要定义模型的优劣程度的度量这个度量在大多数情况是“可优化”的这被称之为目标函数objective function。 我们通常定义一个目标函数并希望优化它到最低点。 因为越低越好所以这些函数有时被称为损失函数loss function或cost function。 当任务在试图预测数值时最常见的损失函数是平方误差squared error即预测值与实际值之差的平方。 当试图解决分类问题时最常见的目标函数是最小化错误率即预测与实际情况不符的样本比例。 通常损失函数是根据模型参数定义的并取决于数据集。 在一个数据集上我们可以通过最小化总损失来学习模型参数的最佳值。 该数据集由一些为训练而收集的样本组成称为训练数据集training dataset或称为训练集training set。 然而在训练数据上表现良好的模型并不一定在“新数据集”上有同样的性能这里的“新数据集”通常称为测试数据集test dataset或称为测试集test set。 优化算法 当我们获得了一些数据源及其表示、一个模型和一个合适的损失函数接下来就需要一种算法它能够搜索出最佳参数以最小化损失函数。 深度学习中大多流行的优化算法通常基于一种基本方法–梯度下降gradient descent。 简而言之在每个步骤中梯度下降法都会检查每个参数看看如果仅对该参数进行少量变动训练集损失会朝哪个方向移动。 然后它在可以减少损失的方向上优化参数。 各种机器学习问题 监督学习 监督学习supervised learning擅长在“给定输入特征”的情况下预测标签。 每个“特征-标签”对都称为一个样本example。 有时即使标签是未知的样本也可以指代输入特征。 我们的目标是生成一个模型能够将任何输入特征映射到标签即预测。 1.回归 回归regression是最简单的监督学习任务之一。 假设有一组房屋销售数据表格其中每行对应一个房子每列对应一个相关的属性例如房屋的面积、卧室的数量、浴室的数量以及到镇中心的步行距离等等。 每一行的属性构成了一个房子样本的特征向量。 如果一个人住在纽约或旧金山而且他不是亚马逊、谷歌、微软或Facebook的首席执行官那么他家的特征向量房屋面积卧室数量浴室数量步行距离可能类似于[600, 1, 1, 60]。 如果一个人住在匹兹堡这个特征向量可能更接近[3000, 4, 3, 10]…当人们在市场上寻找新房子时可能需要估计一栋房子的公平市场价值。 为什么这个任务可以归类为回归问题呢本质上是输出决定的。 销售价格即标签是一个数值。 当标签取任意数值时我们称之为回归问题此时的目标是生成一个模型使它的预测非常接近实际标签值。 2.分类 虽然回归模型可以很好地解决“有多少”的问题但是很多问题并非如此。 例如一家银行希望在其移动应用程序中添加支票扫描功能。 具体地说这款应用程序能够自动理解从图像中看到的文本并将手写字符映射到对应的已知字符之上。 这种“哪一个”的问题叫做分类classification问题。 分类问题希望模型能够预测样本属于哪个类别category正式称为类class。 例如手写数字可能有10类标签被设置为数字09。 最简单的分类问题是只有两类这被称之为二项分类binomial classification。 例如数据集可能由动物图像组成标签可能是{猫, 狗}两类。 回归是训练一个回归函数来输出一个数值 分类是训练一个分类器来输出预测的类别。 然而模型怎么判断得出这种“是”或“不是”的硬分类预测呢 我们可以试着用概率语言来理解模型。 给定一个样本特征模型为每个可能的类分配一个概率。 比如之前的猫狗分类例子中分类器可能会输出图像是猫的概率为0.9。 0.9这个数字表达什么意思呢 可以这样理解分类器90%确定图像描绘的是一只猫。 预测类别的概率的大小传达了一种模型的不确定性本书后面章节将讨论其他运用不确定性概念的算法。 当有两个以上的类别时我们把这个问题称为多项分类multiclass classification问题。 常见的例子包括手写字符识别{0, 1, 2, …, 9, a, b, c, …}。 与解决回归问题不同分类问题的常见损失函数被称为交叉熵cross-entropy本书 3.4节 将详细阐述 现在我们想要训练一个毒蘑菇检测分类器根据照片预测蘑菇是否有毒。 假设这个分类器输出 图1.3.2 包含死帽蕈的概率是0.2。 换句话说分类器80%确定图中的蘑菇不是死帽蕈。 尽管如此我们也不会吃它因为不值得冒20%的死亡风险。 换句话说不确定风险的影响远远大于收益。 因此我们需要将“预期风险”作为损失函数即需要将结果的概率乘以与之相关的收益或伤害。 在这种情况下食用蘑菇造成的损失为0.2∞0.80∞而丢弃蘑菇的损失为0.200.810.8。 事实上谨慎是有道理的 图1.3.2中的蘑菇实际上是一个死帽蕈。 分类可能变得比二项分类、多项分类复杂得多。 例如有一些分类任务的变体可以用于寻找层次结构层次结构假定在许多类之间存在某种关系。 因此并不是所有的错误都是均等的。 人们宁愿错误地分入一个相关的类别也不愿错误地分入一个遥远的类别这通常被称为层次分类(hierarchical classification)。 早期的一个例子是卡尔·林奈他对动物进行了层次分类。 3.标记问题 学习预测不相互排斥的类别的问题称为多标签分类multi-label classification。 举个例子人们在技术博客上贴的标签比如“机器学习”“技术”“小工具”“编程语言”“Linux”“云计算”“AWS”。 一篇典型的文章可能会用510个标签因为这些概念是相互关联的。 关于“云计算”的帖子可能会提到“AWS”而关于“机器学习”的帖子也可能涉及“编程语言”。 此外在处理生物医学文献时我们也会遇到这类问题。 正确地标记文献很重要有利于研究人员对文献进行详尽的审查。 在美国国家医学图书馆The United States National Library of Medicine一些专业的注释员会检查每一篇在PubMed中被索引的文章以便将其与Mesh中的相关术语相关联Mesh是一个大约有28000个标签的集合。 这是一个十分耗时的过程注释器通常在归档和标记之间有一年的延迟。 这里机器学习算法可以提供临时标签直到每一篇文章都有严格的人工审核。 事实上近几年来BioASQ组织已经举办比赛来完成这项工作。 4.搜索 有时我们不仅仅希望输出一个类别或一个实值。 在信息检索领域我们希望对一组项目进行排序。 以网络搜索为例目标不是简单的“查询query-网页page”分类而是在海量搜索结果中找到用户最需要的那部分。 搜索结果的排序也十分重要学习算法需要输出有序的元素子集。 换句话说如果要求我们输出字母表中的前5个字母返回“A、B、C、D、E”和“C、A、B、E、D”是不同的。 即使结果集是相同的集内的顺序有时却很重要。 该问题的一种可能的解决方案首先为集合中的每个元素分配相应的相关性分数然后检索评级最高的元素。PageRank谷歌搜索引擎背后最初的秘密武器就是这种评分系统的早期例子但它的奇特之处在于它不依赖于实际的查询。 在这里他们依靠一个简单的相关性过滤来识别一组相关条目然后根据PageRank对包含查询条件的结果进行排序。 如今搜索引擎使用机器学习和用户行为模型来获取网页相关性得分很多学术会议也致力于这一主题。 5.推荐系统 另一类与搜索和排名相关的问题是推荐系统recommender system它的目标是向特定用户进行“个性化”推荐。 例如对于电影推荐科幻迷和喜剧爱好者的推荐结果页面可能会有很大不同。 类似的应用也会出现在零售产品、音乐和新闻推荐等等。 6.序列学习 以上大多数问题都具有固定大小的输入和产生固定大小的输出。 例如在预测房价的问题中我们考虑从一组固定的特征房屋面积、卧室数量、浴室数量、步行到市中心的时间 图像分类问题中输入为固定尺寸的图像输出则为固定数量有关每一个类别的预测概率 在这些情况下模型只会将输入作为生成输出的“原料”而不会“记住”输入的具体内容。 如果输入的样本之间没有任何关系以上模型可能完美无缺。 但是如果输入是连续的模型可能就需要拥有“记忆”功能。 比如我们该如何处理视频片段呢 在这种情况下每个视频片段可能由不同数量的帧组成。 通过前一帧的图像我们可能对后一帧中发生的事情更有把握。 语言也是如此机器翻译的输入和输出都为文字序列。 再比如在医学上序列输入和输出就更为重要。 设想一下假设一个模型被用来监控重症监护病人如果他们在未来24小时内死亡的风险超过某个阈值这个模型就会发出警报。 我们绝不希望抛弃过去每小时有关病人病史的所有信息而仅根据最近的测量结果做出预测。 这些问题是序列学习的实例是机器学习最令人兴奋的应用之一。 序列学习需要摄取输入序列或预测输出序列或两者兼而有之。 具体来说输入和输出都是可变长度的序列例如机器翻译和从语音中转录文本。 虽然不可能考虑所有类型的序列转换但以下特殊情况值得一提。 无监督学习 相反如果工作没有十分具体的目标就需要“自发”地去学习了。 比如老板可能会给我们一大堆数据然后要求用它做一些数据科学研究却没有对结果有要求。 这类数据中不含有“目标”的机器学习问题通常被为无监督学习unsupervised learning 本书后面的章节将讨论无监督学习技术。 那么无监督学习可以回答什么样的问题呢来看看下面的例子。 聚类clustering问题没有标签的情况下我们是否能给数据分类呢比如给定一组照片我们能把它们分成风景照片、狗、婴儿、猫和山峰的照片吗同样给定一组用户的网页浏览记录我们能否将具有相似行为的用户聚类呢主成分分析principal component analysis问题我们能否找到少量的参数来准确地捕捉数据的线性相关属性比如一个球的运动轨迹可以用球的速度、直径和质量来描述。再比如裁缝们已经开发出了一小部分参数这些参数相当准确地描述了人体的形状以适应衣服的需要。另一个例子在欧几里得空间中是否存在一种任意结构的对象的表示使其符号属性能够很好地匹配?这可以用来描述实体及其关系例如“罗马” - “意大利” “法国” “巴黎”。因果关系causality和概率图模型probabilistic graphical models问题我们能否描述观察到的许多数据的根本原因例如如果我们有关于房价、污染、犯罪、地理位置、教育和工资的人口统计数据我们能否简单地根据经验数据发现它们之间的关系生成对抗性网络generative adversarial networks为我们提供一种合成数据的方法甚至像图像和音频这样复杂的非结构化数据。潜在的统计机制是检查真实和虚假数据是否相同的测试它是无监督学习的另一个重要而令人兴奋的领域。 与环境互动 有人一直心存疑虑机器学习的输入数据来自哪里机器学习的输出又将去往何方 到目前为止不管是监督学习还是无监督学习我们都会预先获取大量数据然后启动模型不再与环境交互。 这里所有学习都是在算法与环境断开后进行的被称为离线学习offline learning。 环境是否变化例如未来的数据是否总是与过去相似还是随着时间的推移会发生变化是自然变化还是响应我们的自动化工具而发生变化 当训练和测试数据不同时最后一个问题提出了分布偏移distribution shift的问题。 接下来的内容将简要描述强化学习问题这是一类明确考虑与环境交互的问题。 强化学习 如果你对使用机器学习开发与环境交互并采取行动感兴趣那么最终可能会专注于强化学习reinforcement learning。 这可能包括应用到机器人、对话系统甚至开发视频游戏的人工智能AI。 深度强化学习deep reinforcement learning将深度学习应用于强化学习的问题是非常热门的研究领域。 突破性的深度Q网络Q-network在雅达利游戏中仅使用视觉输入就击败了人类 以及 AlphaGo 程序在棋盘游戏围棋中击败了世界冠军是两个突出强化学习的例子。 在强化学习问题中智能体agent在一系列的时间步骤上与环境交互。 在每个特定时间点智能体从环境接收一些观察observation并且必须选择一个动作action然后通过某种机制有时称为执行器将其传输回环境最后智能体从环境中获得奖励reward。 此后新一轮循环开始智能体接收后续观察并选择后续操作依此类推。 请注意强化学习的目标是产生一个好的策略policy。 强化学习智能体选择的“动作”受策略控制即一个从环境观察映射到行动的功能。 强化学习框架的通用性十分强大。 例如我们可以将任何监督学习问题转化为强化学习问题。 假设我们有一个分类问题可以创建一个强化学习智能体每个分类对应一个“动作”。 然后我们可以创建一个环境该环境给予智能体的奖励。 这个奖励与原始监督学习问题的损失函数是一致的。 当然强化学习还可以解决许多监督学习无法解决的问题。 例如在监督学习中我们总是希望输入与正确的标签相关联。 但在强化学习中我们并不假设环境告诉智能体每个观测的最优动作。 一般来说智能体只是得到一些奖励。 此外环境甚至可能不会告诉是哪些行为导致了奖励。 强化学习可能还必须处理部分可观测性问题。 也就是说当前的观察结果可能无法阐述有关当前状态的所有信息。 比方说一个清洁机器人发现自己被困在一个许多相同的壁橱的房子里。 推断机器人的精确位置从而推断其状态需要在进入壁橱之前考虑它之前的观察结果。 最后在任何时间点上强化学习智能体可能知道一个好的策略但可能有许多更好的策略从未尝试过的。 强化学习智能体必须不断地做出选择是应该利用当前最好的策略还是探索新的策略空间放弃一些短期回报来换取知识。 一般的强化学习问题是一个非常普遍的问题。 智能体的动作会影响后续的观察而奖励只与所选的动作相对应。 环境可以是完整观察到的也可以是部分观察到的,解释所有这些复杂性可能会对研究人员要求太高。 此外并不是每个实际问题都表现出所有这些复杂性。 因此学者们研究了一些特殊情况下的强化学习问题。 当环境可被完全观察到时强化学习问题被称为马尔可夫决策过程markov decision process。 当状态不依赖于之前的操作时我们称该问题为上下文赌博机contextual bandit problem。 当没有状态只有一组最初未知回报的可用动作时这个问题就是经典的多臂赌博机multi-armed bandit problem。