达州 网站建设百度图片识别在线使用
- 作者: 五速梦信息网
- 时间: 2026年03月21日 11:29
当前位置: 首页 > news >正文
达州 网站建设,百度图片识别在线使用,谷歌广告代理公司,宠物网站建设论文人工智能及其应用#xff08;蔡自兴#xff09;期末复习 相关资料#xff1a; 人工智能期末复习 人工智能复习题 人工智能模拟卷 人工智能期末练习题 1 ⭐️绪论
人工智能#xff1a;人工智能就是用人工的方法在机器#xff08;计算机#xff09;上实现的智能#xff0…人工智能及其应用蔡自兴期末复习 相关资料 人工智能期末复习 人工智能复习题 人工智能模拟卷 人工智能期末练习题 1 ⭐️绪论
人工智能人工智能就是用人工的方法在机器计算机上实现的智能或称机器智能、计算机智能。
人工智能发展的三个阶段
计算感知认知
⭐️人工智能发展时期 孕育期 1956年前亚里士多德莱布尼茨图灵莫克麦克洛奇和皮兹维纳 形成期 19561970年1956年第一次人工智能研讨会达特茅斯会议 暗淡期 19661974年过高预言 知识应用期 19701988年专家系统的出现 集成发展期 1986年至今AI技术进一步研究
⭐️人工智能学派
符号主义功能模拟方法逻辑主义以物理符号系统为原理代表纽厄尔肖西蒙尼尔逊诺艾尔魈派蒙泥鳅诺艾尔打架溅了一身泥被魈卷到天上突然击中了派蒙连接主义结构模拟方法仿生学派神经网络之间连接机制为原理代表卡洛克皮茨霍普菲尔德鲁梅尔哈特行为主义行为模拟方法控制论学派类似于控制机器人代表布鲁克斯
人工智能应用问题求解和博弈逻辑推理和定理证明计算智能分布式人工智能和真体自动程序设计专家系统机器学习自然语言理解机器人学模式识别机器视觉神经网络智能控制
人工智能系统分类专家系统模糊系统神经网络系统学习系统仿生系统群智能系统多真体系统混合智能系统
目标
近期目标建造智能计算机代替人类的部分智力劳动远期目标揭示人类智能的根本机理用智能机器去模拟、延伸和扩展人类的智能
研究的基本内容认知建模知识表示知识推理知识应用机器感知机器思维机器学习机器行为智能系统构建
2 知识表示
2.1 ⭐️状态空间表示
概念理解状态算符
状态表示知道初始状态和目标状态状态表示图的画法
相关问题
野人传教士渡河问题
(a,b,c)(a, b, c)(a,b,c)表示左岸传教士人数左岸野人数左岸船数
梵塔问题
状态(SA,SB)(S_A, S_B)(SA,SB)SAS_ASA表示AAA所在杆号SBS_BSB表示BBB所在杆号SA,SB∈{1,2,3}S_A,S_B \in {1, 2, 3}SA,SB∈{1,2,3}全部状态为 (1,1),(1,2),(1,3),(2,1),(2,2),(2,3),(3,1),(3,2),(3,3)(1,1), (1, 2), (1, 3), (2, 1), (2, 2),(2,3),(3,1),(3,2),(3,3) (1,1),(1,2),(1,3),(2,1),(2,2),(2,3),(3,1),(3,2),(3,3) 初始状态(1,1)(1,1)(1,1)目标状态(3,3)(3,3)(3,3)
状态空间图 八数码问题
2.2 ⭐️归约表示与或图 需要理解归约表示思路与或图表示 梵塔问题四阶为例
假设用向量(D4,D3,D2,D1)(D4, D{3},D_2, D_1)(D4,D3,D2,D1)表示从大到小的圆盘所在的柱子号则
初始状态(1,1,1,1)(1, 1, 1, 1)(1,1,1,1)
目标状态(3,3,3,3)(3, 3, 3, 3)(3,3,3,3)
问题归约为子问题
移动321号圆盘至2号柱子移动4号圆盘至3号柱子移动321号圆盘至3号柱子
归约图表示 2.3 谓词逻辑表示
概念理解谓词项谓词公式原子公式合式公式
合式公式性质 自然语言转换成谓词 人都会死 (∀x)(man(x)→die(x))(\forall x) (man(x) \to die(x)) (∀x)(man(x)→die(x)) 有的人聪明 (∃x)(man(x)→clever(x))(\exist x) (man(x) \to clever(x)) (∃x)(man(x)→clever(x))
谓词推理
下面的例子使用了P∨Q¬P∨Q⟹Q∨QQP \lor Q \hspace{1em} \neg P \lor Q \implies Q \lor Q QP∨Q¬P∨Q⟹Q∨QQ 消解推理规则
2.4 语义网络表示
常用语义联系 推理机制匹配和继承
2.5 框架表示
结构
节点槽每个槽可有多个侧面每个侧面可有多个值值
推理机制
匹配填槽查询默认继承附加过程计算
大学教师的框架 2.6 ⭐️知识表示方法的联系 3 搜索推理
3.1 ⭐️盲目搜索无信息搜索 本小节没有加以整理请看课件 ⭐️深度优先搜素⭐️宽广度优先搜索等代价搜索UCS就是Dijkstra算法有界深搜就是限制深度的深搜迭代加深算法IDS 知道OPEN表和CLOSED表的作用 3.2 ⭐️启发式搜索有信息搜索
按选择范围不同分为全局择优搜索A,A*和局部择优搜素 f(x)g(x)h(x)f(x) g(x) h(x) f(x)g(x)h(x) h(x)h(x)h(x)启发函数
搜索算法 A算法h(x)h(x)h(x)不做限制 A*算法h(x)h(x)h(x)有限制
3.3 ⭐️消解原理归结原理 就是对几个子句推导出新的子句几个公理推导出新的结论 ⭐️如何求子句集将谓词演算公式化成子句集P97 子句集特征没有蕴涵词→\rightarrow→、等值词↔,≡\leftrightarrow, \equiv↔,≡,¬\neg¬作用原子谓词没有全称和存在量词合取范式元素之间变元不同集合形式 ⭐️消解推理规则
P¬P∨Q⟹QP∨Q¬P∨Q⟹Q∨QQ¬PP⟹NIL¬P∨R(P→R)¬Q∨R(Q→R)⟹¬P∨Q(P→Q)P \hspace{1em} \neg P \lor Q \implies Q \ P \lor Q \hspace{1em} \neg P \lor Q \implies Q \lor Q Q \ \neg P \hspace{1em} P \implies NIL \ \neg P \lor R(P \to R) \hspace{1em} \neg Q \lor R(Q \to R) \implies \neg P \lor Q(P \to Q) P¬P∨Q⟹QP∨Q¬P∨Q⟹Q∨QQ¬PP⟹NIL¬P∨R(P→R)¬Q∨R(Q→R)⟹¬P∨Q(P→Q)
消解反演 消解通过反演来证明。将目标公式否定添加到命题公式集中从中推导出一个空子句。类似于反证法否定结论并将其作为条件推导出一个空结论即不可能满足的结论 反演树的画法与理解
置换与合一的概念
置换σ{f(a)/x,f(y)/z}\sigma {f(a) / x , f(y) / z}σ{f(a)/x,f(y)/z} 代表用f(a)f(a)f(a)代替掉xxx用f(y)f(y)f(y)代替掉zzz。
合一寻找一个置换使两个表达式一致的过程。
3.4 规则演绎
产生式系统
产生式规则一般形式
IFA1,A2,…,AnTHENBIF \hspace{1em} A_1,A_2,…,A_n \hspace{1em} THEN \hspace{1em} BIFA1,A2,…,AnTHENB
逻辑蕴含式是产生式的一种特殊形式。
产生式系统的组成
总数据库产生式规则规则库控制策略推理机
产生式系统的推理正向推理逆向推理双向推理。
3.5 不确定性推理
三种不确定性程度
知识不确定性证据不确定性结论不确定性
不确定性表示度量
静态强度知识的不确定性程度表示LS,LN为知识的不确定性表示。动态强度证据的不确定性程度表示
3.5.1 ⭐️概率推理
条件概率公式 P(A∣B)P(AB)P(B)P(A|B) \frac{P(AB)}{P(B)} P(A∣B)P(B)P(AB)
全概率公式AiAiAi构成一个完备事件组互相独立其总和为全集 P(B)∑i1nP(Ai)P(B∣Ai)P(B) \sum \limits{i 1}^n P(A_i)P(B|A_i) P(B)i1∑nP(Ai)P(B∣Ai)
贝叶斯公式先验概率P(H)P(H)P(H)条件概率P(H∣E)P(H|E)P(H∣E) P(H∣E)P(H)P(E∣H)P(E)P(Bi∣A)P(Bi)P(A∣Bi)∑iP(Bi)P(A∣Bi)P(Hi∣E1E2⋯Em)P(E1∣Hi)P(E2∣Hi)⋯P(Em∣Hi)P(Hi)∑j1nP(E1∣Hj)P(E2∣Hj)⋯P(Em∣Hj)P(Hj)P(H|E) \frac{P(H)P(E|H)}{P(E)} \ P(B_i | A) \frac{P(B_i)P(A|B_i)}{\sum_i P(B_i) P(A|B_i)} \ P(H_i | E_1E_2 \cdots E_m) \frac{P(E_1|H_i)P(E_2|H_i) \cdots P(E_m|H_i)P(Hi)}{\sum \limits{j 1}^n P(E_1|H_j)P(E_2|H_j) \cdots P(E_m|H_j)P(H_j)} P(H∣E)P(E)P(H)P(E∣H)P(Bi∣A)∑iP(Bi)P(A∣Bi)P(Bi)P(A∣Bi)P(Hi∣E1E2⋯Em)j1∑nP(E1∣Hj)P(E2∣Hj)⋯P(Em∣Hj)P(Hj)P(E1∣Hi)P(E2∣Hi)⋯P(Em∣Hi)P(Hi) 3.5.2 主观贝叶斯? 相关公式 O(X)P(X)1−P(X)O(H∣E)LS⋅O(H)O(H∣¬E)LN⋅O(H)O(H∣S1,S2,⋯,Sn)O(H∣S1)O(H)⋅O(H∣S2)O(H)⋯O(H∣Sn)O(H)⋅O(H)O(X) \frac{P(X)}{1 - P(X)} \ O(H|E) LS \cdot O(H) \ O(H| \neg E) LN \cdot O(H) \ O(H|S_1, S_2, \cdots, S_n) \frac{O(H|S_1)}{O(H)} \cdot \frac{O(H|S_2)}{O(H)} \cdots \frac{O(H|S_n)}{O(H)} \cdot O(H) O(X)1−P(X)P(X)O(H∣E)LS⋅O(H)O(H∣¬E)LN⋅O(H)O(H∣S1,S2,⋯,Sn)O(H)O(H∣S1)⋅O(H)O(H∣S2)⋯O(H)O(H∣Sn)⋅O(H) EH公式 P(H∣S){P(H∣¬E)P(H)−P(H∣¬E)P(E)×P(E∣S)0≤P(E∣S)P(E)P(H)P(H∣E)−P(H)1−P(E)×(P(E∣S)−P(E))P(E)≤P(E∣S)≤1(1)P(H|S) \begin{cases} P(H| \neg E) \frac{P(H) - P(H|\neg E)}{P(E)} \times P(E|S) 0 \le P(E|S) \lt P(E) \ P(H) \frac{P(H|E) - P(H)}{1 - P(E)} \times (P(E|S) - P(E)) P(E) \le P(E|S) \le 1 \end{cases} \hspace{2em} (1) P(H∣S){P(H∣¬E)P(E)P(H)−P(H∣¬E)×P(E∣S)P(H)1−P(E)P(H∣E)−P(H)×(P(E∣S)−P(E))0≤P(E∣S)P(E)P(E)≤P(E∣S)≤1(1)
CP公式 P(H∣S){P(H∣¬E)(P(H)−P(H∣¬E))×(15C(E∣S)1)C(E∣S)≤0P(H)(P(H∣E)−P(H))×15C(E∣S)C(E∣S)0(2)P(H|S) \begin{cases} P(H| \neg E) (P(H) - P(H|\neg E)) \times (\frac{1}{5}C(E|S) 1) C(E|S) \le 0 \ P(H) (P(H|E) - P(H)) \times \frac{1}{5}C(E|S) C(E|S) \gt 0 \end{cases} \hspace{2em} (2) P(H∣S){P(H∣¬E)(P(H)−P(H∣¬E))×(51C(E∣S)1)P(H)(P(H∣E)−P(H))×51C(E∣S)C(E∣S)≤0C(E∣S)0(2)
根据第一张图得到P(E∣S)P(E|S)P(E∣S)与C(E∣S)C(E|S)C(E∣S)的关系记为式(3)(3)(3)
根据第二张图得到P(H∣S)P(H|S)P(H∣S)与P(E∣S)P(E|S)P(E∣S)的关系即为式(1)(1)(1)
将式(3)(3)(3)代入到式(1)(1)(1)中得到CP公式 3.5.3 ⭐️可信度方法
可信度表示知识或证据的不确定性范围[−1,1][-1,1][−1,1]
知识的不确定性表示
if E then H (CF(H, E)) CF(H,E)是该条知识的可信度称为可信度因子或规则强度它指出当前提条件 E 所对应的证据为真时它对结论为真的支持程度。 推理结论CF值计算 CF(H)CF(H,E)×max{0,CF(E)}CF(H) CF(H, E) \times max{0, CF(E) } CF(H)CF(H,E)×max{0,CF(E)} 重复结论CF值计算 ifE1thenH(CF(H,E1))ifE2thenH(CF(H,E2))则CF1,2(H){CF1(H)CF2(H)−CF1(H)×CF2(H)CF1(H)≥0,CF2(H)≥0CF1(H)CF2(H)CF1(H)×CF2(H)CF1(H)0,CF2(H)0CF1(H)CF2(H)1−min{∣CF1(H)∣,∣CF2(H)∣}CF1(H),CF2(H)异号if \hspace{1em} E_1 \hspace{1em} then \hspace{1em} H \hspace{1em} (CF(H,E_1)) \ if \hspace{1em} E_2 \hspace{1em} then \hspace{1em} H \hspace{1em} (CF(H,E2)) \ \text{则} CF{1,2}(H) \begin{cases} CF_1(H) CF_2(H) - CF_1(H) \times CF_2(H) CF_1(H) \ge 0, CF_2(H) \ge 0 \ CF_1(H) CF_2(H) CF_1(H) \times CF_2(H) CF_1(H) \lt 0, CF_2(H) \lt 0 \ \frac{CF_1(H) CF_2(H)}{1 - min{ |CF_1(H)|, |CF_2(H)|}} CF_1(H),CF2(H) \text{异号} \end{cases} ifE1thenH(CF(H,E1))ifE2thenH(CF(H,E2))则CF1,2(H)⎩⎨⎧CF1(H)CF2(H)−CF1(H)×CF2(H)CF1(H)CF2(H)CF1(H)×CF2(H)1−min{∣CF1(H)∣,∣CF2(H)∣}CF1(H)CF2(H)CF1(H)≥0,CF2(H)≥0CF1(H)0,CF2(H)0CF1(H),CF2(H)异号 4 计算智能
4.1 神经计算
神经网络三要素 神经元 为一个简单的线性阈值单元阈值逻辑单元TLU简单的单层前馈网络叫感知器多个输入通过f(∑i1nwixi−θ)f(\sum \limits{i 1}^n w_i x_i - \theta)f(i1∑nwixi−θ)输出fff称为变换函数θ\thetaθ称为阈值或偏差。 网络拓扑结构 递归反馈网络多个神经元之间组成一个互连神经网络前馈多层网络神经元之间不存在互连代表BP网络梯度下降法 学习算法 有师学习算法 无师学习算法无需知道期望输出 聚类算法 强化学习算法 遗传算法
感知器逻辑推理
可以解决AND, OR, NOT问题不可解决线性不可分问题例如XOR问题但XOR可以使用多层感知器网络前馈网络和递归网络实现
4.2 模糊计算
4.2.1 表示
A{(x,μA(x))∣x∈U}A { (x, \mu_A(x)) |x \in U } A{(x,μA(x))∣x∈U}
μA(x)\mu_A(x)μA(x) xxx对AAA的隶属度μA(x)∈[0,1]\muA(x) \in [0, 1]μA(x)∈[0,1]
表示 XXX为离散域 F∑i1nμF(x)/xA0/10.1⁄20.5⁄30.8/41/5或F{μF(u1),μF(u2),⋯,μF(un)}A{0,0.1,0.5,0.8,1}F \sum \limits{i 1}^n \mu _F(x) / x \hspace{1em} A 0/1 0.1⁄2 0.5⁄3 0.8 / 4 1⁄5 \ \text{或} \ F {\mu_F(u_1), \mu_F(u_2), \cdots, \mu_F(u_n) } \hspace{1em} A {0, 0.1, 0.5, 0.8, 1 } Fi1∑nμF(x)/xA0/10.1⁄20.5⁄30.8/41/5或F{μF(u1),μF(u2),⋯,μF(un)}A{0,0.1,0.5,0.8,1} XXX 为连续域 F∫XμF(x)/xF \int_X \mu_F(x) / x F∫XμF(x)/x
4.2.2 模糊运算 4.2.3 原理求解过程
模糊化模糊计算模糊统计法对比排序法专家评判法模糊判决解模糊重心法最大隶属度法系统加权平均法隶属度限幅元素平均法
4.3 ⭐️遗传算法
是一种模仿生物遗传学和自然选择机理的优化搜索算法是进化计算的一种重要的形式。有选择算子交叉算子变异算子。流程 初始化群体群体中的每一个个体都是染色体由二进制串组成所以算法中会牵扯到编码和解码操作计算所有个体的适应度适应度函数由用户自定义保证适应度大的个体质量更好选择选择方法一般有赌轮选择和联赛选择。赌轮选择每个个体有一个选择的概率可以定为个体的适应度除以群体总的适应度产生随机数选择一个个体。联赛选择随机选择m个个体选择适应度最大的个体。选择之后要进行解码操作。以某一概率进行交叉。交叉分为一点交叉和两点交叉以某一概率进行突变直至满足某种停止条件否则一直进行适应度计算往下的操作输出适应度最优的染色体作为最优解
4.4 ⭐️粒群优化算法?
迭代公式
速度更新公式 v(t1)wv(t)c1rand()(pi−x(t))c2rand()(pg−x(t))v(t 1) wv(t) c_1rand() (p_i - x(t)) c_2rand()(p_g - x(t)) v(t1)wv(t)c1rand()(pi−x(t))c2rand()(pg−x(t)) www 惯性权重c1,c2c_1,c_2c1,c2 加速常数pip_ipi 个体极值pgp_gpg 全局极值 位置更新公式x(t1)x(t)v(t1)x(t 1) x(t) v(t 1)x(t1)x(t)v(t1)
5 机器学习
5.1 归纳学习
分为
有师学习示例学习无师学习观察发现学习
5.2 神经网络学习
BP算法反向传播算法
学习过程正向传播 反向传播
5.3 深度学习
定义将神经-中枢-大脑的工作原理设计成一个不断迭代、不断抽象的过程以便得到最优数据特征表示的机器学习算法
卷积神经网络
神经元之间非全连接同一层神经元之间采用权值共享的方式
优点
采用非线性处理单元组成的多层结构分为有监督学习和无监督学习学习无标签数据优势明显
常用模型
自动编码器无监督学习受限玻尔兹曼机学习概率分布的一个随机生成神经网络限定模型必须为二分图深度信念网络靠近可视层部分使用贝叶斯信念网络卷积神经网络多个卷积层和全连接层组成
5.4 ⭐️决策树 可参考https://wyqz.top/p/808139430.html#toc-heading-34 信息熵 Ent(X)−∑pilog2pii 1, 2, …, nEnt(X) - \sum p_i log_2 pi \hspace{2em} \text{i 1, 2, …, n} Ent(X)−∑pilog2pii 1, 2, …, n 信息增益 表示特征XXX使得类YYY的不确定性减少的程度熵值减少即当前划分对信息熵所造成的变化。
信息增益越大表示特征a来划分所减少的熵最大即提升最大应当作为根节点。 Gain(S,A)Ent(S)−∑v∈values(A)∣Sv∣∣S∣Ent(Sv)Gain(S, A) Ent(S) - \sum \limits{v \in values(A)} \frac{|S_v|}{|S|} Ent(S_v) Gain(S,A)Ent(S)−v∈values(A)∑∣S∣∣Sv∣Ent(Sv)
基于信息增益的ID3算法的实例
我们有14天的数据4个特征条件天气温度湿度是否有风。最终结果是去玩不玩。 上面有四种划分方式我们需要判断谁来当根节点根据的主要就是信息增益这个指标。下面计算信息增益来判断根节点。
总的数据中9天玩5天不玩熵值为 −914log2914−514log25140.940-\frac{9}{14}log_2 \frac{9}{14} - \frac{5}{14}log_2 \frac{5}{14} 0.940 −149log2149−145log21450.940 本例暂且以ent(a, b)代表以下含义只有两种结果的时候的熵值计算
from math import log2
def ent(a, b):tot a bx, y a / tot, b / totreturn -(x * log2(x) y * log2(y))然后对4个特征逐个分析 outlook outlook sunny时熵值为0.971取值为sunny的概率为 514\frac{5}{14}145outlook overcast时熵值为0取值为overcast的概率为 414\frac{4}{14}144outlook rainy时熵值为0.971取值为rainy的概率为 514\frac{5}{14}145 熵值为 514×0.971414×0514×0.9710.693\frac{5}{14} \times 0.971 \frac{4}{14} \times 0 \frac{5}{14} \times 0.971 0.693 145×0.971144×0145×0.9710.693 信息增益系统熵值从0.940下降到0.693增益为0.247。 temperture temperture hot时熵值为1.0ent(2, 2)取值为hot的概率为414\frac{4}{14}144temperture mild时熵值为0.918ent(4, 2)取值为mild的概率为614\frac{6}{14}146temperture cool时熵值为0.81ent(3,1)取值为cool的概率为414\frac{4}{14}144 熵值为 414×1.0614×0.918414×0.810.911\frac{4}{14} \times 1.0 \frac{6}{14} \times 0.918 \frac{4}{14} \times 0.81 0.911 144×1.0146×0.918144×0.810.911 信息增益Gain(S,temperture)0.940−0.9110.029Gain(S, temperture) 0.940 - 0.911 0.029Gain(S,temperture)0.940−0.9110.029
Gain(SOutlook)0.247Gain(S,Humidity)0.151Gain(S,Wind)0.048Gain(S,Temperature)0.029Gain(SOutlook)0.247 \ Gain(S, Humidity)0.151 \ Gain(S, Wind)0 .048 \ Gain(S,Temperature)0 .029 Gain(SOutlook)0.247Gain(S,Humidity)0.151Gain(S,Wind)0.048Gain(S,Temperature)0.029
计算出所有的信息增益之后选择有最大的信息增益的特征作为根节点。
下面找Sunny分支的决策树划分
总的熵值 −25×log2(25)−35log2(35)0.97-\frac{2}{5} \times log_2(\frac{2}{5}) - \frac{3}{5}log_2(\frac{3}{5}) 0.97 −52×log2(52)−53log2(53)0.97 以剩下的三个特征进行分析 temperture temperturehot熵值为0概率为25\frac{2}{5}52temperturemild熵值为1.0概率为25\frac{2}{5}52temperturecool熵值为0概率为15\frac{1}{5}51 熵值为25\frac{2}{5}52 信息增益0.97−0.40.570.97-0.4 0.570.97−0.40.57 humidity high熵值为0概率为35\frac{3}{5}53normal熵值为1概率为25\frac{2}{5}52 熵值为25\frac{2}{5}52 信息增益0.97−0.40.570.97 - 0.4 0.570.97−0.40.57 windy false熵值为0.918概率为35\frac{3}{5}53true熵值为1概率为25\frac{2}{5}52 熵值为0.9510.9510.951 信息增益0.97−0.950.020.97 - 0.95 0.020.97−0.950.02
故选择humidy或temperture划分
剩下的划分同理
最终决策树
- 上一篇: 达内网站开发荆州网站建设 众火网
- 下一篇: 达州网站建设qinsanw优秀建筑设计案例
相关文章
-
达内网站开发荆州网站建设 众火网
达内网站开发荆州网站建设 众火网
- 技术栈
- 2026年03月21日
-
搭建专业网站服务器seo技术顾问
搭建专业网站服务器seo技术顾问
- 技术栈
- 2026年03月21日
-
搭建邮箱注册网站网页设计与网站建设的概述
搭建邮箱注册网站网页设计与网站建设的概述
- 技术栈
- 2026年03月21日
-
达州网站建设qinsanw优秀建筑设计案例
达州网站建设qinsanw优秀建筑设计案例
- 技术栈
- 2026年03月21日
-
达州网站开发qinsanw免费培训机构管理系统
达州网站开发qinsanw免费培训机构管理系统
- 技术栈
- 2026年03月21日
-
答题助手网站怎么做的做网站需要一些什么工具
答题助手网站怎么做的做网站需要一些什么工具
- 技术栈
- 2026年03月21日






