做外贸网站选择服务器产品网页的制作

web/2025/10/6 13:06:27/文章来源:
做外贸网站选择服务器,产品网页的制作,wordpress企业模板破解,wordpress忘记后台账号文章目录1 前言2 Log-linear model3 MEMM3.1 模型概述3.2 label bias问题4 CRF4.1 模型概述4.2 模型训练4.3 模型解码4.4 小结参考资料1 前言 条件随机场(conditional random field, CRF)是在建立序列模型时的常用模块#xff0c;它的本质就是描述观测到的序列xˉ\bar{x}xˉ对… 文章目录1 前言2 Log-linear model3 MEMM3.1 模型概述3.2 label bias问题4 CRF4.1 模型概述4.2 模型训练4.3 模型解码4.4 小结参考资料1 前言 条件随机场(conditional random field, CRF)是在建立序列模型时的常用模块它的本质就是描述观测到的序列xˉ\bar{x}xˉ对应的状态序列yˉ\bar{y}yˉ​的概率记作P(yˉ∣xˉ)P(\bar{y}|\bar{x})P(yˉ​∣xˉ)。这里字符上的横线表示这是一个序列下文中所有的序列都会带这个横线不带横线就不是序列。 它是HMM的升级版如果不熟悉HMM的话建议看我的搞懂HMM这篇文章不看那篇直接看这篇关系也不大。 提出CRF是为了改进MEMM(maximum-entropy Markov model)的label bias问题而提出MEMM是为了打破HMM的观测独立性假设。这些在下文中会进一步说明。 本文主要是参考了Log-Linear Models, MEMMs, and CRFs其中会额外补充一些东西并加入自己的一些理解。 2 Log-linear model CRF的源头就是Log-linear model是由它一点点改进过来的。 我们先假设观测变量为xxx观测集合为XXX有x∈Xx \in Xx∈X比如xxx是一个单词状态变量为yyy状态集合为YYY有y∈Yy \in Yy∈Y比如yyy是某种词性提取特征的函数向量为ϕˉ(x,y)\bar{\phi}(x, y)ϕˉ​(x,y)这里带了横线表示有多个函数函数之间的权重为wˉ\bar{w}wˉ。那么在给定xxx的情况下yyy的概率为比如单词xxx是词性yyy的概率 p(y∣x;wˉ)exp(wˉ⋅ϕˉ(x,y))∑y′∈Yexp(wˉ⋅ϕˉ(x,y′))(2-1)p(y|x;\bar{w}) \frac{exp(\bar{w} \cdot \bar{\phi}(x, y))}{\sum_{y \in Y} exp(\bar{w} \cdot \bar{\phi}(x, y))} \tag{2-1} p(y∣x;wˉ)∑y′∈Y​exp(wˉ⋅ϕˉ​(x,y′))exp(wˉ⋅ϕˉ​(x,y))​(2-1) 式(2−1)(2-1)(2−1)的分子表示给定xxx时yyy取某个值时的指数计算式分母表示表示给定xxx时yyy取所有情况的指数计算式之和。说白了就是一个归一化的操作。 使用指数expexpexp是为了保证概率都是正的wˉ⋅ϕˉ(x,y)\bar{w} \cdot \bar{\phi}(x, y)wˉ⋅ϕˉ​(x,y)可正可负。 显而易见在这种定义下可以保证 ∑y∈Yp(y∣x;wˉ)1(2-2)\sum_{y \in Y} p(y|x;\bar{w}) 1 \tag{2-2} y∈Y∑​p(y∣x;wˉ)1(2-2) 假设我们有nnn组有标签的数据{(xi,yi)}i1n\{(x_i, y_i)\}_{i1}^{n}{(xi​,yi​)}i1n​这里还没有涉及到序列可以理解为一个单词xix_ixi​对应一个词性yiy_iyi​的数据集。 我们的目的是调整模型的参数wˉ\bar{w}wˉ使得出现数据集这样的标签对应情况的可能性最大也就是 wˉ∗argmax⁡wˉ∏i1np(yi∣xi;wˉ)(2-3)\bar{w}^* arg \max_{\bar{w}} \prod_{i1}^n p(y_i|x_i;\bar{w}) \tag{2-3} wˉ∗argwˉmax​i1∏n​p(yi​∣xi​;wˉ)(2-3) 为了方便计算通常会取对数即 wˉ∗argmax⁡wˉ∑i1nlog(p(yi∣xi;wˉ))(2-4)\bar{w}^* arg \max_{\bar{w}} \sum_{i1}^n log(p(y_i|x_i;\bar{w})) \tag{2-4} wˉ∗argwˉmax​i1∑n​log(p(yi​∣xi​;wˉ))(2-4) 通常为了不让模型学偏把wˉ\bar{w}wˉ学的特别大来糊弄过去还会加一个正则项 wˉ∗argmax⁡wˉ∑i1nlog(p(yi∣xi;wˉ))−λ2∣∣wˉ∣∣2(2-5)\bar{w}^* arg \max_{\bar{w}} \sum_{i1}^n log(p(y_i|x_i;\bar{w})) - \frac{\lambda}{2}||\bar{w}||^2\tag{2-5} wˉ∗argwˉmax​i1∑n​log(p(yi​∣xi​;wˉ))−2λ​∣∣wˉ∣∣2(2-5) 这也就是损失函数有了损失函数之后就可以用梯度下降的方法求参数wˉ∗\bar{w}^*wˉ∗了。 这只是针对于非序列的数据集。 3 MEMM 3.1 模型概述 MEMM(maximum-entropy Markov model)进一步将问题从p(y∣x)p(y|x)p(y∣x)转变为p(yˉ∣xˉ)p(\bar{y}|\bar{x})p(yˉ​∣xˉ)也可以写成 p(y1,y2,...,ym∣x1,x2,...,xm)(3-1)p(y^1, y^2, ..., y^m|x^1, x^2, ..., x^m) \tag{3-1} p(y1,y2,...,ym∣x1,x2,...,xm)(3-1) 其中xjx^jxj表示序列中的第jjj个token比如一句话中的第jjj个单词yjy^jyj表示序列中的第jjj个标签比如一句话中的第jjj个单词的词性mmm表示序列的长度。 用YYY表示所有可能的标签集合这是一个有限的集合yj∈Yy^j \in Yyj∈Y。 将式(3−1)(3-1)(3−1)用条件概率进行变换就有 p(y1,y2,...,ym∣x1,x2,...,xm)∏j1mp(yj∣y1,...,yj−1,x1,...,xm)(3-2)p(y^1, y^2, ..., y^m|x^1, x^2, ..., x^m) \prod_{j1}^m p(y^j|y^1, ..., y^{j-1}, x^1, ..., x^m) \tag{3-2} p(y1,y2,...,ym∣x1,x2,...,xm)j1∏m​p(yj∣y1,...,yj−1,x1,...,xm)(3-2) 式(3−2)(3-2)(3−2)仅仅是一堆条件概率这是必然成立的没有任何假设。我们如果把HMM中的齐次马尔可夫假设放到这里来认为yjy^jyj只受yj−1y^{j-1}yj−1的影响那么就有 p(y1,y2,...,ym∣x1,x2,...,xm)∏j1mp(yj∣yj−1,x1,...,xm)(3-3)p(y^1, y^2, ..., y^m|x^1, x^2, ..., x^m) \prod_{j1}^m p(y^j|y^{j-1}, x^1, ..., x^m) \tag{3-3} p(y1,y2,...,ym∣x1,x2,...,xm)j1∏m​p(yj∣yj−1,x1,...,xm)(3-3) 这里仍旧认为yjy^jyj受所有xjx^jxj的影响这就打破了HMM中的观测独立假设。这是一个在很多任务中不合理的假设所以MEMM算是对HMM做了改进。画成概率图就是 图3-1 MEMM概率图有很多的CRF的文章都是从概率图开始讲的但其实根本没有必要不是先有了图3-1才有了式(3−3)(3-3)(3−3)而是先有了式(3−3)(3-3)(3−3)才有了图3-1图3-1仅仅只是让式(3−1)(3-1)(3−1)看起来更方便了。不知道概率图一点关系都没有。 不过既然画了概率图也顺嘴说一句MEMM的概率图和HMM的概率图的区别就在于xxx的箭头方向反了从生成模型变成了判别式模型以及MEMM是所有的xxx指向每一个yjy^jyj而HMM是xjx^jxj指向yjy^jyj打破了观测独立假设。 好回到式(3−3)(3-3)(3−3)利用log-linear model进行建模就有 p(yj∣yj−1,x1,...,xm)exp(wˉ⋅ϕˉ(x1,...,xm,j,yj−1,yj))∑y′∈Yexp(wˉ⋅ϕˉ(x1,...,xm,j,yj−1,y′))(3-4)p(y^j|y^{j-1}, x_1, ..., x_m) \frac{exp(\bar{w} \cdot \bar{\phi}(x^1,...,x^m, j, y^{j-1}, y^{j}))}{\sum_{y \in Y} exp(\bar{w} \cdot \bar{\phi}(x^1,...,x^m, j, y^{j-1}, y))} \tag{3-4} p(yj∣yj−1,x1​,...,xm​)∑y′∈Y​exp(wˉ⋅ϕˉ​(x1,...,xm,j,yj−1,y′))exp(wˉ⋅ϕˉ​(x1,...,xm,j,yj−1,yj))​(3-4) 注意对比一下式(3−4)(3-4)(3−4)和式(2−1)(2-1)(2−1)的区别就是条件概率中的条件变了。 将式(3−4)(3-4)(3−4)代入式(3−3)(3-3)(3−3)就有 p(y1,y2,...,ym∣x1,x2,...,xm)∏j1mexp(wˉ⋅ϕˉ(x1,...,xm,j,yj−1,yj))∑y′∈Yexp(wˉ⋅ϕˉ(x1,...,xm,j,yj−1,y′))(3-5)p(y^1, y^2, ..., y^m|x^1, x^2, ..., x^m) \\ \prod_{j1}^m \frac{exp(\bar{w} \cdot \bar{\phi}(x^1,...,x^m, j, y^{j-1}, y^{j}))}{\sum_{y \in Y} exp(\bar{w} \cdot \bar{\phi}(x^1,...,x^m, j, y^{j-1}, y))} \tag{3-5} p(y1,y2,...,ym∣x1,x2,...,xm)j1∏m​∑y′∈Y​exp(wˉ⋅ϕˉ​(x1,...,xm,j,yj−1,y′))exp(wˉ⋅ϕˉ​(x1,...,xm,j,yj−1,yj))​(3-5) 这里在训练模型的时候不是拿式(3−5)(3-5)(3−5)这个大家伙去训练的而是训练p(yj∣yj−1,x1,...,xm)p(y^j|y^{j-1}, x_1, ..., x_m)p(yj∣yj−1,x1​,...,xm​)这个模型。 有了p(yj∣yj−1,x1,...,xm)p(y^j|y^{j-1}, x_1, ..., x_m)p(yj∣yj−1,x1​,...,xm​)之后任何的xxx和yj−1y^{j-1}yj−1yjy^jyj进来都可以输出一个概率值问题就变成了如何decoding如何推理即求 argmax⁡y1,..,ymp(y1,..,ym∣x1,...,xm)(3-6)arg\max_{y^1, .., y^m} p(y_1, .., y^m | x^1, ..., x^m) \tag{3-6} argy1,..,ymmax​p(y1​,..,ym∣x1,...,xm)(3-6) 如果我们假设YYY集合中有kkk个元素的话那么y1,...,ymy^1, ..., y^my1,...,ym就有kmk^mkm种组合这样的计算量就太大了。这个时候就要用动态规划了这里的动态规划有一个自己的名字叫做viterbi算法其实就是动态规划。 我们会建立一个矩阵π[j,y]\pi [j, y]π[j,y]j1,...,mj1,...,mj1,...,m并且y∈Yy \in Yy∈Y。π[j,y]\pi [j, y]π[j,y]存储了在第jjj个位置状态取yyy时的最大概率值和得到该概率值的序列y1,..,yjy^1, .., y^jy1,..,yj。可以表示为 π[j,y]max⁡y1,...,yj−1(p(y∣yj−1,x1,...,xm)∏k1j−1p(yk∣yk−1,x1,...,xm))(3-7)\pi[j, y] \max_{y^1, ..., y^{j-1}}(p(y|y^{j-1}, x^1, ..., x^m) \prod_{k1}^{j-1}p(y^k|y^{k-1}, x^1, ..., x^m)) \tag{3-7} π[j,y]y1,...,yj−1max​(p(y∣yj−1,x1,...,xm)k1∏j−1​p(yk∣yk−1,x1,...,xm))(3-7) 其中最开始的为初始变量相当于HMM中的初始概率 π[1,y]p(y∣y0,x1,...,xm)(3-8)\pi[1, y] p(y | y^0, x^1, ..., x^m) \tag{3-8} π[1,y]p(y∣y0,x1,...,xm)(3-8) y0y^0y0就是START这样的起始token。 之后是通过迭代得到的 π[j,y]max⁡y′∈Y(π[j−1,y′]⋅p(y∣y′,x1,...,xm))(3-9)\pi[j, y] \max_{y \in Y}(\pi[j-1, y] \cdot p(y|y, x^1, ..., x^m)) \tag{3-9} π[j,y]y′∈Ymax​(π[j−1,y′]⋅p(y∣y′,x1,...,xm))(3-9) 将π[j,y]\pi[j, y]π[j,y]这个矩阵填满之后就有 max⁡y1,...,ymp(y1,...,ym∣x1,...,xm)max⁡yπ[m,y](3-10)\max_{y^1, ..., y^m}p(y^1, ..., y^m | x^1, ..., x^m) \max_{y} \pi[m, y] \tag{3-10} y1,...,ymmax​p(y1,...,ym∣x1,...,xm)ymax​π[m,y](3-10) MEMM相比于HMM的优势在于 观测变量不再独立可以自行设计ϕˉ\bar{\phi}ϕˉ​对结果更可控 3.2 label bias问题 MEMM也存在自身的问题这个问题被称为label bias问题故名思义这是由于训练数据标签的不平衡所导致的如果训练数据足够大标签足够平衡就没有这个问题。出现这个问题的根本原因就是p(yj∣yj−1,x1,...,xm)p(y^j|y^{j-1}, x^1, ..., x^m)p(yj∣yj−1,x1,...,xm)是在每个时间节点都做了一次归一化丢失了一些信息。 下面举个例子来试着说明一下只要有一个直观的理解就可以了不要太纠结例子的合理性。 假设我们通过训练得到了下图3-2这样的一张概率值推理图我们输入[“the”, “cat”, “sat”]可以发现[“ARTICLE”, “NOUN”, “VERB”]这样的概率是最高的有1.0∗0.9∗1.00.91.0*0.9*1.00.91.0∗0.9∗1.00.9。 图3-2 概率值推理图但是当我们的输入是[“cat”, “sat”]的时候就会发现[“NOUN”, “VERB”]的概率只有0.1∗1.00.10.1*1.00.10.1∗1.00.1而[“ARTICLE”, “NOUN”]的概率有0.9∗0.30.270.9*0.30.270.9∗0.30.27。这是因为以cat为开头的句子模型见的很少。如果可以在计算当中把模型见的很少这个信息也带上的就可以避免这个问题了。 下面来看下图3-2对应的逻辑图如下图3-3所示就是没有归一化的图。 图3-3 逻辑值推理图归一化是exe^xex这样的指数归一化可以动手算下看是和图3-2的概率值对应上的。这里[“cat”, “sat”]这个例子的[“NOUN”, “VERB”]就是310010331001033100103而[“ARTICLE”, “NOUN”]就变成了521265212652126。用加法是因为这里都是log值。 这里就说这么多只是给个直观的理解想要细究的可以看下The Label Bias Problem或是自行搜一下其他大佬是怎么说的。 4 CRF 4.1 模型概述 有了前面那么多的铺垫CRF(conditional random filed)就很容易理解了。MEMM是对式(3−4)(3-4)(3−4)进行建模而CRF是对式(4−1)(4-1)(4−1)进行建模 p(y1,...,ym∣x1,...,xm)p(yˉ∣xˉ)(4-1)p(y^1, ..., y^m|x^1, ..., x^m) p(\bar{y}|\bar{x}) \tag{4-1} p(y1,...,ym∣x1,...,xm)p(yˉ​∣xˉ)(4-1) 注意式(2−1)(2-1)(2−1)式(3−4)(3-4)(3−4)和式(4−1)(4-1)(4−1)的区别。CRF没有局部的归一化了只有全局的归一化说白了就是一个考虑序列的log-linear模型。 p(yˉ∣xˉ;wˉ)exp(wˉ⋅Φˉ(xˉ,yˉ))∑yˉ′∈Ymexp(wˉ⋅Φˉ(xˉ,yˉ′))(4-2)p(\bar{y}|\bar{x};\bar{w}) \frac{exp(\bar{w} \cdot \bar{\Phi}(\bar{x}, \bar{y}))}{\sum_{\bar{y} \in Y^m} exp(\bar{w} \cdot \bar{\Phi}(\bar{x}, \bar{y}))} \tag{4-2} p(yˉ​∣xˉ;wˉ)∑yˉ​′∈Ym​exp(wˉ⋅Φˉ(xˉ,yˉ​′))exp(wˉ⋅Φˉ(xˉ,yˉ​))​(4-2) 其中YmY^mYm表示用YYY中的元素组成长度为mmm的序列的所有可能的序列集合。 这里还把ϕˉ\bar{\phi}ϕˉ​变成了Φˉ\bar{\Phi}ΦˉΦˉ\bar{\Phi}Φˉ的定义为 Φˉ(xˉ,yˉ)∑j1mϕˉ(xˉ,j,yj−1,yj)(4-3)\bar{\Phi}(\bar{x}, \bar{y}) \sum_{j1}^{m} \bar{\phi}(\bar{x}, j, y^{j-1}, y^{j}) \tag{4-3} Φˉ(xˉ,yˉ​)j1∑m​ϕˉ​(xˉ,j,yj−1,yj)(4-3) 这里的ϕˉ(xˉ,j,yj−1,yj)\bar{\phi}(\bar{x}, j, y_{j-1}, y^{j})ϕˉ​(xˉ,j,yj−1​,yj)和MEMM中的是一模一样的都是人为定义的特征函数。只不过是把整个序列的都加到了一起。 CRF的概率图模型如下图4-1所示它和图3-1的区别是yjy^jyj之间变成了无向图。还是那句话不看这个图也没问题。 图4-1 CRF概率图4.2 模型训练 CRF的模型训练和log-linear模型的方法基本一致。简而言之就是我们有nnn条训练样本{(xˉi,yˉi)}i1n\{(\bar{x}_i, \bar{y}_i)\}_{i1}^n{(xˉi​,yˉ​i​)}i1n​每个xˉi\bar{x}_ixˉi​都是序列xi1,...,ximx_i^{1}, ..., x_i^{m}xi1​,...,xim​每个yˉi\bar{y}_iyˉ​i​也都是序列yi1,...,yimy_i^{1}, ..., y_i^{m}yi1​,...,yim​。 其目标函数为 wˉ∗argmax⁡wˉ∑i1nlog(p(yˉi∣xˉi;wˉ))−λ2∣∣wˉ∣∣2(4-4)\bar{w}^* arg \max_{\bar{w}} \sum_{i1}^n log(p(\bar{y}_i|\bar{x}_i;\bar{w})) - \frac{\lambda}{2}||\bar{w}||^2 \tag{4-4} wˉ∗argwˉmax​i1∑n​log(p(yˉ​i​∣xˉi​;wˉ))−2λ​∣∣wˉ∣∣2(4-4) 接下来的任务就交给梯度下降就可以了。 4.3 模型解码 CRF进行decoding目标是 argmax⁡yˉ∈Ymp(yˉ∣xˉ;wˉ)argmax⁡yˉ∈Ymexp(wˉ⋅Φˉ(xˉ,yˉ))∑y′∈Yexp(wˉ⋅Φˉ(xˉ,yˉ′))argmax⁡yˉ∈Ymexp(wˉ⋅Φˉ(xˉ,yˉ))argmax⁡yˉ∈Ymwˉ⋅Φˉ(xˉ,yˉ)argmax⁡yˉ∈Ym∑j1mwˉ⋅ϕˉ(xˉ,j,yj−1,yj)(4-5)\begin{aligned} arg\max_{\bar{y} \in Y^m} p(\bar{y}|\bar{x};\bar{w}) arg\max_{\bar{y} \in Y^m} \frac{exp(\bar{w} \cdot \bar{\Phi}(\bar{x}, \bar{y}))}{\sum_{y \in Y} exp(\bar{w} \cdot \bar{\Phi}(\bar{x}, \bar{y}))} \\ arg\max_{\bar{y} \in Y^m} exp(\bar{w} \cdot \bar{\Phi}(\bar{x}, \bar{y}))\\ arg\max_{\bar{y} \in Y^m} \bar{w} \cdot \bar{\Phi}(\bar{x}, \bar{y}) \\ arg\max_{\bar{y} \in Y^m} \sum_{j1}^{m} \bar{w} \cdot \bar{\phi}(\bar{x}, j, y^{j-1}, y^{j}) \end{aligned} \tag{4-5} argyˉ​∈Ymmax​p(yˉ​∣xˉ;wˉ)​argyˉ​∈Ymmax​∑y′∈Y​exp(wˉ⋅Φˉ(xˉ,yˉ​′))exp(wˉ⋅Φˉ(xˉ,yˉ​))​argyˉ​∈Ymmax​exp(wˉ⋅Φˉ(xˉ,yˉ​))argyˉ​∈Ymmax​wˉ⋅Φˉ(xˉ,yˉ​)argyˉ​∈Ymmax​j1∑m​wˉ⋅ϕˉ​(xˉ,j,yj−1,yj)​(4-5) ϕˉ(xˉ,j,yj−1,yj)\bar{\phi}(\bar{x}, j, y^{j-1}, y^{j})ϕˉ​(xˉ,j,yj−1,yj)有一部分是和yj−1y^{j-1}yj−1有关的称为转移特征还有一部分是和yj−1y^{j-1}yj−1无关的称为状态特征。这里杂到一起了可以不用关心。 解码的方法还是用的动态规划同样定义一个π[j,s]\pi[j, s]π[j,s]。 初始概率为 π[1,y]wˉ⋅ϕˉ(xˉ,1,y0,y)(4-6)\pi[1, y] \bar{w} \cdot \bar{\phi}(\bar{x}, 1, y^{0}, y) \tag{4-6} π[1,y]wˉ⋅ϕˉ​(xˉ,1,y0,y)(4-6) 概率的迭代式为 π[j,y]max⁡y′∈Y(π[j−1,y′]wˉ⋅ϕˉ(xˉ,j,y′,y))(4-6)\pi[j, y] \max_{y \in Y} (\pi [j-1, y] \bar{w} \cdot \bar{\phi}(\bar{x}, j, y, y)) \tag{4-6} π[j,y]y′∈Ymax​(π[j−1,y′]wˉ⋅ϕˉ​(xˉ,j,y′,y))(4-6) 求出所有的π[j,y]\pi[j, y]π[j,y]之后就可以得到概率最大的那条路径 max⁡y1,...,ym∑j1mwˉ⋅ϕ(xˉ,j,yj−1,yj)max⁡yπ[m,s](4-7)\max_{y^1, ..., y^m} \sum_{j1}^{m} \bar{w} \cdot \phi (\bar{x}, j, y^{j-1}, y^j) \max_{y} \pi[m, s] \tag{4-7} y1,...,ymmax​j1∑m​wˉ⋅ϕ(xˉ,j,yj−1,yj)ymax​π[m,s](4-7) 4.4 小结 CRF既解决了HMM观测独立不合理的问题也解决的MEMM中label bias的问题并且可以手动加入特征函数来干预模型的输出有些不可能的情况可以手动把转移概率设得很小即可。 一般会把CRF加在Bi-LSTM之后让序列模型的输出更可控。如果数据够多且够均衡的话CRF也是可以不加的。 参考资料 [1] Log-Linear Models, MEMMs, and CRFs [2] https://anxiang1836.github.io/2019/11/05/NLP_From_HMM_to_CRF/ [3] https://pytorch.org/tutorials/beginner/nlp/advanced_tutorial.html [4] https://www.bilibili.com/video/BV19t411R7QU?p4share_sourcecopy_web [5] The Label Bias Problem

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/87926.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

上传网站代码wordpress重写插件

本题来源---《删除链表中重复元素》。 题目描述 给定一个已排序的链表的头 head , 删除所有重复的元素,使每个元素只出现一次 。返回已排序的链表 。 示例 1: 输入:head [1,1,2] 输出:[1,2]示例 2: 输入…

活动策划网站有哪些深圳市手机网站建设

2011年6月份考试授课计划安排,欢迎合作。 5月1日 - 5月3日: 考试相关事项;项目管理框架概述;PMBOK知识体系串讲(项目管理5大过程组和9大知识领域) 5月14日-15日:综合知识案例讲解;考点、重点、难…

城市建设的网站 政策法规十大互联网装修平台

题目: 返回一个二维整数数组中最大联通子数组的和。 要求: 1. 输入一个二维整形数组,数组里有正数也有负数。 求所有子数组的和的最大值。要求时间复杂度为O(n)。 2.程序要使用的数组放在一个叫 input.txt 的文件中, 文件格式是: 数组的行…

利用别人域名做自己的网站计算机语言python

一.利用写好的数据库表生成创建表的sql语句 1.简单创建一个数据库,并建一个表,并编辑数据。 a.建库 b.建表 c.编辑表,保存时输入表名 d.刷新一下,出来了 e.转存导出sql文件。 二.利用生成的数据库创建表加同步数据sql。…

甘肃兰州网站建设查域名服务商

一.区分低级编程语言和高级编程语言的方法 1.低级编程语言 低级编程语言,并不是简单的编程语言,而是写起来很费事的编程语言,如所有编程语言的"祖宗":汇编语言,写起来极其麻烦,说不定一个 int a1; 它就得写好几行,甚至十几行 这样麻烦的编程语言为什么还没消失那,因…

呼和浩特网站制作制作移动端网站价格

摘要:玩 High API 系列好文:UGC内容检测、视频智能、拍照翻译、懂天气的草地喷水头 导读:初创公司可以利用API来解决问题。了解更多场景如何玩High API?如何将API变现?请下载阿里云 API Playbook(免费下载&…

自动建设网站系统企业运营管理平台

在写ajax加载数据的时候发现,后面添加进来的demo节点元素,失去了之前的点击事件。为什么点击事件失效,我们该怎么去解决呢?其实最简单的方法就是直接在标签中写οnclick””,但是这样写其实是有点low的,最好的方式还是…

公司内部网站页面设计泰安网站的建设

智能车主控板原理图原理讲解 综述:本篇文章对智能车主控板的一部分电路进行原理分析,文末附加整体原理图。 1. 电源电路 (1)通过外接电池供电并通过电源模块电路,运用稳压芯片lm2940,将电源电压转化为5V…

免费的网站关键词查询工具wordpress相册滑动

在利用docker部署完应用程序后,就接着考虑如何将程序连接到数据库。 但是过程中发现一些问题: 本地程序在打包后连接的是本地的数据库,在服务器上部署之后必须提供相同的环境才能部署成功。 这里博主用的是宝塔安装的mysql,并尝…

心海建站学好网页设计与网站建设的意义

目录 一、POS架构 二、OES架构 三、POS架构与OES架构的差异 四、各自的典型示例 POS架构典型示例 OES架构典型示例 示例分析 五、各自的典型企业 POS架构典型企业 OES架构典型企业 分析 六、各自典型的流程 POS架构的典型流程 OES架构的典型流程 企业流程架构模式…

网站在百度的图标显示不正常显示wordpress装饰模板排名

这边我会简单介绍一下聊天室的组成部分,和思路的引导 涉及知识点 java 中异常处理机制 和 io流和网络编程socket 简单回顾异常机制 Java中的异常机制是一种用于处理程序运行期间出现的错误或异常情况的机制。这种机制允许程序员定义在特定情况下可能发生的错误,并…

网站建设将来有什么发展西宁哪家网络公司做网站

#输入三个整数x,y,z,请把这三个数由小到大输出。 l [] for i in range(3): x int(input(‘integer:\n’)) l.append(x) l.sort() print (l)

专业网站建设品牌策网站关键词怎么改

文章目录 IndexError1. tuple index out of rangea. 示例代码b.报错原因c.解决方案 TypeError1. len() of a 0-d tensora. 示例代码b.报错原因c.解决方案 RuntimeError1. output with shape … doesnt match the broadcast shape …a. 示例代码b.报错原因c.解决方案 2. Cant ca…

重庆技术网站建设做视频点播网站

json比较可读&#xff0c;通过键值对返回。实现通常有两种方式:一种是自己来构造&#xff0c;也就是用一个对象存储数据&#xff0c;在最后输出时将其json字符串化&#xff1b;第二种是使用 RestController 注解实现json数据返回。 第一种 导入依赖坐标&#xff1a; <depe…

网站开发时做ps合成的网站

HCIA-Datacom实验指导手册&#xff1a;7 构建简单 IPv6 网络 一、实验介绍&#xff1a;二、实验拓扑&#xff1a;三、实验目的&#xff1a;四、配置步骤&#xff1a;步骤 1 设备基础配置设备命名 步骤 2 配置设备及接口 IPv6 功能步骤 3 配置接口的 link-local 地址&#xff0c…

广州营销型网站手机网站建设的整体流程

6.3 StringRedisTemplate 尽管JSON的序列化方式可以满足我们的需求&#xff0c;但依然存在一些问题&#xff0c;如图&#xff1a; 为了在反序列化时知道对象的类型&#xff0c;JSON序列化器会将类的class类型写入json结果中&#xff0c;存入Redis&#xff0c;会带来额外的内存…

开发一个微信小程序价格安卓神级系统优化工具

Linux系统日志主要有以下几种类型&#xff1a; 内核及系统日志&#xff1a;这种日志数据由系统服务rsyslog统一管理&#xff0c;根据其主配置文件/etc/rsyslog.conf中设置决定内核消息及各种系统程序消息记录到什么位置。/var/log/message&#xff1a;该日志文件存放了内核消息…

宽屏大气通用企业网站源码asp模板源码程序生成静态html哈尔滨市建设安全监察网站

梅赛德斯-奔驰是世界闻名的豪华汽车品牌&#xff0c;无论是技术实力还是历史底蕴都在全球汽车主机厂中居于领先位置。奔驰拥有多种车型&#xff0c;多元化的产品布局不仅满足了不同用户画像的需求&#xff0c;也对其供应链体系有着极大的考验。 本文将为大家介绍梅赛德斯-奔驰乘…

dedecms导航网站模板手机百度网址是什么

B站学习视频 基于Dubbo3.2.9、Nacos2.3.0、SpringBoot 2.7.17、Dubbo-Admin 0.6.0、Jdk1.8 搭建的Dubbo学习Demo 一、前置安装 1-1、Nacos 安装 我本地是通过docker-compose来安装nacos的&#xff0c;如果需要其它方式安装可以去百度找下教程&#xff0c;版本是2.3.0的 docker…

网站雪花飘落代码微信公众号运营内容

文章目录 前言什么是Java GUI一、打开IDEA 新建一个Maven项目(后续可以打包、引入相关依赖也很容易)二、引入依赖三.绘制UI界面四.绘制JPanel面板总结 前言 什么是Java GUI Java UI&#xff0c;即Java用户界面&#xff0c;是指使用Java编程语言创建的图形用户界面&#xff08…