html5 图片网站flash网页设计教程

news/2025/10/9 12:16:24/文章来源:
html5 图片网站,flash网页设计教程,济南哪里做网站好,网站建设要求目录 一、相关和回归的概念#xff08;一#xff09;变量间的关系#xff08;二#xff09;Pearson#xff08;皮尔逊#xff09;相关系数 二、线性回归的概念和方程#xff08;一#xff09;回归分析概述#xff08;二#xff09;线性回归方程 三、线性回归模型的损… 目录 一、相关和回归的概念一变量间的关系二Pearson皮尔逊相关系数 二、线性回归的概念和方程一回归分析概述二线性回归方程 三、线性回归模型的损失函数与参数估计一正规解方程法最小二乘法二梯度下降法 四、线性回归的正则化一正则化线性回归二L2正则化与岭回归三L1正则化与Lasso回归四比较L1与L2正则化 一、相关和回归的概念 一变量间的关系 ——函数关系和相关关系 1是一一对应的确定关系 2变量间关系不能用函数关系精确表达 1、函数关系的例子 某种商品的销售额 (y) 与销售量 (x) 之间的关系可表示为 y p x y p x ypx ( p p p为单价) 2、相关关系的例子 商品的消费量 ( y y y) 与居民收入 ( x x x) 之间的关系父亲身高 ( y y y) 与子女身高 ( x x x) 之间的关系 3、相关关系的图示 二Pearson皮尔逊相关系数 随机变量 X \color{red}X X Y \color{red}Y Y D { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x m , y m ) } \color{blue}D\{ (x_1, y_1) , (x_2, y_2), \cdots, (x_m, y_m) \} D{(x1​,y1​),(x2​,y2​),⋯,(xm​,ym​)} μ X 1 m ∑ i 1 m x i μ Y 1 m ∑ i 1 m y i \mu_X\frac{1}{m}\sum_{i1}^mx_i\mu_Y\frac{1}{m}\sum_{i1}^my_i μX​m1​i1∑m​xi​μY​m1​i1∑m​yi​ σ X 1 m − 1 ∑ i 1 m ( x i − μ X ) 2 σ Y 1 m − 1 ∑ i 1 m ( y i − μ Y ) 2 \sigma_X\sqrt{\frac{1}{m-1}\sum_{i1}^m(x_i-\mu_X)^2}\sigma_Y\sqrt{\frac{1}{m-1}\sum_{i1}^m(y_i-\mu_Y)^2} σX​m−11​i1∑m​(xi​−μX​)2 ​σY​m−11​i1∑m​(yi​−μY​)2 ​ C o v ( X , Y ) 1 m − 1 ∑ i 1 m ( x i − μ X ) ( y i − μ Y ) Cov(X,Y)\frac{1}{m-1}\sum_{i1}^m(x_i-\mu_X)(y_i-\mu_Y) Cov(X,Y)m−11​i1∑m​(xi​−μX​)(yi​−μY​) ρ C o v ( X , Y ) σ X σ Y \boxed{ρ\frac{Cov(X,Y)}{\sigma_X\sigma_Y}} ρσX​σY​Cov(X,Y)​​ 相关系数 r r r 等于 X X X 与 Y Y Y 的协方差除以它们各自标准差的乘积相关系数 r r r 的取值 [ − 1 , 1 ] [-1,1] [−1,1]1表示完全正相关-1表示完全负相关0表示不相关 二、线性回归的概念和方程 一回归分析概述 回归分析指研究一组随机变量 ( X 1 , X 2 , ⋯ , X k ) (X_1, X_2,\cdots, X_k) (X1​,X2​,⋯,Xk​) 和另一组变量 ( Y 1 , Y 2 , ⋯ , Y i ) (Y_1,Y_2,\cdots,Y_i) (Y1​,Y2​,⋯,Yi​) 之间相关关系的统计分析方法。 按自变量一元回归和多元回归按因变量简单回归和多重回归按函数形式线性回归和非线性回归 X i X_i Xi​ 是自变量 Y i Y_i Yi​ 是取连续值的因变量。 二线性回归方程 1、一元线性回归 一元线性回归由大体上有线性关系的一个自变量和一个因变量组成模型是 Y a b x ε Ya bx ε Yabxε X X X是自变量 Y Y Y是因变量 ε ε ε是随机误差。 回归分析的任务就是寻找一条拟合直线使得所有样本点到该直线的距离之和最小。 2、多元线性回归 如果回归分析中包括两个或两个以上的自变量且因变量和自变量之间是线性关系则称为多元线性回归分析。 h ( x ) θ 0 θ 1 x 1 θ 2 x 2 ⋯ θ n x n ε i h(x)\theta_0\theta_1x_1\theta_2x_2\cdots\theta_nx_n\varepsilon_i h(x)θ0​θ1​x1​θ2​x2​⋯θn​xn​εi​ 令 x 0 1 x_01 x0​1则上式可写成 h θ ( x ) θ T X X T θ h_\theta(x)\theta^TXX^T\theta hθ​(x)θTXXTθ θ ( θ 0 θ 1 ⋯ θ n ) X ( x 0 x 1 ⋯ x n ) \theta\left(\begin{matrix}\theta_0\\\theta_1\\\cdots\\\theta_n\end{matrix}\right)X\left(\begin{matrix}x_0\\x_1\\\cdots\\x_n\end{matrix}\right) θ ​θ0​θ1​⋯θn​​ ​X ​x0​x1​⋯xn​​ ​ θ θ θ称为参数向量也是要求解的一个量注意向量默认是列向量 多元线性回归方程的直观解释 三、线性回归模型的损失函数与参数估计 线性回归方程参数的求解 线性回归分析的目标是求出线性回归方程中参数向量 θ θ θ 的值这有两种方法。 ① 正规解方程法最小二乘法 ② 梯度下降法 一正规解方程法最小二乘法 1、线性回归模型方程 假设房屋价格与以下因子自变量或者特征存在线性关系求解预测房屋 m m m 的价格因变量或者预测量。 面积房间数人口密度房龄价格70250574.2602601066.211047020117.4803401584.3703301074.39036010m? 2、将样本代入线性回归方程 f ( X ) f(X) f(X) 为预测值也写作 y ^ \hat{y} y^​ y y y 为实际值。 { f ( X ) θ 0 70 θ 1 2 θ 2 50 θ 3 5 θ 4 f ( X ) θ 0 60 θ 1 2 θ 2 60 θ 3 10 θ 4 f ( X ) θ 0 110 θ 1 4 θ 2 70 θ 3 20 θ 4 f ( X ) θ 0 80 θ 1 3 θ 2 40 θ 3 15 θ 4 f ( X ) θ 0 70 θ 1 3 θ 2 30 θ 3 10 θ 4 \left\{ \begin{array}{l} f(X)\theta_070\theta_12\theta_250\theta_35\theta_4 \\[1ex] f(X)\theta_060\theta_12\theta_260\theta_310\theta_4 \\[1ex] f(X)\theta_0110\theta_14\theta_270\theta_320\theta_4 \\[1ex] f(X)\theta_080\theta_13\theta_240\theta_315\theta_4 \\[1ex] f(X)\theta_070\theta_13\theta_230\theta_310\theta_4 \end{array} \right. ⎩ ⎨ ⎧​f(X)θ0​70θ1​2θ2​50θ3​5θ4​f(X)θ0​60θ1​2θ2​60θ3​10θ4​f(X)θ0​110θ1​4θ2​70θ3​20θ4​f(X)θ0​80θ1​3θ2​40θ3​15θ4​f(X)θ0​70θ1​3θ2​30θ3​10θ4​​ X b ⋅ θ [ 1 X 1 ( 1 ) X 2 ( 1 ) ⋯ X n ( 1 ) 1 X 1 ( 2 ) X 2 ( 2 ) ⋯ X n ( 2 ) ⋯ ⋯ 1 X 1 ( m ) X 2 ( m ) ⋯ X n ( m ) ] ⋅ [ θ 0 θ 1 θ 2 ⋯ θ n ] f ( X ) X_b\cdot\theta\left[ \begin{matrix} 1 X_1^{(1)} X_2^{(1)} \cdots X_n^{(1)} \\[1ex] 1 X_1^{(2)} X_2^{(2)} \cdots X_n^{(2)} \\[1ex] \cdots \cdots \\[1ex] 1 X_1^{(m)} X_2^{(m)} \cdots X_n^{(m)} \end{matrix} \right] \cdot\left[ \begin{matrix} \theta_0 \\[1ex] \theta_1 \\[1ex] \theta_2 \\[1ex] \cdots \\[1ex] \theta_n \end{matrix} \right] f(X) Xb​⋅θ ​11⋯1​X1(1)​X1(2)​X1(m)​​X2(1)​X2(2)​X2(m)​​⋯⋯⋯​Xn(1)​Xn(2)​⋯Xn(m)​​ ​⋅ ​θ0​θ1​θ2​⋯θn​​ ​f(X) m m m 个样本上标 n n n 个特征下标 X X X ( m , n 1 ) (m,n1) (m,n1) 特征矩阵 θ \theta θ权重向量/系数向量 3、线性回归的损失函数 4、线性回归参数估计 目标找到 θ 0 , θ 1 , θ 2 , ⋯ , θ n \theta_0,\theta_1,\theta_2,\cdots,\theta_n θ0​,θ1​,θ2​,⋯,θn​使得平方损失函数 ∑ i 1 m ( y ( i ) − y ^ ( i ) ) 2 \sum_{i1}^m(y^{(i)}-\hat{y}^{(i)})^2 i1∑m​(y(i)−y^​(i))2 尽可能小。 其中 y ^ ( i ) θ 0 θ 1 X 1 ( i ) θ 2 X 2 ( i ) . . . θ n X n ( i ) \hat{y}^{(i)}\theta_0\theta_1X_1^{(i)}\theta_2X_2^{(i)}...\theta_nX_n^{(i)} y^​(i)θ0​θ1​X1(i)​θ2​X2(i)​...θn​Xn(i)​ 5、补充均方误差MSE函数 在线性回归中使用的损失函数是“平方损失函数” (quadratic loss function) L ( Y , f ( X ) ) ( Y − f ( X ) ) 2 L(Y,f(X))(Y-f(X))^2 L(Y,f(X))(Y−f(X))2 即 E ( ω , b ) ∑ i 1 m ( y i − ω x i − b ) 2 E_{(\omega,b)}\sum_{i1}^m(y_i-\omega x_i-b)^2 E(ω,b)​i1∑m​(yi​−ωxi​−b)2 但是在计算的时候常常多出一个2并且表示成平均损失的形式 L o s s ( ω , b ) E ( ω , b ) 1 2 m ∑ i 1 m ( f ( x i ) − y i ) 2 1 2 m ∑ i 1 m ( y i − ω x i − b ) 2 \begin{aligned} Loss(\omega,b)E_{(\omega,b)}\frac{1}{2m}\sum_{i1}^m(f(x_i)-y_i)^2\\ \frac{1}{2m}\sum_{i1}^m(y_i-\omega x_i-b)^2 \end{aligned} Loss(ω,b)E(ω,b)​​2m1​i1∑m​(f(xi​)−yi​)22m1​i1∑m​(yi​−ωxi​−b)2​ 平方损失函数下样本数越多误差越大相比于前面的平方损失函数均方误差函数mean-square errorMSE既克服了样本数量的影响同时它也仅仅是在平方损失函数前面增加了一个常量系数 1 2 m \frac{1}{2m} 2m1​因此后面通过平方损失函数最小化求解参数的计算过程对它同样适用。 6、损失函数的向量化表示 损失函数 ∑ i 1 m ( y ( i ) − y ^ ( i ) ) 2 \begin{aligned}\sum_{i1}^m(y^{(i)}-\hat{y}^{(i)})^2\end{aligned} i1∑m​(y(i)−y^​(i))2​ y ( y ( 1 ) ⋯ y ( m ) ) y\left(\begin{matrix}y^{(1)}\\\cdots\\y^{(m)}\end{matrix}\right) y ​y(1)⋯y(m)​ ​ y ^ X b ⋅ θ ( y ^ ( 1 ) ⋯ y ^ ( m ) ) \hat{y}X_b\cdot\theta\left(\begin{matrix}\hat{y}^{(1)}\\\cdots\\\hat{y}^{(m)}\end{matrix}\right) y^​Xb​⋅θ ​y^​(1)⋯y^​(m)​ ​ 根据 ∑ p i 2 P T P \begin{aligned}\sum p_i^2P^TP\end{aligned} ∑pi2​PTP​进行向量化 ( y − X b ⋅ θ ) T ( y − X b ⋅ θ ) (y-X_b\cdot\theta)^T(y-X_b\cdot\theta) (y−Xb​⋅θ)T(y−Xb​⋅θ) J ( θ ) θ T X b T X b θ − 2 ( X b θ ) T y y T y J(\theta)\boxed{\theta^TX_b^TX_b\theta}-\boxed{2(X_b\theta)^Ty}y^Ty J(θ)θTXbT​Xb​θ​−2(Xb​θ)Ty​yTy 对 θ \theta θ 求偏导并令其等于0 2 X b T X b θ − 2 X T y 0 2X_b^TX_b\theta-2X^Ty0 2XbT​Xb​θ−2XTy0 X b T X b θ X b T y X_b^TX_b\thetaX_b^Ty XbT​Xb​θXbT​y θ ( X b T X b ) − 1 X b T y \theta(X_b^TX_b)^{-1}X_b^Ty θ(XbT​Xb​)−1XbT​y 参数 θ θ θ 的推导过程 当 X b T X b X_b^TX_b XbT​Xb​ 可逆时上述解称为线性回归权系数向量的最小二乘解基于均分误差/平方误差最小化。上面两个黑色框的求导结果是根据下面两条函数对向量和矩阵的求导规则 当 A A A 是实对称矩阵时有 ∂ ( a T A x ) ∂ x 2 A x \begin{aligned}\frac{\partial (a^TAx)}{\partial x}2Ax\end{aligned} ∂x∂(aTAx)​2Ax​ ∂ ( a T x ) ∂ x ∂ ( x T a ) ∂ x a \begin{aligned}\frac{\partial (a^Tx)}{\partial x}\frac{\partial (x^Ta)}{\partial x}a\end{aligned} ∂x∂(aTx)​∂x∂(xTa)​a​ 7、最小二乘解的缺点 当 X b T X b X_b^TX_b XbT​Xb​ 不可逆时无法求解即使可逆逆矩阵求解可能计算很复杂求得的权系数向量 θ \theta θ 可能不稳定即样本数据的微小变化可能导致 θ \theta θ 的巨大变化从而使得回归模型不稳定缺乏泛化能力。 二梯度下降法 1、基本概念 梯度下降Gradient Descent法适合特征个数多、样本数多、其他方法内存无法满足要求的情况下使用。 梯度下降算法是一种求局部最优解的数值计算方法该方法的整体思路是通过迭代来逐渐调整参数使得损失函数达到最小值。 2、基本思想 目标找到 θ 0 , θ 1 , θ 2 , ⋯ , θ n \theta_0,\theta_1,\theta_2,\cdots,\theta_n θ0​,θ1​,θ2​,⋯,θn​使得损失函数 ∑ i 1 m ( y ( i ) − y ^ ( i ) ) 2 \begin{aligned}\sum_{i1}^m(y^{(i)}-\hat{y}^{(i)})^2\end{aligned} i1∑m​(y(i)−y^​(i))2​ 尽可能小。 比如我们在一座大山上的某处位置由于我们不知道怎么下山于是决定走一步算一步也就是在每走到一个位置的时候求解当前位置的梯度沿着梯度的负方向也就是当前最陡峭的位置向下走一步然后继续求解当前位置梯度向这一步所在位置沿着最陡峭最易下山的位置走一步。 这样一步步的走下去一直走到觉得我们已经到了山脚。当然这样走下去有可能我们不能走到山脚而是到了某一个局部的山峰低处。 3、梯度下降法举例 梯度下降法举例1 损失函数 J ( θ ) θ 2 J(\theta)\theta^2 J(θ)θ2 对 θ θ θ 求导 J ′ ( θ ) 2 θ J(θ)2θ J′(θ)2θ 设 θ 0 1 θ^01 θ01   步长 α 0.4 \alpha0.4 α0.4 θ 0 1 θ^01 θ01 θ 1 θ 0 − α ⋅ J ′ ( θ 0 ) 1 − 0.4 × 2 0.2 θ^1θ^0-α\cdot J(θ^0)1-0.4\times20.2 θ1θ0−α⋅J′(θ0)1−0.4×20.2 θ 2 θ 1 − α ⋅ J ′ ( θ 1 ) 0.2 − 0.4 × 0.4 0.04 θ^2θ^1-α\cdot J(θ^1)0.2-0.4\times0.40.04 θ2θ1−α⋅J′(θ1)0.2−0.4×0.40.04 θ 3 θ 2 − α ⋅ J ′ ( θ 2 ) 0.04 − 0.4 × 0.08 0.008 θ^3θ^2-α\cdot J(θ^2)0.04-0.4\times0.080.008 θ3θ2−α⋅J′(θ2)0.04−0.4×0.080.008 θ 4 θ 3 − α ⋅ J ′ ( θ 3 ) 0.008 − 0.4 × 0.016 0.0016 θ^4θ^3-α\cdot J(θ^3)0.008-0.4\times0.0160.0016 θ4θ3−α⋅J′(θ3)0.008−0.4×0.0160.0016 梯度下降法举例2 J ( θ ) θ 1 2 θ 2 2 J(θ)θ_1^2θ_2^2 J(θ)θ12​θ22​ θ 0 ( 1 , 3 ) θ^0(1,3) θ0(1,3)    α 0.1 \alpha0.1 α0.1 ∇ J ( θ ) ⟨ 2 θ 1 , 2 θ 2 ⟩ \nabla J(θ)\langle2θ_1,2θ_2\rangle ∇J(θ)⟨2θ1​,2θ2​⟩ θ 0 ( 1 , 3 ) θ^0(1,3) θ0(1,3) θ 1 θ 0 − α ⋅ ∇ J ( θ ) ( 1 , 3 ) − 0.1 ⋅ ( 2 , 6 ) ( 0.8 , 2.4 ) θ^1θ^0-\alpha\cdot\nabla J(θ)(1,3)-0.1\cdot(2,6)(0.8,2.4) θ1θ0−α⋅∇J(θ)(1,3)−0.1⋅(2,6)(0.8,2.4) θ 2 θ 1 − α ⋅ ∇ J ( θ ) ( 0.8 , 2.4 ) − 0.1 ⋅ ( 1.6 , 4.8 ) ( 0.64 , 1.92 ) θ^2θ^1-\alpha\cdot\nabla J(θ)(0.8,2.4)-0.1\cdot(1.6,4.8)(0.64,1.92) θ2θ1−α⋅∇J(θ)(0.8,2.4)−0.1⋅(1.6,4.8)(0.64,1.92) θ 3 ( 0.5124 , 1.536 ) θ^3(0.5124,1.536) θ3(0.5124,1.536) θ 4 ( 0.4096 , 1.228800000000001 ) θ^4(0.4096,1.228800000000001) θ4(0.4096,1.228800000000001) ⋮ \vdots ⋮ θ 10 ( 0.1073741824000003 , 0.32212254720000005 ) θ^{10}(0.1073741824000003,0.32212254720000005) θ10(0.1073741824000003,0.32212254720000005) ⋮ \vdots ⋮ θ 50 ( 1.141798154164342 e − 05 , 3.42539442494306 e − 05 ) θ^{50}(1.141798154164342e^{-05},3.42539442494306e^{-05}) θ50(1.141798154164342e−05,3.42539442494306e−05) ⋮ \vdots ⋮ θ 100 ( 1.6296287810675902 e − 10 , 4.8888886343202771 e − 10 ) θ^{100}(1.6296287810675902e^{-10},4.8888886343202771e^{-10}) θ100(1.6296287810675902e−10,4.8888886343202771e−10) 4、梯度下降法的步骤 1确定当前位置的损失函数的梯度 ∂ ∂ θ i J ( θ 0 , θ 1 , . . . , θ n ) \begin{aligned}\frac{\partial}{\partial\theta_i}J(θ_0,θ_1,...,θ_n)\end{aligned} ∂θi​∂​J(θ0​,θ1​,...,θn​)​ 2用步长 α \alpha α 乘以损失函数的梯度得到当前位置下降的距离 α ∂ ∂ θ i J ( θ 0 , θ 1 , . . . , θ n ) \begin{aligned}\alpha\frac{\partial}{\partial\theta_i}J(θ_0,θ_1,...,θ_n)\end{aligned} α∂θi​∂​J(θ0​,θ1​,...,θn​)​ 3确定是否所有的 θ i θ_i θi​梯度下降的距离都小于 ε ε ε如果小于 ε ε ε 则算法终止当前所有的 θ i θ_i θi​ 即为最终结果。否则进入步骤4。 4更新所有的 θ i θ_i θi​ θ i θ_i θi​ 的更新表达式如下。更新完毕后继续转入步骤1。 θ i θ i − α ∂ ∂ θ i J ( θ 0 , θ 1 , . . . , θ n ) θ_iθ_i-\begin{aligned}\alpha\frac{\partial}{\partial\theta_i}J(θ_0,θ_1,...,θ_n)\end{aligned} θi​θi​−α∂θi​∂​J(θ0​,θ1​,...,θn​)​ 5、步长过大或过小的情况 6、梯度下降法的种类 批量梯度下降法BGD在更新参数时使用所有的样本来进行更新随机梯度下降法SGD仅仅选取一个样本 j j j 来求梯度小批量梯度下降法MBGD对于 m m m 个样本抽取其中 x x x 个子样本来迭代 7、模型评价 R 2 R^2 R2为0时模型最差 R 2 R^2 R2为1时模型最好 R 2 R^2 R2越大模型越好。 训练集上的 R 2 R^2 R2拟合程度好测试集上的 R 2 R^2 R2泛化能力强。 四、线性回归的正则化 一正则化线性回归 为防止过拟合引入了正则化regularization技术就是在原来损失函数的后面加上一个关于模型系数的正则化项 直观理解因为正则化项的存在当新的目标函数 J ( ω ) J(\omega) J(ω) 取得最小值时 L ( ω ) L(\omega) L(ω) 也不至于因为过小而产生过拟合。 正则化项可以理解成对模型参数的一种惩罚在最小化误差的同时使得模型参数变得更小模型参数越小甚至趋向于0将降低模型复杂度防止过拟合。 二L2正则化与岭回归 在原来线性回归的均方误差后面增加 l 2 l_2 l2​ 范数做正则项就是岭回归ridge regression J ( ω ) 1 2 m ∑ i 1 m ( f ( ω , x i ) − y i ) 2 α 2 ∥ ω ∥ 2 2 J(\omega)\frac{1}{2m}\sum_{i1}^m(f(\omega,x_i)-y_i)^2\frac{\alpha}{2}\lVert\omega\rVert_2^2 J(ω)2m1​i1∑m​(f(ω,xi​)−yi​)22α​∥ω∥22​ ω ∗ a r g m i n J ( ω ) \omega^*argminJ(\omega) ω∗argminJ(ω) 其中 ∥ ω ∥ 2 2 ω 0 2 ω 1 2 . . . ω n 2 \lVert\omega\rVert_2^2\omega_0^2\omega_1^2...\omega_n^2 ∥ω∥22​ω02​ω12​...ωn2​。 岭回归求得的权重系数虽然都比较小接近于0但不等于0说明它是比较均衡的对待多个特征。 三L1正则化与Lasso回归 在原来线性回归的均方误差后面增加 l 1 l_1 l1​ 范数做正则项就是稀疏线性回归Lasso regression J ( ω ) 1 2 m ∑ i 1 m ( f ( ω , x i ) − y i ) 2 α 2 ∥ ω ∥ 1 J(\omega)\frac{1}{2m}\sum_{i1}^m(f(\omega,x_i)-y_i)^2\frac{\alpha}{2}\lVert\omega\rVert_1 J(ω)2m1​i1∑m​(f(ω,xi​)−yi​)22α​∥ω∥1​ ω ∗ a r g m i n J ( ω ) \omega^*argminJ(\omega) ω∗argminJ(ω) 其中 ∥ ω ∥ 1 ∣ ω 0 ∣ ∣ ω 1 ∣ . . . ∣ ω n ∣ \lVert\omega\rVert_1|\omega_0||\omega_1|...|\omega_n| ∥ω∥1​∣ω0​∣∣ω1​∣...∣ωn​∣。 L a s s o Lasso Lasso回归求得的权重系数多数都为0体现出稀疏性说明它具有特征选择的能力。 四比较L1与L2正则化 超参数既不能过大也不能太小过大使得正则项的作用加强会削弱拟合效果过小惩罚力度不够防止过拟合效果不明显。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/932525.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

自己做的表白网站栖霞酒店网站设计价格

iostat命令统计的磁盘I/O延迟通常是以毫秒(ms)为单位,例如在输出中的await字段表示的是平均服务时间,包括等待时间和处理时间,这个值就是以毫秒为单位。 然而,要获取更精确到微秒级别(us&#x…

网站开发有前途么法律网站的建设流程

一开始找jar包找了好久都没找到,后来花了6个积分把所有的依赖包找到了,现在放在百度云供大家免费下载: 链接:https://pan.baidu.com/s/12MTMy4d4e6hZsmWAdXbUMQ 提取码:433g 注意这些依赖包是3.5版本的不是最新版本。 …

PromSL详解

PromSL详解PromQL(Prometheus Query Language)是Prometheus监控系统的核心查询语言,专门用于处理时间序列数据。下面通过一个表格快速了解其核心概念: 特性分类核心概念说明​数据模型​时间序列 (Time Series)由指…

uniapp 简单封装接口请求

环境配置:utils/env.js let BASE_URL // 开发环境 if (process.env.NODE_ENV === development) {BASE_URL = http://192.168.0.135:21010 } // 生产环境 else {BASE_URL = } export default {BASE_URL }接口封装:ut…

【SPIE出版】第五届算法、高性能计算与人工智能国际学术会议(AHPCAI 2025)

第五届算法、高性能计算与人工智能国际学术会议(AHPCAI 2025) 2025国际产学研用合作会议分会场 2025 5th International Conference on Algorithms, High Performance Computing and Artificial Intelligence 在这里…

实用指南:chromedriver 下载失败

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

深入解析:recipes中声明 DEPENDS += “virtual/kernel“ 的效果

深入解析:recipes中声明 DEPENDS += “virtual/kernel“ 的效果pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "C…

神经网络基础:从单个神经元到多层网络(superior哥AI系列第3期) - 实践

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

网站设计 视频业绩统计网站开发

Kafka的体系结构 Kafka是由Apache软件基金会管理的一个开源的分布式数据流处理平台。Kafka具有支持消息的发布/订阅模式、高吞吐量与低延迟、持久化、支持水平扩展、高可用性等特点。可以将Kafka应用于大数据实时处理、高性能数据管道、流分析、数据集成和关键任务应用等场景。…

别再手动更新Wiki了!PandaWiki的『AI同步助手』,实时抓取企业最新动态

别再手动更新Wiki了!PandaWiki的『AI同步助手』,实时抓取企业最新动态还在为公司Wiki内容陈旧、更新不及时而头疼吗?每次产品迭代、流程调整,都要手动去编辑知识库,费时又费力?你是不是也觉得,这种重复性工作完…

德州王霞网站建设wordpress 外国主题

目录 概述jvm虚拟机三问jvm是什么?java 和 jvm 的关系 为什么学jvm怎么学习为什么jvm调优?什么时候jvm调优调优调什么 结束 概述 相关文章在此总结如下: 文章地址jvm类加载系统地址双亲委派模型与打破双亲委派地址运行时数据区地址运行时数据区-字符串…

2025 防洪板源头厂家最新推荐榜单:铝合金 / 移动 / 应急款精准测评,稳定性能品牌优选指南

极端天气频发下,城市内涝、河道洪水等灾害对防洪设备的可靠性提出更高要求。传统沙袋防洪效率低下、污染环境,普通挡水板强度不足,而 2025 年《水利水电工程单元工程施工质量验收标准》进一步提高防洪设备抗冲性能底…

完整教程:【复习】计网每日一题--PPP链路

完整教程:【复习】计网每日一题--PPP链路pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "…

Ubuntu安装 IDEA

一、在官网下载 IDEA下载IDEA For LinuxDownload the latest version of IntelliJ IDEA for Windows, macOS or Linux.https://www.jetbrains.com/idea/download/?section=linux下载好的安装包解压到/opt/中,目录名更…

精密星历内插的MATLAB代码实现

精密星历内插的MATLAB代码实现。精密星历内插是GNSS数据处理中的关键步骤,用于获取任意时刻的卫星精确位置。 精密星历内插方法概述方法类型 特点 适用场景拉格朗日内插 实现简单,精度较高 常用方法,适用于大多数情…

中山精品网站建设价位中国建筑网app官方下载

使用joi npm包可以很方便的在Node.js Express项目中实现表单验证,以下例子可供参考: 创建登录表单验证: const joi require(joi)const title joi.string().min(1).max(45).required()//最少1位,最多18位,必选 const text joi.string().ma…

.                    当项目规模失控时:架构师的“止损”之道

几乎所有开发者都经历过这样的阶段:项目从最初的几千行代码,慢慢演变成几十万行的“怪兽”。模块耦合、依赖混乱、接口冗余、部署困难……这时,任何一个小改动都可能引发连锁崩溃。 我曾负责一个年久失修的后端系统…

zsh vs. bash

zsh vs. bash2025-10-09 11:49 蜡笔小旧 阅读(0) 评论(0) 收藏 举报basharray=(1 2 3) echo $array # output: 1zsharray=(1 2 3) echo $array # output: 1 2 3

2025 年护栏厂家最新推荐排行榜:涵盖锌钢防撞桥梁交通市政不锈钢波形围墙道路护栏优质企业锌钢/防撞/桥梁/交通/市政/不锈钢/波形护栏厂家推荐

当前,护栏在市政交通、建筑防护、家装等领域的需求持续攀升,但其市场却存在诸多乱象。部分厂家为压缩成本使用劣质材料,导致护栏安全性能差、使用寿命短;多数品牌仅提供产品销售,缺乏设计、安装、售后维护的全流程…

.                                  为什么资深开发者越来越少写代码?

. 很多初级程序员看到高级工程师的日常会议、评审、文档,常觉得他们“脱离技术”。 但事实上,资深开发者不是不写代码,而是在写更高层次的代码——团队协作的代码。 随着系统规模扩大,单个开发者的产出已不足以决定…