做外贸好的网站有哪些百度识图在线

news/2025/9/29 10:31:28/文章来源:
做外贸好的网站有哪些,百度识图在线,企业推广费计入什么科目,网站建设提供排名目录 0、基本信息1、研究动机2、创新点2.1、核心思想#xff1a;2.2、思想推导#xff1a; 3、准备3.1、符号3.2、互信息3.3、JS散度3.4、Deep InfoMax方法3.5、判别器#xff1a;f-GAN估计散度 4、具体实现4.1、局部-全局互信息最大化4.2、理论动机 5、实验设置5.1、直推式… 目录 0、基本信息1、研究动机2、创新点2.1、核心思想2.2、思想推导 3、准备3.1、符号3.2、互信息3.3、JS散度3.4、Deep InfoMax方法3.5、判别器f-GAN估计散度 4、具体实现4.1、局部-全局互信息最大化4.2、理论动机 5、实验设置5.1、直推式学习CoraCiteseer and Pubmed 6、代码实现6.1、DGI6.2、GCNLayer6.3、readout function6.4、discriminator 7、参考链接 0、基本信息 会议2019-ICLR作者Petar Veliˇckovi´William Fedus文章链接Deep Graph Infomax代码链接Deep Graph Infomax 1、研究动机 1无监督图学习的重要性  尽管图神经网络取得了显著的进步但是大多数方法采用监督学习的方法然而在真实世界中图的标签是较少的这些方法很难推广到大量的无标签的图数据中。因此对于很多重要任务而言就显得不可或缺。 2现有方法的缺点  目前主流的用于图结构数据表征学习的无监督算法random walk-based objectives有时简化为重构邻域信息基本思想为训练编码器使输入图中的接近的结点在表征空间中也接近。但也存在着如下的缺点 random walk-based objectives以牺牲结构信息为代价过度强调邻近信息性能很大程度上取决于超参数的选择基于图卷积编码器模型的引入不清楚random-walk objectives是否提供了有用信号。 基于上述的缺点与不足本文提出了用于无监督图学习的替代目标其基于互信息而不是随机游走。将Deep InfoMaxDIM引入图结构数据提出Deep Graph InfomaxDGI模型。 在概率论和信息论中两个随机变量的互信息Mutual Information简称MI是指变量间相互依赖性的量度度量两个事件集合之间的相关性(mutual dependence)。 2、创新点 将DIM引入图领域。 2.1、核心思想 训练一个编码器它的目标函数不是最小化输入与输出的MSE而是最大化输入与输出的互信息。 重构误差小不能说明学习出来的特征好好特征应该是能够提取出样本的最独特具体的信息。那如何衡量学习出来的信息是该样本独特的呢这里就是用“互信息”来衡量。 2.2、思想推导 -1、首先我们已知要用互信息来衡量学习特征的好坏也就是说最大化互信息是我们的目标。 -2、最大化互信息可以转化为最大化JS散度 -3、JS散度计算困难通过“局部变分技巧”快速估算得到JS散度的估算值即“负采样估计”。 -4、“负采样估计”——引入一个判别网络 σ ( T ( x , z ) ) \sigma(T(x,z)) σ(T(x,z)) x x x 及其对应的 z z z 视为一个正样本对 x x x 及随机抽取的 z ^ \hat{z} z^ 则视为负样本然后最大化似然函数等价于最小化交叉熵得到最终的优化目标函数。 -5、接下来定义细节内容。。。 3、准备 3.1、符号 结点特征 X { x ⃗ 1 , x ⃗ 2 , … , x ⃗ N } \mathbf{X}\{\vec{x}_{1},\vec{x}_{2},\ldots,\vec{x}_{N}\} X{x 1​,x 2​,…,x N​}, N N N是图中结点的个数 X ⃗ i ∈ R F \vec{X}_i\in \mathbb{R}^F X i​∈RF表示结点i的特征。邻接矩阵无权图 A ∈ R N × N A\in \mathbb{R}^{N \times N} A∈RN×N如果结点i与结点j相连 A i j 1 A_{ij}1 Aij​1否则 A i j 0 A_{ij}0 Aij​0编码器 E : R N × F × R N × N → R N × F ′ \mathcal{E}:\mathbb{R}^{N \times F} \times \mathbb{R}^{N \times N} \to \mathbb{R}^{N \times F} E:RN×F×RN×N→RN×F′ E ( X , A ) H { h ⃗ 1 , h ⃗ 2 , … , h ⃗ N } \mathcal{E}(X,A)H\{\vec{h}_{1},\vec{h}_{2},\ldots,\vec{h}_{N}\} E(X,A)H{h 1​,h 2​,…,h N​}表示结点 i i i的高阶表征 h ⃗ i ∈ R F ′ \vec{h}_{i}\in \mathbb{R}^{F} h i​∈RF′称为patch representionsReadout Function R : R N × F → R F \mathcal{R}:\mathbb{R}^{N \times F} \to \mathbb{R}^F R:RN×F→RF s ⃗ R ( E ( X , A ) ) \vec{s}\mathcal{R}(\mathcal{E}(X,A)) s R(E(X,A))为图级别的表示判别器 D : R F × R F → R \mathcal{D}:\mathbb{R}^{F} \times \mathbb{R}^F \to \mathbb{R} D:RF×RF→R D ( h ⃗ i , s ⃗ ) \mathcal{D}(\vec{h}_i,\vec{s}) D(h i​,s )表示分配给该patch-summary对的概率分数Corruption Function C : R N × F × R N × N → R M × F × R M × M \mathcal{C}:\mathbb{R}^{N \times F} \times \mathbb{R}^{N \times N} \to\mathbb{R}^{M \times F} \times \mathbb{R}^{M \times M} C:RN×F×RN×N→RM×F×RM×M从原始图获得一个负例样本即 ( X ~ , A ~ ) C ( X , A ) (\tilde{X},\tilde{A})\mathcal{C}(X,A) (X~,A~)C(X,A). 3.2、互信息 互信息(Mutual Information)是度量两个事件集合之间的相关性(mutual dependence)它是信息论里一种有用的信息度量它可以看成是一个随机变量中包含的关于另一个随机变量的信息量或者说是一个随机变量由于已知另一个随机变量而减少的不肯定性。互信息最常用的单位是bit。  互信息指的是两个随机变量之间的关联程度即给定一个随机变量后另一个随机变量不确定性的削弱程度因而互信息取值最小为0意味着给定一个随机变量对确定一另一个随机变量没有关系最大取值为随机变量的熵意味着给定一个随机变量能完全消除另一个随机变量的不确定性。 3.3、JS散度 JS散度度量了两个概率分布的相似度基于KL散度相对熵的变体解决了KL散度非对称的问题。一般地JS散度是对称的其取值是0到1之间。  设概率空间上有两个概率分布 P P P和 Q Q Q M 1 2 ( P Q ) M\frac{1}{2}(PQ) M21​(PQ)为 P P P和 Q Q Q的平均则 P P P和 Q Q Q的JS散度定义为 J S ( P ∣ ∣ Q ) 1 2 D K L ( P ∣ ∣ M ) 1 2 D K L ( Q ∣ ∣ M ) JS(P||Q)\frac{1}{2}D_{KL}(P||M)\frac{1}{2}D_{KL}(Q||M) JS(P∣∣Q)21​DKL​(P∣∣M)21​DKL​(Q∣∣M) 其中 D K L D_{KL} DKL​表示 K L KL KL 散度定义如下 D K L ( P ∣ ∣ Q ) ∑ x ∈ X P ( x ) l o g ( P ( x ) Q ( x ) ) D_{KL}(P||Q)\sum_{x\in X}P(x)log(\frac{P(x)}{Q(x)}) DKL​(P∣∣Q)x∈X∑​P(x)log(Q(x)P(x)​) 3.4、Deep InfoMax方法 许多表示学习算法使用像素级的训练目标当只有一小部分信号在语义层面上起作用时是不利的。Bengio 等研究者假设应该更直接地根据信息内容和统计或架构约束来学习表示据此提出了 Deep InfoMaxDIM。该方法可用于学习期望特征的表示并且在分类任务上优于许多流行的无监督学习方法。 互信息是概率论和信息论中重要的内容它表示的是一个随机变量中包含另一个随机变量的信息量可以理解成两个随机变量之间的相关程度。最大化互信息也就是说对于每个输入样本x编码器能够尽可能地找出专属于样本x的特征y。因此这样一来只通过特征y也能很好地分辨出原始样本来因为学习到的特征含有样本的独特信息。 于是最大化互信息的计算过程有了以下的转换 I ( X ; Y ) ∫ Y ∫ X p ( x , y ) log ⁡ p ( x , y ) p ( x ) p ( y ) d x d y ∫ Y ∫ X p ( y ∣ x ) p ( x ) log ⁡ p ( y ∣ x ) p ( y ) d x d y \begin{aligned} I(X ; Y) \int_{Y} \int_{X} p(x, y) \log \frac{p(x, y)}{p(x) p(y)} d x d y \\ \int_{Y} \int_{X} p(y | x) p(x) \log \frac{p(y | x)}{p(y)} d x d y \end{aligned} I(X;Y)​∫Y​∫X​p(x,y)logp(x)p(y)p(x,y)​dxdy∫Y​∫X​p(y∣x)p(x)logp(y)p(y∣x)​dxdy​ 等价于 I ( X ; Y ) K L ( p ( x , y ) ∥ p ( x ) p ( y ) ) I(X ; Y)K L(p(x, y) \| p(x) p(y)) I(X;Y)KL(p(x,y)∥p(x)p(y)) 最大化互信息就是要拉大联合分布与边缘分布乘积的距离。 KL散度无上界利用JS散度与KL散度之间的转换关系 $$\begin{array}{l} I(X ; Y) \propto J S(p(x, y), p(x) p(y)) \end{array}$$ 此时就可以将最大化互信息这个问题转换成最大化JS散度。 这个过程详细可以看MINE-Mutual Information Neural Estimation Deep InfoMax是在论文Learning deep representations by mutual information estimation and maximization中提出。 3.5、判别器f-GAN估计散度 在机器学习中计算两个概率分布P,Q的散度是有一定难度的因为很多时候是无法知道两个概率分布的解析形式或者分布只有采样出来的样本这时就是比较两批样本之间的相似性。 f-GAN是通过“局部变分技巧“来进行快速地估算。 D f ( P ∥ Q ) max ⁡ T ( E x ∼ p ( x ) [ T ( x ) ] − E x ∼ q ( x ) [ g ( T ( x ) ) ] ) \mathbb{D}_{\mathbf{f}}(\mathbf{P} \| \mathbf{Q})\max _{\mathbf{T}}\left(\mathbb{E}_{\mathbf{x} \sim \mathbf{p}(\mathbf{x})}[\mathbf{T}(\mathbf{x})]-\mathbb{E}_{\mathbf{x} \sim \mathbf{q}(\mathbf{x})}[\mathbf{g}(\mathbf{T}(\mathbf{x}))]\right) Df​(P∥Q)Tmax​(Ex∼p(x)​[T(x)]−Ex∼q(x)​[g(T(x))]) 分别从两个分布 P \mathbf{P} P和 Q \mathbf{Q} Q进行采样然后计算 T ( x ) T(x) T(x)与 g ( T ( x ) ) g(T(x)) g(T(x))的平均值优化 T T T使得它们的差最大最终的结果即为散度的估算值。T(x)可以用足够复杂的神经网络去拟合。 因此最大化互信息的目标函数为 J S ( p ( x , y ) , p ( x ) p ( y ) ) max ⁡ D ( E ( x , y ) ∼ p ( x , y ) [ log ⁡ σ ( D ( x , y ) ) ] E x ~ ∼ p ( x ) , y ~ ∼ p ( y ) [ log ⁡ ( 1 − σ ( D ( x ~ , y ~ ) ) ) ] ) \mathbf{J S}(\mathbf{p}(\mathbf{x}, \mathbf{y}), \mathbf{p}(\mathbf{x}) \mathbf{p}(\mathbf{y}))\max _{\mathbf{D}}\left(\mathbb{E}_{(\mathbf{x}, \mathbf{y}) \sim \mathbf{p}(\mathbf{x}, \mathbf{y})}[\log \sigma(\mathbf{D}(\mathbf{x}, \mathbf{y}))]\mathbb{E}_{\tilde{\mathbf{x}} \sim \mathbf{p}(\mathbf{x}), \tilde{y} \sim \mathbf{p}(\mathbf{y})}[\log (1-\sigma(\mathbf{D}(\tilde{\mathbf{x}}, \tilde{\mathbf{y}})))]\right) JS(p(x,y),p(x)p(y))Dmax​(E(x,y)∼p(x,y)​[logσ(D(x,y))]Ex~∼p(x),y~​∼p(y)​[log(1−σ(D(x~,y~​)))]) 这个公式实际上就是“负采样估计”引入一个判别网络 σ(D(x,y))x 及其对应的 y 视为一个正样本对x 及随机抽取的 y 则视为负样本然后最大化似然函数(等价于最小化交叉熵)。 4、具体实现 4.1、局部-全局互信息最大化 1、利用 r e a d o u t f u n c t i o n readout\;\; function readoutfunction将patch representions即 E ( X , A ) \mathcal{E}(X,A) E(X,A)转化为图的全局信息 s y m m a r y v e c t o r s ⃗ symmary \;\;vector\;\; \vec{s} symmaryvectors 即 s ⃗ R ( E ( X , A ) ) \vec{s}\mathcal{R}(\mathcal{E}(X,A)) s R(E(X,A)) 2、采用判别器 D : R F × R F → R \mathcal{D}:\mathbb{R}^{F} \times \mathbb{R}^F \to \mathbb{R} D:RF×RF→R作为最大化局部互信息的近似 D ( h ⃗ i , s ⃗ ) \mathcal{D}(\vec{h}_i,\vec{s}) D(h i​,s )表示分配给该patch-summary对的概率分数若patch在summary内则得分越高。 3、负样本。在多图情形下可以直接从训练集的另一个图中选择一个图即可在单图情况下构造Corruption Function C : R N × F × R N × N → R M × F × R M × M \mathcal{C}:\mathbb{R}^{N \times F} \times \mathbb{R}^{N \times N} \to\mathbb{R}^{M \times F} \times \mathbb{R}^{M \times M} C:RN×F×RN×N→RM×F×RM×M从原始图获得一个负例样本即 ( X ~ , A ~ ) C ( X , A ) (\tilde{X},\tilde{A})\mathcal{C}(X,A) (X~,A~)C(X,A)。负样本的选择过程决定了我们要捕获特定类型的结构信息。 4、判别器 D \mathcal{D} D可以通过将 s ⃗ \vec{s} s 与另一个图 ( X ~ , A ~ ) (\tilde{X},\tilde{A}) (X~,A~)中的patch representations h ~ ⃗ j \vec{\tilde{h}}_j h~ j​得到 5、本文使用与DIM一致的、使用噪音对比类型的目标函数以联合分布正样本与边缘分布之积的标准二值交叉熵作为损失函数 L 1 N M ( ∑ i 1 N E ( X , A ) [ log ⁡ D ( h ⃗ i , s ⃗ ) ] ∑ j 1 M E ( X ~ , A ~ ) [ log ⁡ ( 1 − D ( h ~ ⃗ j , s ⃗ ) ) ] ) \mathcal{L}\frac{1}{NM}\left(\sum_{i1}^{N}\mathbb{E}_{(\mathbf{X},\mathbf{A})}\left[\log\mathcal{D}\left(\vec{h}_i,\vec{s}\right)\right]\sum_{j1}^{M}\mathbb{E}_{(\tilde{\mathbf{X}},\tilde{\mathbf{A}})}\left[\log\left(1-\mathcal{D}\left(\vec{\widetilde{h}}_j,\vec{s}\right)\right)\right]\right) LNM1​(i1∑N​E(X,A)​[logD(h i​,s )]j1∑M​E(X~,A~)​[log(1−D(h j​,s ))]) 基于联合分布和边缘分布之积的JS散度可以有效地最大化 h ⃗ i \vec{h}_i h i​和 s ⃗ \vec{s} s 的互信息。 4.2、理论动机 1引理1 给定K个图每个图的结点表示的集合为 X ( k ) X^{(k)} X(k)每个图从分布 p ( X ) p(X) p(X)中被选中的概率是均匀的那么联合概率与边缘概率之间的最优分类器在类平衡的条件下错误的上限是 E r r ∗ 1 2 ∑ k 1 ∣ X ∣ p ( s ⃗ k ) 2 \mathrm{Err}^* \frac{1}{2}\sum_{k1}^{|X|}p(\vec{s}^{k})^2 Err∗21​k1∑∣X∣​p(s k)2 2推论1 假设readout函数是单射的 ∣ s ⃗ ∣ ∣ X ∣ |\vec{s}||X| ∣s ∣∣X∣则对于 s ⃗ ∗ \vec{s}^* s ∗在联合分布和边际分布之积间最优分类器分类误差下的最优summary存在 ∣ s ⃗ ∗ ∣ ∣ X ∣ |\vec{s}^*||X| ∣s ∗∣∣X∣ 3定理1 ∣ s ⃗ ∗ ∣ a r g m i n s ⃗ M I ( X ; s ⃗ ) |\vec{s}^*|argmin_{\vec{s}} MI(X;\vec{s}) ∣s ∗∣argmins ​MI(X;s )MI表示互信息. 定理1表明最小化判别器的分类误差可以最大化输入与 输出之间的互信息。 4定理2 假设 ∣ X i ∣ ∣ X ∣ ∣ s ⃗ ∣ ∣ h ⃗ i ∣ |X_i||X||\vec{s}||\vec{h}_i| ∣Xi​∣∣X∣∣s ∣∣h i​∣则能最小化 p ( h ⃗ ) i , s ⃗ ) p(\vec{h})_i,\vec{s}) p(h )i​,s )与 p ( h ⃗ i ) p ( s ⃗ ) p(\vec{h}_i)p(\vec{s}) p(h i​)p(s )的分类误差可以最大化 M I ( X ( k ) , h ⃗ i ) MI(X^{(k)},\vec{h}_i) MI(X(k),h i​)。 4.2、DGI的整体架构 通过corruption function采样一个负样本 ( X ~ , A ~ ) ∼ C ( X , A ) (\tilde{X},\tilde{A})\sim\mathcal{C}(X,A) (X~,A~)∼C(X,A)通过编码器获得正例样本的patch representations H E ( X , A ) { h ⃗ 1 , h ⃗ 2 , … , h ⃗ N } \mathrm{H}\mathcal{E}(\mathrm{X},\mathrm{A})\{\vec{h}_{1},\vec{h}_{2},\ldots,\vec{h}_{N}\} HE(X,A){h 1​,h 2​,…,h N​}通过编码器获得负例样本的patch representations H ~ E ( X ~ , A ~ ) { h ~ ⃗ 1 , h ~ ⃗ 2 , … , h ~ ⃗ N } \mathrm{\tilde{H}}\mathcal{E}(\mathrm{\tilde{X}},\mathrm{\tilde{A}})\{\vec{\tilde{h}}_{1},\vec{\tilde{h}}_{2},\ldots,\vec{\tilde{h}}_{N}\} H~E(X~,A~){h~ 1​,h~ 2​,…,h~ N​}将patch represents输入到readout function 计算图的全局信息 s ⃗ R ( H ) \vec{s}\mathcal{R}(\mathrm{H}) s R(H)通过梯度下降算法最大化损失函数更新 E , R , D \mathcal{E},\mathcal{R},\mathcal{D} E,R,D的参数 5、实验设置 DGI以完全无监督的方式学习patch represents然后直接使用这些表征来训练和测试简单的线性分类器来评估这些表征得节点级分类的效果。 这里仅仅列出直推式学习的实验设置。 5.1、直推式学习CoraCiteseer and Pubmed 1、编码器encoder 由一层的图卷积网络GCN组成如下形式 E ( X , A ) σ ( D ^ − 1 2 A ^ D ^ − 1 2 X Θ ) \mathcal{E}(X,A)\sigma(\hat{D}^{-\frac{1}{2}}\hat{A}\hat{D}^{-\frac{1}{2}}X\Theta) E(X,A)σ(D^−21​A^D^−21​XΘ) A ^ A I N \hat{A}AI_N A^AIN​是带有自环的邻接矩阵 D ^ \hat{D} D^是对应的度矩阵 σ \sigma σ是参数化的ReLU即PReLU Θ \Theta Θ为可学习的线性变换参数。 2、corruption function 在直推式学习任务中corruption function旨在使图中不同结点的结构相似性进行正确编码故保留原始的邻接矩阵并对原始特征矩阵按行随机排列即 ( X ~ , A ~ ) ( s h u f f l e ( X ) , A ) (\tilde{X},\tilde{A})(shuffle(X),A) (X~,A~)(shuffle(X),A). 3、readout function R ( H ) σ ( 1 N ∑ i 1 N h ⃗ i ) \mathcal{R}(H)\sigma(\frac{1}{N}\sum_{i1}^N\vec{h}_i) R(H)σ(N1​i1∑N​h i​) σ \sigma σ为sigmoid函数。 4、discriminator function D ( h ⃗ i , s ⃗ ) σ ( h ⃗ i T W s ⃗ ) \mathcal{D}(\vec{h}_i,\vec{s})\sigma(\vec{h}_i^TW\vec{s}) D(h i​,s )σ(h iT​Ws ) W \mathbf{W} W是一个可学习的得分矩阵 σ \sigma σ为sigmoid激活函数用来将得分转化为 ( h ⃗ i , s ⃗ ) (\vec{h}_i,\vec{s}) (h i​,s )的概率。 6、代码实现 完整代码链接 链接https://pan.baidu.com/s/1JyWhR1LP0Sdzhpl25SSjXw 提取码6666 6.1、DGI import torch import torch.nn as nn import torch.nn.functional as F from layers.readout import readout from layers.GCNLayer import GCNLayer from layers.discriminator import discriminatorclass DGI(nn.Module):def __init__(self,infeat,hidfeat,activationprelu, ) - None:super(DGI,self).__init__()self.gcn GCNLayer(infeat,hidfeat,activation)self.readout readout()self.disc discriminator(hidfeat)def forward(self,g,x1,x2):h1 self.gcn(x1,g)h2 self.gcn(x2,g)s self.readout(h1)res self.disc(s,h1,h2)return resdef embed(self,x,g):h self.gcn(x,g)s self.readout(h)return h.detach(),s.detach()6.2、GCNLayer import torch.nn as nn import torch class GCNLayer(nn.Module):def __init__(self, infeat,outfeat,activation,biasTrue) - None:super(GCNLayer,self).__init__()self.layer nn.Linear(infeat,outfeat,biasFalse)self.activation nn.PReLU() if bias:self.bias nn.Parameter(torch.FloatTensor(outfeat))self.bias.data.fill_(0.0)else:self.register_parameter(bias, None)for m in self.modules():self.weights_init(m)def weights_init(self, m):if isinstance(m, nn.Linear):torch.nn.init.xavier_uniform_(m.weight.data)if m.bias is not None:m.bias.data.fill_(0.0)def forward(self,x,g):out self.layer(x)out torch.spmm(g,out)if self.bias is not None:out out self.biasreturn self.activation(out)6.3、readout function import torch import torch.nn as nnclass readout(nn.Module):def __init__(self, ) - None:super(readout,self).__init__()self.act nn.Sigmoid()def forward(self,seq):return self.act(torch.mean(seq,dim1))6.4、discriminator import torch import torch.nn as nn class discriminator(nn.Module):def __init__(self,hidfeat) - None:super(discriminator,self).__init__()self.bidlinear nn.Bilinear(hidfeat,hidfeat,1)#self.act nn.Sigmoid()for m in self.modules():self.weights_init(m)def weights_init(self, m):if isinstance(m, nn.Bilinear):torch.nn.init.xavier_uniform_(m.weight.data)if m.bias is not None:m.bias.data.fill_(0.0)def forward(self,s,h1,h2):s torch.unsqueeze(s, 1)s s.expand_as(h1)dis_1 self.bidlinear(h1,s)#dis_1 self.act(dis_1)dis_2 self.bidlinear(h2,s)#dis_2 self.act(dis_2)logits torch.cat([dis_1,dis_2],dim0)#.transpose(1,0)return logits7、参考链接 参考链接1 参考链接2 参考链接3 参考链接4

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/921698.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

校园二手网站开发与设计任务书行政单位单位网站建设

1.实现一个纵横字谜 2.支持14x14的网格 3.可以查看答案 4.猜测错误会提示答案信息 5.从txt读取词汇 6.每次游戏开始 随机生成纵横字谜 n’h

网站推他网站wordpress教程登陆

1.为什么要有缓冲区 缓冲区分成语言层面的缓冲区和操作系统层面的缓冲区 先说结论,语言的缓冲区可以减少系统调用的次数进而提高向文件写入和读取的效率。 2.举例子 向屏幕打印,无非就是向屏幕这个文件的缓冲区写入,然后在由操作系统刷新…

重庆工程建设信息网站4399谁做的网站

log函数是指数函数y bx 的反函数,用于求数字以某个数为底的对数。log函数的定义:设b>0,b≠1,对于任意实数x > 0,如果存在唯一的实数y,使得 b^y x,则称y为以b为底x的对数,记为:y log_b(x)这里b称为对数的底数。对数运算的底数通常取10和e。常见的对数运算有:1. 常用对数…

公司核名在哪个网站网站提交搜索引擎后出现问题

作者:Zarten知乎专栏:Python爬虫深入详解知乎ID: Zarten简介: 互联网一线工作者,尊重原创并欢迎评论留言指出不足之处,也希望多些关注和点赞是给作者最好的鼓励 !介绍MongoDB是一种面向文档型的…

供应商协同平台:打造高效安全供应链的关键

供应商协同平台通过整合技术资源,解决了传统供应链中文件传输混乱、数据更新延迟、安全管控薄弱等问题。结合“Ftrans B2B企业间⽂件安全交换系统”的加密传输与权限管理功能,平台实现了设计图纸、订单数据等关键信息…

互斥锁和信号量机制

互斥锁 特性: 1.需要忙等,进程时间片用完才下处理机,违反让权等待 2.优点:等待奇迹不用切换进程上下文,多处理机系统中,若上锁的时间短,则等待的代价很低 3.常用于多处理机,一个核忙等,其他核照常工作,并快速…

NSIS为当前用户安装和为所有用户安装的选择

一、为当前用户和所有用户安装选择 确定 NSIS 脚本中应使用 SetShellVarContext all 还是 current,主要取决于你的软件安装目标和用户访问需求。可以通过以下几个核心问题来判断: 1. 软件是否需要被系统中所有用户访…

在 Unity 中运用 SoundTouch 插件控制音频倍速播放

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

网站的商桥怎么做国内产品设计公司前十名

内容管理模块 - 课程预览、提交审核 文章目录 内容管理模块 - 课程预览、提交审核一、课程预览1.1 需求分析1.2 freemarker 模板引擎1.2.1 Maven 坐标1.2.2 freemaker 相关配置信息1.2.3 添加模板 1.3 测试静态页面1.3.1 部署Nginx1.3.2 解决端口问题被占用问题1.3.3 配置host文…

网站建设综合实训报告公司建设网站需要什么条件

介绍: lag() 是一种常用的窗口函数,它用于获取某一行之前的行的值。它可以用来在结果集中的当前行之前访问指定列的值。 用法: lag() 函数的语法如下: lag(列名, 偏移量, 默认值) over (partition by 列名1, 列名2, ... order by 列名 [asc|desc], .…

数据中台厂商选型|解决方案厂商与独立中台厂商详细解读

上一轮关于数据中台厂商的分享,获得了不少同行伙伴的积极反馈与认可。大家普遍认为内容具有较好的参考意义,并希望进一步了解“解决方案厂商”与“独立数据中台厂商”各自的特点。这份关注令我感到十分荣幸,也让我更…

深度学习项目全流程实践与核心技术解析:从数据处理到模型优化 - 教程

深度学习项目全流程实践与核心技术解析:从数据处理到模型优化 - 教程pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: &q…

基于 SciPy 的矩阵运算与线性代数应用详解 - 详解

基于 SciPy 的矩阵运算与线性代数应用详解 - 详解2025-09-29 10:15 tlnshuju 阅读(0) 评论(0) 收藏 举报pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; displa…

直接使用的NLog帮助类

1.先引入NLog.dll包 2.新建类: public static class LogHelper { public static void Info(object msg, params object[] parameters) { var log = LogManager.GetLogger("CameraApp"); log.Info(msg); } pu…

【每日一面】setTimeout 延时为 0 的情况

基础问答 问题:你在写代码的过程中,在什么时候才会设置 setTimeout 的延时为 0? 回答:有如下几种情况避免同步任务阻塞 UI,即在渲染较多数据的时候,可以通过 setTimeout 分批渲染。const data = new Array(1000)…

honeywell扫码枪设置

honeywell扫码枪设置1.2.如何使用Tera Term发送十六进制数给扫码枪? 使用 Tera Term 宏(TTL 脚本)如果你需要发送重复的或更复杂的十六进制序列,或者需要处理大于 0x7F 的字节(在某些字符集设置下可能会有问题),…

Python3 pip 详解

Python3 pip 详解pip 是 Python 生态中最核心的包管理工具,用于安装、升级、卸载第三方 Python 库,是 Python 开发者日常工作中不可或缺的工具。本文将从基础概念到高级用法,全面解析 pip 在 Python3 环境下的使用方…

IP5306 测试

IP5326使用测试测试 1 (寄存器控制)在进入 I2C 模式前会进行检测,需要引脚首先是高电平才行。如果电源与MCU的 上电不能同步,将不会进入I2C 模式。I2C 读取充电状态,充电进行状态并不是总是正常,好在其他状态也会…

AI元人文:悟空博弈框架

AI元人文:悟空博弈框架 文/岐金兰AI元人文:悟空博弈框架 ——基于三值模型与价值原语的人机协同决策体系命名释义「悟空」勘破表象:借AI之力洞见价值冲突的本质,超越人类认知局限;悬荡空明:在计算与人文的临…

phpcms网站打不开苏州做网站费用明细

图像识别是计算机视觉领域的一个重要分支,它的基本任务是从图像中提取出有助于分类或识别的信息,这些信息通常称为“特征”。特征提取是图像识别中的关键技术之一,它决定了识别系统性能的好坏。以下是几种常见的特征提取技术: 边…