人工智能十大数学知识 - 图论 - 何苦

news/2025/10/28 0:54:15/文章来源:https://www.cnblogs.com/fuqian/p/19170515

人工智能十大数学知识 - 图论

图论(Graph Theory)在人工智能中的核心应用

图论是描述“对象关联关系”的数学工具,通过顶点(实体)边(关系) 构建离散结构,是AI处理非欧几里得数据(如社交网络、知识图谱、分子结构)的核心基础,也是图神经网络(GNN)、推荐系统等模型的底层框架。

1. 图的基本定义与表示(Graph Definition & Representation)

1.1 图的核心概念与分类

图的通用定义

  • 公式
    无向图 \(G = (V, E)\),有向图 \(D = (V, A)\)
    各组件含义:
    • \(V = \{v_1, v_2, ..., v_n\}\)顶点集\(n = |V|\) 为顶点数,AI中对应“实体”,如用户、单词、分子原子);
    • \(E = \{e_1, e_2, ..., e_m\}\)无向边集(边无方向,\(e = (u, v)\) 表示 \(u\)\(v\) 关联,如社交网络“好友关系”);
    • \(A = \{a_1, a_2, ..., a_m\}\)有向边集(边有方向,\(a = <u, v>\) 表示从 \(u\) 指向 \(v\),如网页“超链接”、因果关系)。

常见图的分类

分类维度 类型 核心特征 AI应用场景示例
边的方向 无向图 \((u, v) = (v, u)\),边无方向 图像像素相邻关系、社交好友关系
有向图 \(<u, v> \neq <v, u>\),边有方向 网页超链接、食物链、任务依赖关系
边的权重 无权图 边无权重(默认权重为1) 简单好友关系、无权重的知识图谱关系
加权图 边关联权重 \(w(e) \in \mathbb{R}\),记为 \(G = (V, E, W)\)\(W\) 为权重矩阵) 用户互动频率(权重=互动次数)、词相似度
特殊结构 有向无环图(DAG) 无循环的有向图 神经网络计算图、任务调度依赖
二分图 \(V = V_1 \cup V_2\)\(V_1 \cap V_2 = \emptyset\)),边仅存在于 \(V_1-V_2\) 用户-物品推荐系统、学生-课程分配
完全图 任意两顶点间均有边(无向完全图边数 \(m = \frac{n(n-1)}{2}\) 全连接神经网络层内连接、全连通传感器网络

1.2 图的表示方法(AI核心操作)

1. 邻接矩阵(Adjacency Matrix)

  • 公式:设图 \(G = (V, E)\)\(n\) 个顶点,邻接矩阵 \(A \in \{0, 1\}^{n \times n}\)(无权图)定义为:

    \[A_{ij} = \begin{cases} 1, & \text{若 } (v_i, v_j) \in E \text{(无向图)或 } <v_i, v_j> \in A \text{(有向图)} \\ 0, & \text{否则} \end{cases}\]

    加权图的邻接矩阵:\(A_{ij} = w(v_i, v_j)\)(无关联时为0,非负权场景)或 \(\infty\)(最短路径场景)。

  • 核心特性

    • 无向图的邻接矩阵对称(\(A^T = A\)),有向图不一定;
    • 空间复杂度 \(O(n^2)\),适合稠密图(边数 \(m \approx n^2\))。
  • AI应用

    • 图神经网络(GNN)核心输入:如 GCN 的层间传播公式 \(H^{(l+1)} = \sigma(\tilde{D}^{-1/2}\tilde{A}\tilde{D}^{-1/2}H^{(l)}W^{(l)})\)\(\tilde{A}\) 为带自环的邻接矩阵;
    • 小规模图的快速运算:如邻接矩阵乘法可计算“两跳邻居”(\(A^2_{ij}\) 表示 \(v_i\)\(v_j\) 的两跳路径数)。

2. 度与度矩阵(Degree & Degree Matrix)

  • 节点度

    • 无向图:节点 \(v_i\) 的度 \(d_i = \sum_{j=1}^n A_{ij}\)(关联边数);
    • 有向图:入度 \(d_i^- = \sum_{j=1}^n A_{ji}\)(指向 \(v_i\) 的边数),出度 \(d_i^+ = \sum_{j=1}^n A_{ij}\)(从 \(v_i\) 出发的边数)。
  • 度矩阵:对角矩阵 \(D \in \mathbb{R}^{n \times n}\),公式:
    \(D = \text{diag}(d_1, d_2, ..., d_n)\)(仅对角元素为节点度,其余为0)。

  • AI应用

    • GNN中的特征归一化:如 GCN 用 \(\tilde{D}^{-1/2}\) 平衡不同度数节点的特征贡献,避免高度数节点主导聚合结果;
    • 节点重要性初判:社交网络中高度数节点可能是“意见领袖”,优先分析其传播影响力。

3. 邻接表(Adjacency List)

  • 定义:用“数组+链表”存储,数组 \(adj\) 索引对应顶点,链表存储该顶点的邻接顶点:

    • 无向图:\(adj[v_i] = [v_j \mid (v_i, v_j) \in E]\)
    • 加权图:\(adj[v_i] = [(v_j, w_{ij}) \mid (v_i, v_j) \in E]\)(同时存储邻接顶点及边权重)。
  • 核心特性

    • 空间复杂度 \(O(n + m)\),适合稀疏图(AI中大规模图多为稀疏图,如社交网络 \(m \ll n^2\));
    • 高效遍历:遍历某顶点的所有邻居仅需访问对应链表,无需遍历整行矩阵。
  • AI应用

    • 大规模图的遍历算法:如 BFS、DFS 对社交网络(\(n\) 百万级)的高效节点访问;
    • 推荐系统存储:用户-物品二分图用邻接表存储“用户购买的物品”或“物品被购买的用户”,节省内存。

2. 图的基本性质与定理(Graph Properties & Theorems)

2.1 顶点度数与握手定理

握手定理(Handshaking Lemma)

  • 无向图定理:所有顶点的度数和等于边数的2倍,公式:
    \(\sum_{v \in V} d(v) = 2m\)
    (每边贡献2个度数,分别属于两个顶点)。

  • 有向图推论:所有顶点的入度和等于出度和,且等于边数,公式:
    \(\sum_{v \in V} d^-(v) = \sum_{v \in V} d^+(v) = m\)

  • AI应用

    • 图数据校验:如社交网络数据中,若度数和为奇数,说明数据存在统计错误(如漏记/多记边);
    • 异常节点检测:度数远高于均值的节点可能是“超级节点”(如机器人账号),度数为0的节点是孤立节点(可剔除以简化模型)。

2.2 路径、回路与连通性

核心概念定义

  • 路径:顶点序列 \(v_1 \to v_2 \to ... \to v_k\),相邻顶点间有边,长度为 \(k-1\)(边数);
    简单路径:顶点不重复的路径(如 \(v_1 \to v_2 \to v_3\))。

  • 回路:起点=终点的路径(如 \(v_1 \to v_2 \to v_1\));
    简单回路:除起点/终点外顶点不重复的回路。

  • 连通性

    • 无向图:任意两顶点间有路径则为连通图,否则为非连通图,其极大连通子图称为连通分量
    • 有向图:任意两顶点间有双向路径则为强连通图,忽略边方向后连通则为弱连通图
  • AI应用

    • 社区发现:社交网络中,连通分量对应“用户社群”,强连通分量对应“核心互动群体”;
    • 知识图谱补全:实体间的路径长度可衡量语义关联强度(短路径关联更紧密)。

2.3 二分图判定定理

  • 定理:一个无向图是二分图,当且仅当它不包含长度为奇数的回路(奇环)。

  • 判定方法:染色法(用两种颜色标记顶点,相邻顶点颜色不同,无冲突则为二分图)。

  • AI应用

    • 用户-物品推荐:将“用户-物品”建模为二分图,保证无“用户-用户”或“物品-物品”直接边,简化推荐算法(如基于二分图匹配的协同过滤);
    • 图像标注:将“图像区域-标签”建模为二分图,通过二分图匹配优化标签分配(避免同一区域被标注多个冲突标签)。

2.4 DAG的拓扑排序定理

  • 定理:一个有向图存在拓扑排序,当且仅当它是有向无环图(DAG)。

  • 拓扑排序:顶点的线性序列 \(v_1, v_2, ..., v_n\),对任意边 \(<v_i, v_j>\)\(v_i\) 在序列中早于 \(v_j\)(满足“先后依赖”)。

  • AI应用

    • 深度学习框架计算:TensorFlow/PyTorch 将模型计算流程建模为DAG,拓扑排序确定算子执行顺序(避免依赖错误);
    • 任务调度:AI workflow 中,基于拓扑排序规划“数据预处理→模型训练→结果评估”的执行顺序。

2.5 其他关键定理

定理名称 核心结论 AI应用场景
哈密顿回路定理 判断图是否存在“包含所有顶点的回路”是NP完全问题,需近似求解 旅行商问题(TSP)路径优化、物流配送路线规划
四色定理 任何平面图可用最多4种颜色着色,使相邻顶点颜色不同 地图区域着色、芯片设计中的寄存器分配
聚类系数定理 聚类系数 \(C = \frac{3 \times \text{三角形数量}}{\text{连通三元组数量}}\),衡量图的聚集程度 社交网络社群紧密性分析、蛋白质相互作用网络模块识别

3. 图的核心算法(Core Graph Algorithms)

3.1 图的遍历算法

1. 广度优先搜索(BFS)

  • 核心思想:按“层次”遍历图,先访问起点的所有邻居,再访问邻居的邻居(保证无权图最短路径)。
  • 算法步骤
    1. 初始化:队列 \(Q = [v_0]\),访问标记 \(\text{visited} = \{v_0\}\)
    2. 循环:出队顶点 \(v\),遍历其未访问的邻居 \(u\),标记 \(\text{visited}\) 并入队;
    3. 终止:队列为空,遍历完成。
  • 时间复杂度\(O(n + m)\)(每个顶点和边各访问一次)。
  • AI应用
    • 无权图最短路径:如社交网络中“用户A到用户B的最短好友链”;
    • 图的连通分量检测:遍历过程中未访问的顶点对应新连通分量。

2. 深度优先搜索(DFS)

  • 核心思想:“深度优先”探索,尽可能沿一条路径遍历至终点,再回溯探索其他分支。
  • 算法实现:递归或栈(避免递归栈溢出)。
  • 时间复杂度\(O(n + m)\)
  • AI应用
    • 拓扑排序(针对DAG):DFS后按顶点完成时间逆序排列,得到拓扑序列;
    • 强连通分量检测(Tarjan算法、Kosaraju算法):如网页链接图中识别相互引用的网页集群。

3.2 最短路径算法

1. Dijkstra算法(单源最短路径,无负权边)

  • 核心思想:贪心策略,从起点出发,每次选择“当前距离最短的未访问顶点”,更新其邻接顶点的距离。
  • 关键步骤
    1. 初始化:距离数组 \(\text{dist}[v] = \infty\)\(\text{dist}[s] = 0\)\(s\) 为起点),优先队列 \(Q\) 存入所有顶点;
    2. 循环:出队距离最小的顶点 \(u\),对每个邻居 \(v\) 执行松弛操作\(\text{dist}[v] = \min(\text{dist}[v], \text{dist}[u] + w(u,v))\)
    3. 终止:队列为空,\(\text{dist}[v]\) 即为 \(s\)\(v\) 的最短距离。
  • 时间复杂度\(O(m \log n)\)(使用优先队列)。
  • AI应用
    • 自动驾驶导航:道路网络建模为加权图(权重=距离/时间),计算起点到终点的最短路径;
    • 知识图谱推理:计算实体间的最短语义路径(如“李白→唐诗→杜甫”),衡量关联强度。

2. Floyd-Warshall算法(多源最短路径,支持负权边无负环)

  • 核心思想:动态规划,通过“中间顶点”迭代更新任意两点间的最短距离,公式:
    \(D_{ij}^{(k)} = \min(D_{ij}^{(k-1)}, D_{ik}^{(k-1)} + D_{kj}^{(k-1)})\)
    其中 \(D_{ij}^{(k)}\) 表示“经过顶点编号≤k”时,\(v_i\)\(v_j\) 的最短距离。
  • 时间复杂度\(O(n^3)\)(适合小规模图,\(n < 1000\))。
  • AI应用
    • 小规模网络多节点路径规划:如局域网内设备间的通信路径优化;
    • 图数据相似度计算:任意两点的最短距离可作为相似度指标(距离越短相似度越高)。

3.3 最小生成树(MST)算法

定义

最小生成树是“包含所有顶点、无回路、边权重和最小”的子图(边数 \(n-1\)),用于“最小成本连接所有节点”。

1. Kruskal算法(按边排序,贪心)

  • 核心思想:将所有边按权重从小到大排序,依次选边加入MST,若选边形成回路则跳过(用并查集判断回路)。
  • 时间复杂度\(O(m \log m)\)(边排序主导)。

2. Prim算法(按顶点扩展,贪心)

  • 核心思想:从任意顶点出发,每次选择“连接已选顶点集与未选顶点集的最小权重边”,加入MST,直至包含所有顶点。

  • 时间复杂度\(O(m \log n)\)(使用优先队列)。

  • AI应用

    • 传感器网络部署:用MST连接所有传感器,最小化布线成本;
    • 图像分割:将像素视为顶点,边权重=像素相似度,MST的“最大边切割”对应分割边界(分离不同物体)。

3.4 二分图匹配算法(匈牙利算法)

核心概念

  • 匹配:二分图中无公共顶点的边集;
  • 最大匹配:边数最多的匹配;
  • 完美匹配:匹配边数 = \(|V_1| = |V_2|\)(所有顶点均被匹配)。

匈牙利算法(寻找最大匹配)

  • 核心思想:通过“增广路径”迭代扩展匹配集——增广路径是“从非匹配顶点出发,交替经过非匹配边和匹配边的路径”,翻转路径中边的匹配状态(非匹配→匹配,匹配→非匹配),可使匹配边数+1。

  • 时间复杂度\(O(nm)\)\(n\) 为顶点数,\(m\) 为边数)。

  • AI应用

    • 推荐系统:用户-物品二分图的最大匹配,最大化“用户-物品”匹配数(提升推荐覆盖率);
    • 人才-岗位匹配:基于“技能匹配度”(边权重)的加权二分图匹配,优化人才资源分配。

3.5 节点重要性算法(PageRank & Node2Vec)

1. PageRank算法(网页/节点重要性)

  • 迭代公式
    \(PR(p) = \frac{1-d}{n} + d \sum_{q \in \text{In}(p)} \frac{PR(q)}{\text{Out}(q)}\)
    各参数含义:
    • \(PR(p)\):节点 \(p\) 的PageRank值(重要性);
    • \(d\):阻尼因子(通常取0.85,模拟“随机跳转”,避免无出度节点问题);
    • \(\text{In}(p)\):指向 \(p\) 的节点集合;
    • \(\text{Out}(q)\):节点 \(q\) 的出边数。
  • AI应用
    • 搜索引擎排序:网页重要性计算(高PR值网页排名靠前);
    • 社交网络核心节点识别:高PR值用户是“关键传播者”(如病毒式营销的目标用户)。

2. Node2Vec算法(图嵌入)

  • 核心思想:通过可控随机游走生成节点序列(参数 \(p\) 控制“回溯倾向”,\(q\) 控制“探索倾向”),再用Word2Vec学习低维嵌入(保留图结构信息)。
  • 目标函数
    \(\max_f \sum_{u \in V} \log P(\text{N}_S(u) \mid f(u))\)
    其中 \(\text{N}_S(u)\) 是节点 \(u\) 的随机游走邻居集,\(f(u)\)\(u\) 的嵌入向量。
  • AI应用
    • 节点分类:将嵌入向量输入分类器(如SVM),实现社交网络用户标签预测;
    • 链路预测:计算节点嵌入的相似度(如余弦相似度),预测未连接的边(如知识图谱补全)。

4. 图的中心性与谱分析(Centrality & Spectral Analysis)

4.1 中心性指标(衡量节点重要性)

中心性类型 公式(无向图) 核心含义 AI应用场景
度中心性 \(C_d(v) = \frac{d(v)}{n-1}\)(归一化,最大度数为 \(n-1\) 节点的直接关联度(邻居数量) 社交网络“粉丝数”排名、知识图谱核心实体初筛
介数中心性 \(C_b(v) = \sum_{s \neq v \neq t} \frac{\sigma_{st}(v)}{\sigma_{st}}\)\(\sigma_{st}\)\(s-t\)最短路径总数,\(\sigma_{st}(v)\)为经过\(v\)的路径数) 节点在“信息传递”中的中介作用(位于多对节点的最短路径上) 传播路径关键节点识别(如谣言传播的阻断节点)
特征向量中心性 \(A \boldsymbol{c} = \lambda_{\text{max}} \boldsymbol{c}\)\(\boldsymbol{c}\)为特征向量,\(\lambda_{\text{max}}\)\(A\)的最大特征值) 节点重要性由“邻居重要性”决定(与重要节点相连的节点更重要) PageRank算法基础、学术论文影响力评估(被高影响力论文引用)
closeness中心性 \(C_c(v) = \frac{n-1}{\sum_{u \neq v} \text{dist}(v, u)}\)\(\text{dist}(v,u)\)\(v-u\)最短距离) 节点到其他所有节点的“平均距离”(距离越短,中心性越高) 应急节点选址(如医院、消防站需快速到达所有区域)

4.2 图的拉普拉斯矩阵(谱图理论核心)

1. 普通拉普拉斯矩阵(Laplacian Matrix)

  • 公式\(L = D - A\)\(D\) 为度矩阵,\(A\) 为邻接矩阵)。
  • 核心性质
    • 对称半正定矩阵(所有特征值 \(\lambda_i \geq 0\));
    • 最小特征值 \(\lambda_0 = 0\),对应特征向量为全1向量(\(\boldsymbol{1}^T L = \boldsymbol{0}\));
    • 特征值个数 = 顶点数 \(n\),排序 \(\lambda_0 \leq \lambda_1 \leq ... \leq \lambda_{n-1}\)

2. 归一化拉普拉斯矩阵(Normalized Laplacian)

  • 两种常用形式

    1. 对称归一化:\(L_{\text{sym}} = D^{-1/2} L D^{-1/2} = I - D^{-1/2} A D^{-1/2}\)(GCN核心矩阵);
    2. 随机游走归一化:\(L_{\text{rw}} = D^{-1} L = I - D^{-1} A\)(随机游走相关任务)。
  • AI应用

    • 图卷积网络(GCN):\(L_{\text{sym}}\) 实现邻域特征的“平滑聚合”,避免高度数节点特征被过度稀释;
    • 谱聚类:对 \(L\) 做特征分解,取前 \(k\) 个最小特征值对应的特征向量聚类(利用谱特性保留全局结构,优于传统K-Means);
    • 图平滑性衡量:\(X^T L X = \frac{1}{2} \sum_{(u,v) \in E} (x_u - x_v)^2\)(值越小,相邻节点特征越相似,图信号越平滑)。

4.3 图傅里叶变换(Graph Signal Processing)

  • 定义:类比传统信号处理,将图信号(如节点特征 \(X\))从“空域”转换到“频域”,公式:
    正变换(空域→频域):\(\hat{X}(\lambda_l) = \boldsymbol{u}_l^T X\)\(\boldsymbol{u}_l\)\(L\) 的第 \(l\) 个特征向量,\(\lambda_l\) 为对应特征值);
    逆变换(频域→空域):\(X = \sum_{l=0}^{n-1} \hat{X}(\lambda_l) \boldsymbol{u}_l\)
  • 核心解读
    • 低特征值 \(\lambda_l\) 对应“低频信号”(图信号平滑变化,反映全局趋势);
    • 高特征值 \(\lambda_l\) 对应“高频信号”(图信号局部波动,反映异常点或细节)。
  • AI应用
    • 图信号去噪:过滤高频分量,保留低频平滑信号(如传感器网络数据去噪);
    • 图卷积定义:频域卷积 = 信号频域值 × 滤波器频域值(GCN的频域解释)。

5. 图表示学习与神经网络(Graph Representation Learning & GNN)

5.1 图嵌入(Graph Embedding)

将图节点/边映射到低维向量空间,保留图结构和语义信息,是GNN的前置基础。

嵌入方法 核心思想 AI应用场景
DeepWalk 随机游走生成节点序列,用Word2Vec学习嵌入(保留局部结构) 社交网络节点分类、链路预测
Node2Vec 可控随机游走(参数 \(p/q\) 平衡BFS/DFS),兼顾局部和全局结构 知识图谱实体嵌入、分子结构表示
谱聚类嵌入 拉普拉斯矩阵特征分解,取前 \(k\) 个特征向量作为嵌入(保留全局结构) 非球形数据聚类(如用户行为聚类)
TransE(知识图谱) 将实体和关系映射到向量,满足 \(h + r = t\)\(h\) 头实体,\(r\) 关系,\(t\) 尾实体) 知识图谱补全、语义问答系统

5.2 图神经网络(GNN)

通过“消息传递”聚合邻居特征,处理图结构数据,是当前AI图任务的核心模型。

1. 图卷积网络(GCN)

  • 层间传播公式
    \(H^{(l+1)} = \sigma\left(\tilde{D}^{-1/2} \tilde{A} \tilde{D}^{-1/2} H^{(l)} W^{(l)}\right)\)
    各组件含义:
    • \(\tilde{A} = A + I\):带自环的邻接矩阵(保留节点自身特征);
    • \(\tilde{D}\)\(\tilde{A}\) 对应的度矩阵;
    • \(H^{(l)}\):第 \(l\) 层节点特征矩阵;
    • \(W^{(l)}\):可学习权重矩阵;
    • \(\sigma\):激活函数(如ReLU)。
  • AI应用
    • 分子结构预测:将原子视为节点,化学键视为边,预测分子活性(如药物研发);
    • 知识图谱分类:对实体特征进行卷积聚合,实现实体类型预测。

2. 图注意力网络(GAT)

  • 核心改进:引入注意力机制,为不同邻居分配不同权重(解决GCN“平等对待所有邻居”的缺陷)。
  • 注意力系数计算
    1. 特征线性变换:\(h_i' = W h_i\)\(W\) 为共享权重);
    2. 注意力分数:\(e_{ij} = a(W h_i, W h_j)\)\(a\) 为注意力函数,如多层感知机);
    3. 归一化:\(\alpha_{ij} = \frac{\exp(\text{LeakyReLU}(e_{ij}))}{\sum_{k \in \mathcal{N}(i)} \exp(\text{LeakyReLU}(e_{ik}))}\)\(\mathcal{N}(i)\)\(i\) 的邻居集);
    4. 特征聚合:\(h_i^{(l+1)} = \sigma\left(\sum_{j \in \mathcal{N}(i)} \alpha_{ij} W h_j^{(l)}\right)\)
  • AI应用
    • 社交网络分析:对“亲密好友”分配高注意力权重,提升用户行为预测精度;
    • 图像分割:对“语义相似的邻域像素”分配高权重,优化分割边界。

3. 图自编码器(GAE)

  • 核心结构
    • 编码器:用GCN将节点特征映射为低维嵌入 \(Z = \text{GCN}(X, A)\)
    • 解码器:通过内积重构邻接矩阵 \(\hat{A} = \sigma(Z Z^T)\)(预测节点间是否存在边)。
  • AI应用
    • 无监督图嵌入:无需标签,通过重构邻接矩阵学习节点嵌入;
    • 链路预测:知识图谱补全(预测实体间缺失的关系)、社交网络好友推荐。

6. 图生成模型(Graph Generation Models)

生成符合特定结构的图,用于模拟真实网络或创造新结构(如药物分子、社交网络)。

生成模型 核心思想 AI应用场景
Erdős-Rényi模型 \(G(n, p)\):每对顶点以概率 \(p\) 随机连接,度分布近似泊松分布 随机网络模拟、基准测试数据集生成
Watts-Strogatz模型 从完全图开始,随机重连部分边,生成“短平均路径+高聚类系数”的小世界网络 社交网络模拟、传染病传播建模
Barabási-Albert模型 偏好连接(新节点优先连接高度数节点),度分布服从幂律(无标度网络) 互联网拓扑模拟、 citation网络生成
图生成对抗网络(GGAN) 生成器生成图结构,判别器区分“真实图”与“生成图”,对抗训练优化生成质量 药物分子生成(设计新活性分子)、场景图生成

7. AI中的典型应用总结(Typical AI Applications)

7.1 自然语言处理(NLP)

  • 语义网络:将单词/短语视为顶点,语义关系(同义、上下位)视为边(如WordNet),用于词义消歧、文本理解;
  • 文本摘要:将句子视为顶点,句子相似度视为边,通过连通分量提取核心句子(如新闻摘要);
  • 知识图谱问答:将知识图谱建模为图,通过最短路径或GNN聚合实体特征,生成问答结果(如“李白的代表作是什么”)。

7.2 计算机视觉(CV)

  • 图像分割:像素视为顶点,像素相似度视为边,用谱聚类或GNN实现语义分割(如区分“车、人、道路”);
  • 目标检测:图像区域视为顶点,区域关联(如“人-车”相邻)视为边,通过图推理优化检测框位置;
  • 视觉SLAM:环境特征点视为顶点,特征点间空间关系视为边,构建环境图用于机器人定位导航。

7.3 社交网络分析

  • 社区发现:用谱聚类或Louvain算法(最大化模块度)识别用户社群,用于精准营销;
  • 影响力分析:基于PageRank或介数中心性,识别“关键传播节点”,用于病毒式营销或谣言阻断;
  • 异常检测:通过度数分布异常(如超级节点)或路径长度异常,识别虚假账号、垃圾邮件发送者。

7.4 其他领域

  • 药物研发:分子结构建模为图(原子=顶点,化学键=边),用GCN预测分子活性,设计新药物;
  • 推荐系统:用户-物品建模为二分图,通过二分图匹配或Node2Vec嵌入,推荐相似物品/用户;
  • 物流优化:城市/仓库视为顶点,运输路线视为边(权重=成本),用MST或最短路径算法优化配送路线。

附录:图论核心符号总结(读音+使用场景)

符号 写法规范 读音 核心使用场景
\(G\) 大写G “G” 图的总称(如无向图 \(G=(V,E)\),有向图 \(D=(V,A)\)
\(V\) 大写V “V” 顶点集(存储图中的实体,如用户、单词)
\(E\) 大写E “E” 无向边集(存储无向关系,如好友关系)
\(A\) 大写A “A” 1. 有向边集;2. 邻接矩阵(描述节点连接关系,GNN核心输入)
\(D\) 大写D “D” 度矩阵(对角矩阵,存储节点度数,用于GNN特征归一化)
\(L\) 大写L “L” 拉普拉斯矩阵(\(L=D-A\),谱图理论和GCN的核心矩阵)
\(L_{\text{sym}}\) 大写L+下标sym “L sym” 对称归一化拉普拉斯矩阵(GCN的核心卷积矩阵)
\(d(v)\) 小写d+顶点v “d of v” 节点 \(v\) 的度数(无向图),衡量节点直接关联数
\(d^-(v)/d^+(v)\) 小写d±+顶点v “d minus/plus of v” 节点 \(v\) 的入度/出度(有向图),如网页的入链/出链数
\(PR(p)\) 大写PR+节点p “P R of p” 节点 \(p\) 的PageRank值,衡量节点重要性(搜索引擎排序核心)
\(\lambda_{\text{max}}\) 小写lambda+下标max “lambda max” 邻接矩阵/拉普拉斯矩阵的最大特征值,用于特征向量中心性和谱分析
\(h_i\) 小写h+节点i “h of i” 节点 \(i\) 的特征向量(GNN中存储节点的属性信息,如用户年龄、单词嵌入)
\(H^{(l)}\) 大写H+上标l “H superscript l” \(l\) 层节点特征矩阵(GNN中层间传播的特征载体)
\(W^{(l)}\) 大写W+上标l “W superscript l” GNN第 \(l\) 层的可学习权重矩阵(用于特征线性变换)
\(\alpha_{ij}\) 小写alpha+下标ij “alpha i j” GAT中的注意力系数,表示节点 \(j\) 对节点 \(i\) 的贡献权重
\(w(u,v)\) 小写w+括号u,v “w of u v” \((u,v)\) 的权重(如用户互动频率、路径长度)
\(\text{dist}(u,v)\) 英文dist+括号u,v “dist of u v” 节点 \(u\)\(v\) 的最短距离(最短路径算法的核心输出)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/948208.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

人工智能十大数学知识 - 优化理论 - 何苦

人工智能十大数学知识 - 优化理论人工智能中的优化理论核心知识(Optimization Theory for AI) 优化理论是AI模型训练的“引擎”,核心是通过数学方法找到使目标函数(如损失函数)达到极值的参数取值。从线性回归的闭…

人工智能十大数学知识 - 信息论 - 何苦

人工智能十大数学知识 - 信息论信息论(Information Theory)在人工智能中的核心应用 信息论是量化“信息不确定性”与“分布差异”的数学工具,为AI模型的损失设计(如交叉熵)、特征选择(如互信息)、生成式模型(如…

人工智能十大数学知识 - 概率与统计学 - 何苦

人工智能十大数学知识 - 概率与统计学人工智能中的概率与统计学核心知识(Probability and Statistics for AI)概率与统计学是AI量化不确定性、从数据中学习规律的核心工具——从模型参数估计(如线性回归权重)到生成…

在服务器上直接从百度网盘下载文件

使用bypy bypy 本质上是单线程下载,它获取一个普通的下载链接然后像浏览器一样去下载,下载速度可能很慢。 1.下载bypy conda install bypy2.认证并授权网盘账号 bypy info3.将所需文件转移至目的文件夹下 授权成功后…

25.10.27

25.10.27从今天起 记录一下学习历程... 因为觉得最近很没计划,可能学了两个月有点累了... 但是还远没结束,后面还有更难的任务。 明天: 刷完 bfs 和 PriorityQuery 的题 Redis 八股收尾 快速学微服务 正式戒烟第一天…

251028

251028我分析过三个躁郁症患者,发现他们对自己的了解都很深入,我不知道是了解自己太多会导致躁郁还是躁郁症导致的,两者必有联系

刷题日记—链表—快慢指针的应用

今天刷链表类的题目,碰到了几个快慢指针的题目: 1.删除倒数第k个节点: 题目: 这个题目没有给size,所以无法遍历,这时候就要借助快慢指针. 代码如下: class Solution { public:int kthToLast(ListNode* head, in…

【SHADER系列】(四)UGUI 渐变/平滑遮罩 SoftMask

todo 参考:mob-sakai/SoftMaskForUGUI: Enhance Unity UI (uGUI) with advanced soft-masking features to create more visually appealing effects!

newDay16

1.今天课比较多,晚上主要是把自己东西都收拾了一遍,太乱了 2.明天尽量学学,课也不少 3.这数据库是真连不明白

【ESP32 在线语音】讯飞星火语音识别功能(听写流式API)文档阅读

接口要求 集成语音听写流式API时,需按照以下要求。内容 说明请求协议 ws[s](为提高安全性,强烈推荐wss)请求地址中英文(推荐使用):ws[s]: //iat-api.xfyun.cn/v2/iat中英文:ws[s]: //ws-api.xfyun.cn/v2/iat (上…

[java - wait() 虚假唤醒]

对!while (!isDone) { wait(); } 这个循环的核心作用就是防止“虚假唤醒”,这是多线程编程中一个非常重要的细节。 什么是“虚假唤醒”? Java 中,线程调用 wait() 后可能会在没有被其他线程调用 notify()/notifyAl…

Spring的JDK和CgLib动态代理的区别

什么是动态代理,JDK 动态代理和 CGLIB 代理 区别是什么 1.Spring框架中的动态代理是实现AOP(面向切面编程)的一种关键技术。代理就是通过代理类访问目标类之前,对目标类做增加(前置、后置处理),如日志记录、事务…

Hamiltonian H

\[E = \frac{1}{2}mv^2 \]

透明代理和uups代理,哪个更省gas,为什么

Gas消耗对比:UUPS代理更省gas UUPS代理比透明代理更节省gas,主要原因如下: 1. 代理合约复杂度差异 透明代理:代理合约包含完整的升级逻辑和权限控制 合约体积较大,部署成本高 每次调用都需要进行身份检查UUPS代理…

新学期每日总结(第14天)

今日 相较昨日 学习了控制错误

示性函数引入

Problem 现有一个1到n的排列,$ a_1,a_2,...,a_n $。记 $ X $ 为满足 $ a_i = i $ 的 $ i $ 的个数,求 $ E(X) $ 。准备工作 设随机变量 $ X,Y $ , $ X \in \{ x_1,x_2,...,x_n \} $ , $ Y \in \{ y_1,y_2,...,y_m …

2025.10.27

今天学习了Java连接数据库

go构建streamablehttp mcp服务

package mainimport ("context""fmt""log""os""os/signal""syscall""time""github.com/ThinkInAIXYZ/go-mcp/protocol""githu…

算法分析--分治--2.归并排序

给定一个长度为n的整数数组nums,要求必须使用【归并排序】的方法将该数组升序排序。 1.1 归并排序分:将数组分成多个小数组,直到只有一个元素。 治:自底向上合并小数组(merge)1.2 代码 将 arr [n1+n2] 数组分为两…