公司网站维护费 入什么科目鞍山百度做网站
web/
2025/9/28 6:29:21/
文章来源:
公司网站维护费 入什么科目,鞍山百度做网站,软件技术网站怎么做,建设网站需要哪些流程图2024年新算法#xff01;PCACPOK-means聚类#xff0c;冠豪猪优化器#xff08;CPO)优化K-means#xff0c;适合学习#xff0c;也适合发paper。
一、冠豪猪优化器
摘要#xff1a;受冠豪猪(crest Porcupine, CP)的各种防御行为启发#xff0c;提出了一种新的基于自然…2024年新算法PCACPOK-means聚类冠豪猪优化器CPO)优化K-means适合学习也适合发paper。
一、冠豪猪优化器
摘要受冠豪猪(crest Porcupine, CP)的各种防御行为启发提出了一种新的基于自然启发的元启发式算法——冠豪猪优化算法(Crested Porcupine Optimizer, CPO)用于精确优化各种优化问题特别是大规模优化问题。从最不具攻击性到最具攻击性冠豪猪有四种不同的保护机制视觉、声音、气味和身体攻击。第一和第二防御技术视觉和声音反映了CPO的探索性行为第三和第四防御策略气味和物理攻击反映了CPO的利用性行为。该算法提出了一种新的策略称为循环种群减少技术以模拟不是所有CPs都激活防御机制而是只有受到威胁的CPs才激活防御机制。该策略提高了收敛速度和种群多样性。使用CEC2014、CEC2017和CEC2020 3个CEC基准测试函数对CPO进行验证并将其结果与3类现有优化算法进行比较结果如下:(i)被引用率最高的优化算法包括灰狼优化算法(GWO)、鲸鱼优化算法(WOA)、差分进化算法(differential evolution)和樽海鞘算法(SSA);(ii)最近发表的算法包括基于梯度的优化器(GBO)非洲秃鹫优化算法(AVOA) Runge Kutta方法(RUN)平衡优化器(EO)人工大猩猩部队优化器(GTO)和黏液霉菌算法(SMA);(iii)高性能优化器如SHADE、LSHADE、al SHADE、LSHADE- cnepsin和LSHADE- spacma。统计分析结果表明在3个CEC测试函数上与其他优化算法相比CPO算法在大多数测试函数上具有明显的优势可以被提名为一种高性能的优化算法。定量分析表明对于CEC2017、CEC2017、CEC2020和6个实际工程问题CPO的性能提升率分别高达83%、70%、90%和100%。
参考文献Crested Porcupine Optimizer: A new nature-inspired metaheuristic
Doi: 10.1016/j.knosys.2023.111257
二、K-means聚类
K-means聚类算法是一种无监督学习算法广泛应用于数据分析和机器学习的各个领域。其核心思想是将给定的样本集划分为K个簇使得每个簇内的样本点尽可能紧密地聚集在一起而不同簇之间的样本点则尽可能远离。以下是K-means聚类算法的主要优点
简单直观K-means算法原理简单易懂容易实现计算速度快且聚类效果通常较好。
可解释性强算法的结果具有明确的解释性每个簇的中心点可以代表该簇的特征有助于理解和分析数据。
适用于大规模数据集K-means算法在处理大规模数据集时表现良好能够高效地划分数据。
然而K-means聚类算法也存在一些明显的缺点
K值选择困难K值是事先给定的如何选择合适的K值是一个难题。K值选择不当可能导致聚类结果不合理难以反映数据的真实结构。
对初始值敏感K-means算法对初始簇中心的选择非常敏感。如果初始值选择得不好可能会导致算法陷入局部最优解而无法得到全局最优的聚类结果。
对异常值和噪声敏感K-means算法对异常值和噪声的鲁棒性较差这些值可能会影响簇中心的计算导致聚类结果不准确。
不适合非凸形状簇K-means算法基于距离度量进行聚类因此对于非凸形状的簇可能无法得到理想的聚类效果。
距离度量方式选择关于K-means聚类算法的距离度量方式最常用的是欧氏距离。然而除了欧氏距离外K-means算法也可以使用其他距离度量方式例如曼哈顿距离和马氏距离等。
三、主成分分析PCA
主成分分析Principal Component Analysis是一种常用的数据降维方法。它的主要思想是通过线性变换将原始的高维数据映射到一个低维空间中同时尽可能地保留原始数据的主要特征信息。
具体来说PCA降维的过程可以分为以下几个步骤
数据标准化首先对原始数据进行标准化处理消除不同特征之间的量纲差异使得每个特征都具有相同的权重。
计算协方差矩阵接着计算标准化后数据的协方差矩阵。协方差矩阵反映了不同特征之间的相关性是PCA降维的关键。
计算特征值和特征向量对协方差矩阵进行特征分解得到特征值和特征向量。特征值的大小代表了对应特征向量方向上的数据方差即数据的离散程度。
选择主成分根据特征值的大小选择前k个最大的特征值对应的特征向量作为主成分。这些主成分代表了数据中的主要变化方向能够最大程度地保留原始数据的信息。
数据投影最后将原始数据投影到选定的主成分上得到降维后的数据。这个过程可以通过将原始数据乘以主成分矩阵来实现。
PCA降维的优点在于它简单易懂计算效率高且能够有效地降低数据的维度减少计算复杂性和存储空间。同时PCA降维还能够去除部分噪声和冗余特征提高数据的可解释性和可视化效果。因此PCA降维在数据分析、机器学习、图像处理等领域都有广泛的应用。需要注意的是PCA降维是一种无监督学习方法它并不考虑数据的标签信息。因此在某些情况下PCA降维可能会丢失一些与标签相关的信息。此外PCA降维对于非线性数据的处理能力有限对于复杂的数据结构可能需要采用其他降维方法。
四、PCACPO K-means聚类
✨ 核心亮点 ✨
降维至精华我们首先使用PCA将复杂的数据集降维到2维保留了数据的主要信息使其可视化变得简单直观。
优化聚类接着采用冠豪猪优化器CPO)对K-means聚类进行优化利用轮廓系数信息构建目标函数自动寻找最佳的聚类数量和距离度量以达到最优的数据分组效果。
聚类数量k可以修改聚类数量优化范围
选择三个距离度量进行优化sqeuclidean欧氏距离平方、cityblockBlock距离也叫绝对值距离、cosine夹角余弦。
代码详细中文注释高效管理可读性和二次开发都很好部分代码如下
clc; clear; close all;% 加载Excel数据
data xlsread(数据.xlsx);% 假设全部列为特征数据
X data;% 数据标准化
X_standardized (X - mean(X)) ./ std(X);% 应用PCA进行降维
[coeff, score, latent, tsquared, explained] pca(X_standardized);% 提取前两个主成分
Z score(:, 1:2);% 初始化CPO参数
N 10; % 种群数量
T 50; % 最大迭代次数
LB[2,1]; % 变量下界
UB[20,3]; % 变量上界
nvarslength(LB);
fobjfitness;% 使用CPO优化算法优化K-means进行聚类优化最佳聚类数和最佳距离度量
[fMin,index,Convergence_curve,pos]CPO(N,T,LB,UB,nvars,fobj,data,Z); % 计算轮廓系数
sc_xishu mean(silhouette(data, index));% 确定独特的聚类数
a unique(index);
op_cluster_num length(a); % 优化后聚类个数
C cell(1, length(a));% 将数据分配到对应聚类
for i 1:length(a)C(1, i) {find(index a(i))};
end
运行结果如下
冠豪猪优化器CPO)优化K-means结果 冠豪猪优化器CPO)优化K-means收敛曲线 优化结果输出 使用数据如下: 五、完整代码获取
2024年新算法PCACPOK-means聚类冠豪猪优化器CPO)优化K-means适合学习也适合发paper
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/83181.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!