河南网站设计微信云开发平台
news/
2025/10/3 10:39:15/
文章来源:
河南网站设计,微信云开发平台,网络营销的主要特点有哪些,seo教程视频#记录工作
提示#xff1a;整个过程最好先开启系统代理#xff0c;也可以用镜像源#xff0c;确保有官方发布的最新特性和官方库的完整和兼容性支持。 期间下载会特别慢#xff0c;需要在系统上先开启代理#xff0c;然后WSL设置里打开网络模式“Mirrored”,以设置WSL自动…#记录工作
提示整个过程最好先开启系统代理也可以用镜像源确保有官方发布的最新特性和官方库的完整和兼容性支持。 期间下载会特别慢需要在系统上先开启代理然后WSL设置里打开网络模式“Mirrored”,以设置WSL自动使用主机上的代理网络。 【WLS2怎么设置网络自动代理 - CSDN App】https://blog.csdn.net/u014451778/article/details/146073726?sharetypeblogshareId146073726sharereferAPPsharesourceu014451778sharefromlink 一、首先要先确保——windows系统中要正确安装了以下组件
一显卡驱动 下载 NVIDIA 官方驱动 | NVIDIA 二Microsoft Visual Studio 下载 Visual Studio Tools - 免费安装 Windows、Mac、Linux 三CUDA CUDA Toolkit 12.8 Downloads | NVIDIA Developer 四cuDNN CUDA Toolkit 12.8 Downloads | NVIDIA Developer 五正确安装WSL2-Ubuntu版本
要正常安装WSL2-Ubuntu版本安装成功后打开ubuntu界面输出如下界面 安装 WSL | Microsoft Learn 该版本默认是安装的WSL2-Ubuntu 24.04版本 也可以选择其他的ubuntu版本进行安装。 二、在WSL2-Ubuntu系统中安装CUDA、cuDNN、Anaoconda
在windows系统中正确安装完必要组件后然后才是在WSL2-Ubuntu中按照顺序安装 CUDA、cuDNN、Anaoconda。
打开WSL2-Ubuntu先安装CUDA、再安装cuDNN、最后是Anaconda管理虚拟环境
只要windows系统配置好了显卡驱动在WSL2中一般不必再另外安装linux驱动了。
在安装前可以在WSL2-Ubuntu中使用以下命令进行验证与显卡的通信和驱动调用的情况
nvidia-smi 一安装CUDA
打开CUDA官方网址建议“deb(network)”方式较为省事完整复制全部命令粘贴进WSL2-Ubuntu终端中按回车键运行。 CUDA Toolkit 12.8 Downloads | NVIDIA Developer 选项如图所示
当然也可以选WSL-Ubuntu这个选项更把稳。 wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt-get -y install cuda-toolkit-12-8 1、复制图片/官网下边的全部命令粘贴到WSL2-Ubuntu终端窗口中按ENTER键回车键运行 2、过程中会要求输入密码输入ubuntu密码即可。 3、执行命令后会自动进行下载和安装 4、安装结束后进行环境变量的编辑 a我们可以按照下面的步骤来永久添加环境变量
检查安装是否成功在配置环境变量之前先确认 CUDA 是否正确安装。运行以下命令ls /usr/local/cuda-12.8/bin/
在 WSL2-Ubuntu 系统中CUDA 12.8 通常安装在/usr/local/cuda-12.8目录下这个目录包含了 CUDA 相关的各种组件如 bin包含可执行文件比如 nvcc 编译器就在这里面、lib64包含库文件、include包含头文件 等。如果在安装过程中没有指定其他特殊路径这就是默认的安装位置。我们可以通过以下命令来验证
ls /usr/local/cuda-12.8 如果安装成功我们会看到nvcc等工具的列表。如果没有看到这些文件可能需要重新检查安装步骤。 从我执行 ls /usr/local/cuda-12.8 后的输出结果来看CUDA 12.8 似乎已经成功安装到了 /usr/local/cuda-12.8 目录下。
接下来我们需要将 /usr/local/cuda-12.8/bin 目录添加到系统的 PATH 环境变量中以便系统能够找到 nvcc 等命令。 b 配置环境变量环境变量的配置需要根据你的系统类型Bash 或 Zsh来操作。 确认当前使用的 Shell
首先确认你当前使用的 Shell 是 Bash 还是 Zsh。
我们可以通过以下命令查看
echo $SHELL
• 如果输出是 /bin/bash 则使用 Bash。
• 如果输出是 /bin/zsh 则使用 Zsh。 c编辑环境变量配置文件 以下是常见的配置方法
对于 Bash 用户
编辑 ~/.bashrc 文件
nano ~/.bashrc
添加以下内容
export PATH/usr/local/cuda-12.8/bin:$PATH
export LD_LIBRARY_PATH/usr/local/cuda-12.8/lib64:$LD_LIBRARY_PATH
• 按下 Ctrl X 然后按 Y 确认保存最后按 Enter 完成退出。
保存文件后运行以下命令使变量生效
source ~/.bashrc
对于 Zsh 用户
编辑 ~/.zshrc 文件
nano ~/.bashrc添加相同的内容 :
export PATH/usr/local/cuda-12.8/bin:$PATH
export LD_LIBRARY_PATH/usr/local/cuda-12.8/lib64:$LD_LIBRARY_PATH保存文件后运行以下命令使变量生效选其一
source ~/.bashrc # 如果是 Bash 用户
source ~/.zshrc # 如果是 Zsh 用户5. 验证环境变量
配置完成后运行以下命令验证
echo $PATH6. 测试 nvcc
运行 nvcc -V 或nvcc --version 检查输出是否正确。
nvcc -V
或者
nvcc --version 如果配置正确你会看到类似以下的输出 loveAI:~$ ls /usr/local/cuda-12.8
DOCS README compute-sanitizer extras include libnvvp nvml share targets version.json
EULA.txt bin doc gds lib64 nsightee_plugins nvvm src tools
loveAI:~$ echo $SHELL
/bin/bash
loveAI:~$ nano ~/.bashrc
loveAI:~$ source ~/.bashrc
loveAI:~$ nvcc -V
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2025 NVIDIA Corporation
Built on Wed_Jan_15_19:20:09_PST_2025
Cuda compilation tools, release 12.8, V12.8.61
Build cuda_12.8.r12.8/compiler.35404655_0
loveAI:~$ 至此CUDA算是安装成功并得到验证。 7.驱动程序安装程序建议 在官方CUDA安装命令下方有以下命令选项强烈建议在验证完CUDA安装正确后再次运行以下命令任选其一以确保安装程序的未来兼容性。
NVIDIA 驱动程序说明选择一个选项 要安装 open kernel module 风格
sudo apt-get install -y nvidia-open
要安装旧版内核模块风格
sudo apt-get install -y cuda-drivers NVIDIA 驱动程序提供了两种内核模块风格open kernel module开源内核模块和旧版内核模块proprietary kernel module专有内核模块。这两种风格的主要区别在于它们的许可证类型、支持的功能和兼容性。 open kernel module 风格
• 许可证开源通常采用 MIT/GPLv2 许可证。
• 支持的 GPU 架构支持 Turing 及以后的 GPU 架构。
• 支持的功能支持大多数 Linux GPU 驱动程序的功能包括 CUDA、Vulkan、OpenGL、OptiX 和 X11。此外还有一些功能是仅 open kernel modules 支持的例如 NVIDIA Confidential Computing、Magnum IO GPUDirect Storage(GDS)、Heterogeneous Memory Management(HMM)、CPU affinity for GPU fault handlers 和 DMABUF support for CUDA allocations。
• 兼容性可能不支持所有旧版专有内核模块支持的特性例如 NVIDIA virtual GPU(vGPU)、G-Sync on notebooks 和 Preserving video memory across power management events。 旧版内核模块风格
• 许可证专有由 NVIDIA 提供。
• 支持的 GPU 架构支持 Maxwell、Pascal、Volta、Turing 和之后的 GPU 架构。
• 支持的功能支持所有 NVIDIA GPU 驱动程序的功能包括那些可能在 open kernel modules 中尚未支持的特性。
• 兼容性通常更稳定特别是在支持较旧的硬件和特定的企业级应用场景中。 新手用户推荐 对于新手用户推荐安装open kernel module 风格的驱动程序原因如下
• 开源更透明社区支持更广泛。
• 更新通常包含最新的功能和改进。
• 兼容性对于大多数现代应用和游戏来说open kernel modules 提供的兼容性已经足够。
然而如果你有特定的需求比如需要使用专有驱动程序中特有的功能或者你的硬件较旧可能需要旧版内核模块风格。
在安装驱动程序之前建议先阅读 NVIDIA 的官方文档了解不同风格的详细区别和推荐使用场景。此外确保我们的系统满足安装要求并按照官方指南进行操作以避免潜在的兼容性问题。 二安装cuDNN
打开CUDA官方网址建议“deb(network)”方式较为省事完整复制全部命令粘贴进WSL2-Ubuntu终端中按回车键运行。 cuDNN 9.8.0 Downloads | NVIDIA Developer 选项如图所示 wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
sudo apt-get update
sudo apt-get -y install cudnn 1、复制图片/官网下边的全部命令粘贴到WSL2-Ubuntu终端窗口中按ENTER键运行 2、执行命令后会自动进行下载和安装 3、暂时性地验证 cuDNN 安装
此时暂时性地验证 cuDNN 安装是否成功可以通过以下方法
检查文件路径的方法 cuDNN 的库文件通常会被安装到/usr/lib/x86_64-linux-gnu或/usr/local/cuda/lib64目录下。你可以通过以下命令检查这些文件是否存在
ls /usr/lib/x86_64-linux-gnu/libcudnn* 输出应该如下所示
loveAI:~$ ls /usr/lib/x86_64-linux-gnu/libcudnn*
/usr/lib/x86_64-linux-gnu/libcudnn.so
/usr/lib/x86_64-linux-gnu/libcudnn.so.9
/usr/lib/x86_64-linux-gnu/libcudnn.so.9.8.0
/usr/lib/x86_64-linux-gnu/libcudnn_adv.so
/usr/lib/x86_64-linux-gnu/libcudnn_adv.so.9
/usr/lib/x86_64-linux-gnu/libcudnn_adv.so.9.8.0
/usr/lib/x86_64-linux-gnu/libcudnn_adv_static.a
/usr/lib/x86_64-linux-gnu/libcudnn_adv_static_v9.a
/usr/lib/x86_64-linux-gnu/libcudnn_cnn.so
/usr/lib/x86_64-linux-gnu/libcudnn_cnn.so.9
/usr/lib/x86_64-linux-gnu/libcudnn_cnn.so.9.8.0
/usr/lib/x86_64-linux-gnu/libcudnn_cnn_static.a
/usr/lib/x86_64-linux-gnu/libcudnn_cnn_static_v9.a
/usr/lib/x86_64-linux-gnu/libcudnn_engines_precompiled.so
/usr/lib/x86_64-linux-gnu/libcudnn_engines_precompiled.so.9
/usr/lib/x86_64-linux-gnu/libcudnn_engines_precompiled.so.9.8.0
/usr/lib/x86_64-linux-gnu/libcudnn_engines_precompiled_static.a
/usr/lib/x86_64-linux-gnu/libcudnn_engines_precompiled_static_v9.a
/usr/lib/x86_64-linux-gnu/libcudnn_engines_runtime_compiled.so
/usr/lib/x86_64-linux-gnu/libcudnn_engines_runtime_compiled.so.9
/usr/lib/x86_64-linux-gnu/libcudnn_engines_runtime_compiled.so.9.8.0
/usr/lib/x86_64-linux-gnu/libcudnn_engines_runtime_compiled_static.a
/usr/lib/x86_64-linux-gnu/libcudnn_engines_runtime_compiled_static_v9.a
/usr/lib/x86_64-linux-gnu/libcudnn_graph.so
/usr/lib/x86_64-linux-gnu/libcudnn_graph.so.9
/usr/lib/x86_64-linux-gnu/libcudnn_graph.so.9.8.0
/usr/lib/x86_64-linux-gnu/libcudnn_graph_static.a
/usr/lib/x86_64-linux-gnu/libcudnn_graph_static_v9.a
/usr/lib/x86_64-linux-gnu/libcudnn_heuristic.so
/usr/lib/x86_64-linux-gnu/libcudnn_heuristic.so.9
/usr/lib/x86_64-linux-gnu/libcudnn_heuristic.so.9.8.0
/usr/lib/x86_64-linux-gnu/libcudnn_heuristic_static.a
/usr/lib/x86_64-linux-gnu/libcudnn_heuristic_static_v9.a
/usr/lib/x86_64-linux-gnu/libcudnn_ops.so
/usr/lib/x86_64-linux-gnu/libcudnn_ops.so.9
/usr/lib/x86_64-linux-gnu/libcudnn_ops.so.9.8.0
/usr/lib/x86_64-linux-gnu/libcudnn_ops_static.a
/usr/lib/x86_64-linux-gnu/libcudnn_ops_static_v9.a
从我的提供的输出结果来看cuDNN 库文件已经成功安装在/usr/lib/x86_64-linux-gnu目录下而不是/usr/local/cuda/lib64。这说明 cuDNN 的安装路径是正确的并且系统已经正确配置了相关的库文件。 以下是验证结果解释
• cuDNN 库文件存在
• 我已经找到了多个 cuDNN 的动态链接库如libcudnn.so、libcudnn.so.9、libcudnn.so.9.8.0和静态库如libcudnn_adv_static.a、libcudnn_cnn_static_v9.a等。
• 这些文件的存在表明 cuDNN 已正确安装。 • CUDA 目录下没有 cuDNN 文件
• /usr/local/cuda/lib64目录下没有找到 cuDNN 文件这是因为 cuDNN 的安装路径是/usr/lib/x86_64-linux-gnu而不是/usr/local/cuda。
• 这是正常的因为 cuDNN 的安装路径通常由系统包管理器如apt决定而不是手动安装到 CUDA 的目录下。
小结从我的输出结果来看cuDNN 已正确安装在 /usr/lib/x86_64-linux-gnu 目录下。 接下来我们将通过安装Anaconda之后在与系统隔离的虚拟环境中安装Pytorch来完全地验证CUDA和cuDNN的安装是否正确。 三安装Anaconda
通过查询截止2025年03月06日最新版本Anaconda完整文件名为Anaconda3-2024.10-1-Linux-x86_64.sh
1、通过以下命令下载和安装
复制命令粘贴到WSL2-Ubuntu终端窗口中按ENTER键运行
wget -P /tmp https://repo.anaconda.com/archive/Anaconda3-2024.10-1-Linux-x86_64.sh # 下载anaconda安装包至 /tmp 目录下
bash /tmp/Anaconda3-2024.10-1-Linux-x86_64.sh # 安装anaconda 2、执行命令后会自动进行下载完成后会进入安装步骤
此时要点击ENTER键后一直按着不松开来翻页阅读安装前协议 继续按着ENTER键不松手直到出现输入框才停止
一直按到出现输入框按多了也没关系不输入就不能继续 用键盘手动输入“yes”之后按ENTER回车键确认输入。然后进入到下边这个界面
这会会询问安装位置默认不修改则继续按一次ENTER键确认使用默认安装路径 之后安装会询问:是否要集成到shell当中自动进入默认虚拟环境 建议输入“yes” 此时安装完成。
建议关闭终端然后重新打开看看是否自动进入默认的conda的base虚拟环境了 可以看到重新打开WSL2-Ubuntu终端后已自动激活base默认的Anaconda虚拟环境了。 3、验证Anaconda的安装
验证 Conda 安装是否成功可以通过以下几种方法。这些方法可以帮助你确认 Conda 是否正确安装并且能够正常运行。 方法 1检查 Conda 版本 运行以下命令来检查 Conda 的版本号。如果 Conda 安装成功它会显示当前的版本信息
conda --version 如果输出类似以下内容则说明 Conda 安装成功 如果没有输出或者提示conda: command not found则说明 Conda 没有正确安装或者其路径没有被添加到系统的环境变量中。 方法 2检查 Conda 环境 运行以下命令来查看当前的 Conda 环境列表
conda env list 如果 Conda 安装成功你会看到类似以下的输出列出所有已创建的 Conda 环境 方法 3创建并激活新的 Conda 环境 你可以创建一个新的 Conda 环境并激活它以验证 Conda 的功能是否正常 • 创建新的环境
conda create -n testenv python3.9 • 激活环境
conda activate testenv • 检查当前环境
conda info --envs 如果输出显示当前激活的环境是testenv则说明 Conda 正常工作 # conda environments: # base /home/love/miniconda3 testenv * /home/love/miniconda3/envs/testenv
方法 4安装并验证 Python 包 在激活的 Conda 环境中安装一个常用的 Python 包如numpy并验证其是否正常工作 • 安装包 conda install numpy • 验证安装 python -c import numpy; print(numpy.__version__) 如果输出显示了numpy的版本号例如1.23.4则说明 Conda 和 Python 环境正常工作。 方法 5检查 Conda 配置 运行以下命令来检查 Conda 的配置信息
conda config --show 这将显示 Conda 的配置文件路径、默认环境路径、通道channels等信息。如果输出正常说明 Conda 的配置文件没有问题。 方法 6检查 Conda 的初始化 如果你在安装 Conda 后没有运行初始化命令可能会导致conda命令无法正常使用。运行以下命令来初始化 Conda
conda init 然后重新打开终端窗口再次运行conda --version来验证。
conda --version 小结 通过以上方法你可以全面验证 Conda 是否正确安装并正常工作。如果在验证过程中遇到问题请检查以下内容
• 确保 Conda 的安装路径已添加到系统的环境变量中。
• 确保 Conda 初始化完成。
• 如果仍然有问题可以尝试重新安装 Conda。 三、安装Pytorch并验证CUDA12.8、cuDNN、Anaconda、Pytorch的安装
一安装Pytorch 我们就用默认的base环境来安装torch进行验证WSL2-Ubuntu的整个深度学习环境的搭建是否成功 目前CUDA12.8版本还不支持conda命令安装今后torch官方会更新出conda包我们就先用官方给的pip命令安装Preview (Nightly)版 pip3 install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu128 过一会后安装完成 接下来我们将用这个重要的深度学习库来验证之前的所有安装。 二用Pytorch并验证CUDA12.8、cuDNN、Anaconda、Pytorch的安装
先关闭WSL2-Ubuntu终端后重新打开WSL2-Ubuntu终端
在WSL2-Ubuntu终端内输入“python”并回车调起python
python 复制以下整段代理粘贴后按ENTER回车键支持验证
import torch # 导入 PyTorch 库print(PyTorch 版本, torch.__version__) # 打印 PyTorch 的版本号# 检查 CUDA 是否可用并设置设备cuda:0 或 cpu
device torch.device(cuda:0 if torch.cuda.is_available() else cpu)
print(设备, device) # 打印当前使用的设备
print(CUDA 可用, torch.cuda.is_available()) # 打印 CUDA 是否可用
print(cuDNN 已启用, torch.backends.cudnn.enabled) # 打印 cuDNN 是否已启用# 打印 PyTorch 支持的 CUDA 和 cuDNN 版本
print(支持的 CUDA 版本, torch.version.cuda)
print(cuDNN 版本, torch.backends.cudnn.version())# 创建两个随机张量默认在 CPU 上
x torch.rand(5, 3)
y torch.rand(5, 3)# 将张量移动到指定设备CPU 或 GPU
x x.to(device)
y y.to(device)# 对张量进行逐元素相加
z x y# 打印结果
print(张量 z 的值)
print(z) # 输出张量 z 的内容如果输出如下则表明CUDA12.8、cuDNN、Anaconda、Pytorch全部安装成功 从上边的输出来看你已经成功地在 Python 中导入了 PyTorch并且确认了 CUDA 和 cuDNN 的可用性。你的代码运行正常并且 PyTorch 正在使用 GPUcuda:0进行计算。以下是对代码和输出的总结
(base) loveAI:~$ python
Python 3.12.7 | packaged by Anaconda, Inc. | (main, Oct 4 2024, 13:27:36) [GCC 11.2.0] on linux
Type help, copyright, credits or license for more information.import torch # 导入 PyTorch 库
PyTorch 版本, torch.__version__) # 打印 PyTorch 的版本号# 检查 CUDA 是否可用并设置设备cuda:0 或 cpu
device torch.device(cuda:0 if torch.cuda.is_available() else cpu)
print(设备, device) # 打印当前使用的设备
print(CUDA 可用, torch.cuda.is_available()) # 打印 CUDA 是否可用
print(cuDNN 已启用, torch.backends.cudnn.enabled) # 打印 cuDNN 是否已启用# 打印 PyTorch 支持的 CUDA 和 cuDNN 版本
print(支持的 CUDA 版本, torch.version.cuda)
print(cuDNN 版本, torch.backends.cudnn.version())# 创建两个随机张量默认在 CPU 上
x torch.rand(5, 3)
y torch.rand(5, 3)# 将张量移动到指定设备CPU 或 GPU
x x.to(device)
y y.to(device)# 对张量进行逐元素相加
z x y# 打印结果
print(张量 z 的值)
print(z) # 输出张量 z 的内容print(PyTorch 版本, torch.__version__) # 打印 PyTorch 的版本号
PyTorch 版本 2.7.0.dev20250306cu128# 检查 CUDA 是否可用并设置设备cuda:0 或 cpudevice torch.device(cuda:0 if torch.cuda.is_available() else cpu)print(设备, device) # 打印当前使用的设备
设备 cuda:0print(CUDA 可用, torch.cuda.is_available()) # 打印 CUDA 是否可用
CUDA 可用 Trueprint(cuDNN 已启用, torch.backends.cudnn.enabled) # 打印 cuDNN 是否已启用
cuDNN 已启用 True# 打印 PyTorch 支持的 CUDA 和 cuDNN 版本print(支持的 CUDA 版本, torch.version.cuda)
支持的 CUDA 版本 12.8print(cuDNN 版本, torch.backends.cudnn.version())
cuDNN 版本 90701# 创建两个随机张量默认在 CPU 上x torch.rand(5, 3)y torch.rand(5, 3)# 将张量移动到指定设备CPU 或 GPUx x.to(device)y y.to(device)# 对张量进行逐元素相加z x y# 打印结果print(张量 z 的值)
张量 z 的值print(z) # 输出张量 z 的内容
tensor([[0.8231, 0.9657, 1.3131],[0.8789, 1.4404, 0.8304],[0.8528, 1.3328, 1.9110],[1.0722, 0.6289, 1.4093],[1.1559, 0.8878, 0.5438]], devicecuda:0)---
代码运行结果 PyTorch 版本 2.7.0.dev20250306cu128 设备 cuda:0 CUDA 可用 True cuDNN 已启用 True 支持的 CUDA 版本 12.8 cuDNN 版本 90701
---
关键信息
• PyTorch 版本2.7.0.dev20250306cu128
• 这是一个开发版本dev并且是针对 CUDA 12.8 的版本。 • 设备cuda:0
• 表示 PyTorch 已成功检测到 GPU并将使用第一个 GPU 设备。 • CUDA 和 cuDNN
• CUDA 可用True表示系统支持 CUDAPyTorch 可以利用 GPU 加速。
• cuDNN 已启用True表示 cuDNN 已启用这有助于进一步加速深度学习任务。
• 支持的 CUDA 版本12.8表示 PyTorch 支持 CUDA 12.8。
• cuDNN 版本90701即 cuDNN 9.7.1。 ---
如果我们遇到任何问题例如 CUDA 不可用请确保
• 检查 GPU 驱动和 CUDA 安装
• GPU 驱动是最新的。
• 安装了正确版本的 CUDA 和 cuDNN。
• PyTorch 版本与 CUDA 版本兼容。 --- 【Windows 11 中部署 Linux 项目 - CSDN App】https://blog.csdn.net/u014451778/article/details/144777265?sharetypeblogshareId144777265sharereferAPPsharesourceu014451778sharefromlink 至此在Windosw系统上的WSL2-Ubuntu深度学习环境配置完成可以在Windosw系统上优雅地借助Windosw的易用性和Linux系统的高效性进行项目部署和开发调试了。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/925785.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!