from torch.utils.data import DataLoader from torch.optim.lr_scheduler import LambdaLR

时间: 2024-06-02 21:08:20 浏览: 263
null
阅读全文

相关推荐

'''Training script. ''' import os from tqdm import tqdm import torch import torch.nn as nn from torch.utils.data import DataLoader from torch.optim import Adam, lr_scheduler from torchsummary import summary from torchvision import transforms import torch.distributed as dist import torch.multiprocessing as mp from models.resnet50 import ResNet50 from runtime_args import args from load_dataset import LoadDataset from plot import plot_loss_acc from helpers import calculate_accuracy device = torch.device("cuda:0" if torch.cuda.is_available() and args.device == 'gpu' else 'cpu') if not os.path.exists(args.graphs_folder) : os.mkdir(args.graphs_folder) model_save_folder = 'resnet_cbam/' if args.use_cbam else 'resnet/' if not os.path.exists(model_save_folder) : os.mkdir(model_save_folder) def train(gpu, args): '''Init models and dataloaders and train/validate model. ''' rank = args.rank * args.gpus + gpu world_size = args.gpus * args.nodes dist.init_process_group(backend='nccl', init_method='env://', world_size=world_size, rank=rank) model = ResNet50(image_depth=args.img_depth, num_classes=args.num_classes, use_cbam=args.use_cbam) torch.cuda.set_device(gpu) model.cuda(gpu) optimizer = Adam(model.parameters(), lr=args.learning_rate) lr_decay = lr_scheduler.ExponentialLR(optimizer, gamma=args.decay_rate) criterion = torch.nn.CrossEntropyLoss().cuda(gpu) summary(model, (3, 224, 224)) model = nn.parallel.DistributedDataParallel(model, device_ids=[gpu]) train_dataset = LoadDataset(dataset_folder_path=args.data_folder, image_size=args.img_size, image_depth=args.img_depth, train=True, transform=transforms.ToTensor()) test_dataset = LoadDataset(dataset_folder_path=args.data_folder, image_size=args.img_size, image_depth=args.img_depth, train=False, transform=transforms.ToTensor()) train_sampler = torch.utils.data.distributed.DistributedSample

from ultralytics import YOLO from torch.optim import Adam from torch.optim.lr_scheduler import SequentialLR, LinearLR, CosineAnnealingLR from torch.utils.data import DataLoader import albumentations as A from albumentations.pytorch import ToTensorV2 import cv2 import os import numpy as np import torch from sklearn.utils.class_weight import compute_class_weight # 优化后的数据增强策略 def get_augmentations(input_size=640): return A.Compose( [ A.RandomBrightnessContrast(p=0.3), A.HorizontalFlip(p=0.5), A.ShiftScaleRotate( shift_limit=0.05, scale_limit=0.1, rotate_limit=10, p=0.5, border_mode=cv2.BORDER_CONSTANT ), A.RandomCrop(width=input_size, height=input_size, p=0.3), A.Blur(blur_limit=3, p=0.2), A.Normalize( mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225] ), ], bbox_params=A.BboxParams( format="yolo", min_visibility=0.6, # 提升可见性阈值保留更多目标 label_fields=["cls_labels"], min_area=100 # 过滤极小目标 ), keypoint_params=A.KeypointParams( format="xy", label_fields=["keypoint_labels"], remove_invisible=True ) if has_keypoints else None ) # 改进的数据集类(支持关键点) class FallDetectionDataset(torch.utils.data.Dataset): def __init__(self, img_dir, label_dir, keypoint_dir=None, transform=None): self.img_dir = img_dir self.label_dir = label_dir self.keypoint_dir = keypoint_dir self.transform = transform self.img_files = [f for f in os.listdir(img_dir) if f.lower().endswith(('.png', '.jpg', '.jpeg'))] self.has_keypoints = keypoint_dir is not None self.class_counts = {} self.valid_pairs = [] # 数据验证与统计 for img_file in self.img_files: base_未解析的引用 'has_keypoints'

接下来我会给出一段代码,请理解这段代码的逻辑,并且仿照其将其改变为医疗图像分析 代码如下: from __future__ import print_function, division import numpy as np import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim from torch.autograd import Variable from torch.utils.data import Dataset from torchvision import transforms, datasets, models from Dataloader import DogCatDataSet # 配置参数 random_state = 1 torch.manual_seed(random_state) # 设置随机数种子,确保结果可重复 torch.cuda.manual_seed(random_state) torch.cuda.manual_seed_all(random_state) np.random.seed(random_state) # random.seed(random_state) epochs = 30 # 训练次数 batch_size = 16 # 批处理大小 num_workers = 4 # 多线程的数目 use_gpu = torch.cuda.is_available() # 对加载的图像作归一化处理, 并裁剪为[224x224x3]大小的图像 data_transform = transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), transforms.ToTensor(), ]) train_dataset = DogCatDataSet(img_dir="/mnt/d/深度学习1/train", transform=data_transform) train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=batch_size, shuffle=True, num_workers=4) test_dataset = DogCatDataSet(img_dir="/mnt/d/深度学习1/test", transform=data_transform) test_loader = torch.utils.data.DataLoader(train_dataset, batch_size=batch_size, shuffle=True, num_workers=4) # 加载resnet18 模型, net = models.resnet18(pretrained=False) num_ftrs = net.fc.in_features net.fc = nn.Linear(num_ftrs, 2) if use_gpu: net = net.cuda() print(net) # 定义loss和optimizer cirterion = nn.CrossEntropyLoss() optimizer = optim.SGD(net.parameters(), lr=0.0001, momentum=0.9) # 开始训练 net.train() for epoch in range(epochs): running_loss = 0.0 train_correct = 0 train_total = 0 for i, data in enumerate(train_loader, 0): inputs, train_labels = data if use_gpu: inputs, labels = Variable(inputs.cuda()), Variable(train_labels.cuda()) else: inputs, labels = Variable(inputs), Variable(train_labels) # inputs, labels = Variable(inputs), Variable(train_labels) optimi

import os import numpy as np import pandas as pd from PIL import Image from torch.optim.lr_scheduler import StepLR from sklearn.metrics import r2_score from torch.utils.data import Dataset, DataLoader from torchvision import transforms import torch import torch.nn as nn import random import torch.optim as optim def RMSE_funnc(actual, predicted): #actual = actual.detach().numpy() predicted = predicted diff = np.subtract(actual, predicted) square = np.square(diff) MSE = square.mean() RMSE = np.sqrt(MSE) return RMSE def seed_torch(seed=16): random.seed(seed) os.environ['PYTHONHASHSEED'] = str(seed) np.random.seed(seed) torch.manual_seed(seed) torch.cuda.manual_seed(seed) #torch.cuda.manual_seed_all(seed) # if you are using multi-GPU. torch.backends.cudnn.benchmark = False torch.backends.cudnn.deterministic = True #torch.backends.cudnn.enabled = False seed_torch() # 数据路径 train_folder = r"E:\xyx\GASF_images\PG\train" pre_folder = r"E:\xyx\GASF_images\PG\pre" val_folder = r"E:\xyx\GASF_images\PG\val" train_excel = r"E:\xyx\随机数据集\PG\798\train_data_PG.csv" pre_excel = r"E:\xyx\随机数据集\PG\798\test_data_PG.csv" val_excel = r"E:\xyx\随机数据集\PG\798\val_data_PG.csv" class FruitSugarDataset(Dataset): def __init__(self, image_folder, excel_file, transform=None): self.data = pd.read_csv(excel_file, header=None) self.image_folder = image_folder # self.transform = transform def __len__(self): return len(self.data) def __getitem__(self, idx): row = self.data.iloc[idx] img_name = f"{int(row[0])}.png" # 第一列是图像文件名 label = row.iloc[-1] # 标签为最后一列 img_path = os.path.join(self.image_folder, img_name) if not os.path.exists(img_path): raise FileNotFoundError(f"Image file {img_name} not found in {self.image_folder}") # img = Image.open(img_path).convert("RGB") # if self.transform: # img = self.transform(im

import os import numpy as np import pandas as pd import torch import torch.nn as nn import torch.optim as optim from torch.utils.data import Dataset, DataLoader from torch.optim.lr_scheduler import ReduceLROnPlateau import matplotlib.pyplot as plt from sklearn.metrics import confusion_matrix, classification_report import seaborn as sns from tqdm import tqdm # 配置参数 class Config: data_root ="C:\\Users\\86190\\Desktop\\超声无损检测\\机器学习\\data" # 数据根目录 sampling_rate = 1e6 # 采样率1MHz(根据实际调整) window_size = 2048 # 样本长度 stride = 512 # 滑动窗口步长 batch_size = 32 #可以进行修改, lr = 1e-4 epochs = 100 device = torch.device("cuda" if torch.cuda.is_available() else "cpu") # ==================== 数据预处理 ==================== class AIDataset(Dataset): def __init__(self, config, phase='train', transform=False): self.config = config self.phase = phase self.transform = transform self.samples = [] self.labels = [] self.class_names = ["undamaged", "light_damage", "medium_damage", "severe_damage"] # 遍历每个类别文件夹 for label, folder in enumerate(self.class_names): folder_path = os.path.join(config.data_root, folder) if not os.path.exists(folder_path): continue # 加载匹配的参数和波形文件 param_files = sorted([f for f in os.listdir(folder_path) if "_param.csv" in f]) waveform_files = sorted([f for f in os.listdir(folder_path) if "_waveform.csv" in f]) for param_file, waveform_file in zip(param_files, waveform_files): param_path = os.path.join(folder_path, param_file) waveform_path = os.path.join(folder_path, waveform_file) # 加载波形数据 try: waveform = pd.read_csv(waveform_path)['Amplitude'].values.astype(np.float32) except Exception as e: print(f"Error loading waveform: {waveform_path}\n{str(e)}")

帮我分析一下这段代码:import numpy as np import torch import torch.nn as nn import torch.optim as optim from torch.optim.lr_scheduler import OneCycleLR from torch.utils.data import DataLoader from torchvision import datasets, transforms from torch.amp import GradScaler from torch.amp import autocast import matplotlib.pyplot as plt # ---------------------- # 进阶数据增强 # ---------------------- class AdvancedMNISTTransform: def __init__(self): self.transform = transforms.Compose([ transforms.RandomAffine(degrees=15, translate=(0.1, 0.1), scale=(0.9, 1.1)), transforms.RandomApply([transforms.Lambda(self._add_noise)], p=0.3), transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,)) ]) def _add_noise(self, x): return x + torch.randn_like(x) * 0.1 def __call__(self, x): return self.transform(x) # ---------------------- # 残差注意力网络 # ---------------------- class ResidualSEBlock(nn.Module): """进阶残差块+通道注意力""" def __init__(self, in_channels): super().__init__() self.conv1 = nn.Conv2d(in_channels, in_channels, 3, padding=1) self.bn1 = nn.BatchNorm2d(in_channels) self.se = nn.Sequential( nn.AdaptiveAvgPool2d(1), nn.Conv2d(in_channels, in_channels // 16, 1), nn.ReLU(), nn.Conv2d(in_channels // 16, in_channels, 1), nn.Sigmoid() ) def forward(self, x): residual = x x = torch.relu(self.bn1(self.conv1(x))) x = x * self.se(x) # 通道注意力加权 return x + residual class MNISTAdvNet(nn.Module): """参数量:约0.95M""" def __init__(self): super().__init__() self.features = nn.Sequential( nn.Conv2d(1, 32, 3, padding=1), nn.BatchNorm2d(32), nn.ReLU(), ResidualSEBlock(32), nn.MaxPool2d(2), nn.Conv2d(32, 64, 3, padding=1), nn.BatchNorm2d(64), nn.ReLU(

import torch.optim import torchvision from torch.utils.data import DataLoader from torch.utils.tensorboard import SummaryWriter from model import * train_data = torchvision.datasets.CIFAR10(root='./data',train=True,transform=torchvision.transforms.ToTensor(),download=True) test_data = torchvision.datasets.CIFAR10 (root='./data',train=False,transform=torchvision.transforms.ToTensor(),download=True) train_data_size = len(train_data) test_data_size = len(test_data) # #format():格式化字符串(替换{}) # print("训练集的长度:{}".format(train_data_size)) # print("测试集的长度:{}".format(test_data_size)) #利用dataloader加载数据集 train_dataloader = DataLoader(train_data,batch_size=64) test_dataloader = DataLoader(test_data,batch_size=64) #创建网络模型 train = Train() #损失函数 loss_fn = nn.CrossEntropyLoss() #优化器 learning_rate = 0.1 optimizer = torch.optim.SGD(train.parameters(),lr=learning_rate) #设置训练网络的参数 #记录训练的次数 total_train_step = 0 #记录测试的次数 total_test_step = 0 #训练的轮数 epoch = 10 #tensorboard writer = SummaryWriter("./logs_train") for i in range(epoch): print("----------第{}轮训练--------------".format(i+1)) #训练步骤开始 for data in train_dataloader: imgs,targets = data outputs = train(imgs) loss = loss_fn(outputs,targets) #优化器优化模型 optimizer.zero_grad() loss.backward() optimizer.step() total_train_step = total_train_step+1 if total_train_step %100 ==0: print("训练次数:{},loss:{}".format(total_train_step,loss.item()))#item会将输出的tensor值转为真实数字 writer.add_scalar("train_loss",loss.item(),total_train_step) #测试 total_test_loss = 0 with torch.no_grad(): for data in test_dataloader: imgs,targets = data outputs = train(imgs) loss = loss_fn(outputs,targets) total_test_loss = total_test_loss+loss.item() print("整体测试集上的损失:{}".format(total_test_loss)) writer.add_scalar("test_loss",total_test_loss,total_test_step) total_test_step = total_test_step+1 torch.save(train,"train.{}.pth".format(i)) print("模型已保存") writer.close() 帮我检查一下我的代码,为什么训练模型到第二轮的时候总是输出缺失值

import torch import torchvision from torch.utils.data import DataLoader from torch.utils.tensorboard import SummaryWriter from model import *# 准备数据集 train_data = torchvision.datasets.CIFAR10( root="./data_taolu", train=True, transform=torchvision.transforms.ToTensor(), download=True ) test_data = torchvision.datasets.CIFAR10( root="./data_taolu", train=False, transform=torchvision.transforms.ToTensor(), download=True ) # 数据统计 train_data_size = len(train_data) test_data_size = len(test_data) print(f"训练数据集长度:{train_data_size}") print(f"测试数据集长度:{test_data_size}") # 数据加载器 train_dataloader = DataLoader(train_data, batch_size=64, shuffle=True) test_dataloader = DataLoader(test_data, batch_size=64) device = torch.device('cuda') # 模型初始化 model = Jzh().to(device) # 确保模型类已修改(见下方model.py)# 损失函数与优化器 loss_fn = nn.CrossEntropyLoss() optimizer = torch.optim.SGD(model.parameters(), lr=1e-2) # 训练参数 total_train_step = 0 total_test_step = 0 epochs = 10 writer = SummaryWriter("./logs_train") # 训练循环 for epoch in range(epochs): print(f"------第 {epoch + 1} 轮训练开始------") # 训练模式 model.train() for batch, (imgs, targets) in enumerate(train_dataloader): outputs = model(imgs) loss = loss_fn(outputs, targets) optimizer.zero_grad() loss.backward() optimizer.step() total_train_step += 1 if total_train_step % 100 == 0: print(f"训练次数: {total_train_step}, Loss: {loss.item():.4f}") writer.add_scalar("train_loss", loss.item(), total_train_step) # 评估模式 model.eval() total_test_loss = 0 total_accuracy = 0 with torch.no_grad(): for imgs, targets in test_dataloader: outputs = model(imgs) loss = loss_fn(outputs, targets) total_test_loss += loss.item() accuracy = (outputs.argmax(1) == targets).sum().item() total_accuracy += accuracy avg_test_loss = total_test_loss / len(test_dataloader) test_accuracy = total_accuracy / test_data_size print(f"测试集平均Loss: {avg_test_loss:.4f}") print(f"测试集准确率: {test_accuracy:.4f}") writer.add_scalar("test_loss", avg_test_loss, epoch) writer.add_scalar("test_accuracy", test_accuracy, epoch) # 保存模型 torch.save(model.state_dict(), f"jzh_{epoch}.pth") print(f"模型已保存: jzh_{epoch}.pth") writer.close()告诉我应该在何处添加哪些代码?

最新推荐

recommend-type

后端项目中常用的设计模式总结.doc

后端项目中常用的设计模式总结.doc
recommend-type

使用Multer实现多文件上传存储功能.doc

使用Multer实现多文件上传存储功能.doc
recommend-type

Spring Boot项目多环境配置文件管理技巧.doc

Spring Boot项目多环境配置文件管理技巧.doc
recommend-type

利用PM2部署Node项目实现高可用.doc

利用PM2部署Node项目实现高可用.doc
recommend-type

墨西哥市场分析报告.pdf

墨西哥市场分析报告.pdf
recommend-type

PKID查壳工具最新版发布,轻松识别安卓安装包加壳

根据提供的文件信息,我们可以详细解读以下知识点: ### PKiD(查壳)工具介绍 #### 标题分析 - **PKiD(查壳)**: 这是一个专门用于分析安卓安装包(APK文件)是否被加壳的应用程序。"查壳"是一种用于检测软件是否被保护层(即“壳”)包裹的技术术语。加壳是一种常见的软件保护手段,用于隐藏真实的代码逻辑,防止恶意逆向分析。 - **RAR格式文件**: 文件使用了RAR格式进行压缩,这是WinRAR软件用于文件压缩和解压缩的专有格式。 #### 描述分析 - **ApkScan-PKID查壳工具.zip**: 这指的是一款名为ApkScan的工具,它包含了PKID查壳功能。该工具被打包成ZIP格式,便于用户下载和使用。 - **安卓安装包**: 这是指Android平台的应用程序安装包,通常以APK作为文件扩展名。 - **加壳检测**: PKID查壳工具用于检测APK文件是否被加壳,加壳是一种常见的软件保护技术,用于加密和保护软件免遭逆向工程。 - **脱壳测试**: 如果检测到加壳,脱壳测试将用于尝试去除或绕过保护层,以便进行安全分析、调试或修改程序。 #### 标签分析 - **查壳**: 再次强调了工具的主要功能,即检测APK文件中的加壳情况。 - **最新版**: 表示这个文件是PKID查壳工具的最新版本。 - **PKID**: 这是工具的核心名称,代表着该软件的主要功能和用途。 #### 文件列表分析 - **PKiD(查壳).exe**: 这是一个可执行文件,说明PKID查壳工具是一个独立的应用程序,用户可以通过双击此文件直接运行程序,而无需安装。 ### 技术背景 #### 查壳工具的工作原理 查壳工具通常通过分析APK文件的头部信息、资源文件和代码段来检测加壳。它可能会检查PE文件格式的特定区域(APK基于DEX,但PE检查的概念相似),这些区域在加壳过程中可能会被特定的代码模式、字符串或签名标记。例如,某些壳会在文件头部加入特定的字符串,或者修改方法计数等信息。 #### 加壳技术 加壳技术通常用于防止软件被轻易反编译或逆向工程。它可以阻止潜在的窃取知识产权、绕过付费或防止代码分析等。加壳过程包括加密和压缩原始代码,然后在运行时解压和解密代码以供执行。 #### 脱壳技术 脱壳技术是指绕过或移除软件保护壳的过程。这通常需要对壳的工作原理有深入了解,并且需要一定的逆向工程技能。脱壳过程可能包括识别壳的签名、分析保护机制、修改代码和重定位等步骤。 #### 安全测试与逆向工程 查壳工具对于安全测试和逆向工程人员来说是非常重要的工具。它们可以帮助识别软件是否被加壳,从而决定是否需要进行脱壳操作以便深入分析软件的安全漏洞或版权问题。 #### 使用场景 - **安全测试**: 安全工程师在对移动应用程序进行安全评估时,需要确认是否有必要进行脱壳处理。 - **逆向工程**: 开发人员可能需要逆向工程某个应用,以更好地理解其工作原理或为了兼容性问题进行修改。 - **软件保护**: 对于软件开发者而言,了解常见的加壳和脱壳技术有助于更好地保护自己的应用免遭未授权的篡改和分析。 ### 结论 了解和掌握PKID查壳工具的使用对于任何需要对APK文件进行安全性分析的专业人士来说都是基础且关键的技能。该工具提供了一种快速判断软件是否加壳的方法,而且在发现壳的情况下,还可以推测出壳的来源公司,这对于后续的分析和处理提供了便利。然而,值得注意的是,进行脱壳操作往往需要对原始程序代码进行逆向工程,这在很多情况下可能涉及法律和道德问题,因此在使用此类工具时,必须确保其合法性和符合道德规范。
recommend-type

【PDF.js问题诊断手册】:快速定位与解决常见问题

# 摘要 PDF.js是一个广泛应用于Web环境中的PDF文件渲染库,其基本原理和应用概况将在本文第一章进行概述。第二章深入探讨PDF.js的问题诊断基础,包括架构分析、问题分类和日志分析技巧。随后,本文将具体讨论PDF.js在显示问题、加载与性能问题以及兼容性与安全问题的诊断与
recommend-type

grep -Ei

<think>首先,用户的问题是关于使用grep命令进行忽略大小写的扩展正则表达式搜索。用户指定了:"grep -Ei ignore case and use extended regular expressions"。所以,我需要解释如何使用grep的-E和-i选项。 从系统指令中: - 所有行内数学表达式必须用$...$格式。 - 独立公式用$$...$$。 - 使用中文回答。 - 生成相关问题。 - 在回答中引用的段落末尾添加引用标识,如[^1]。 - 回答结构清晰,逐步解决问题。 参考引用: - 引用[1]提到使用-E选项进行扩展正则表达式,而不是基本正则表达式。这更清晰,因为反斜
recommend-type

一键关闭系统更新的工具介绍

从给定的文件信息中我们可以分析出几个相关的知识点,以下是详细说明: 【标题】“系统禁止更新工具.7z”暗示着这个压缩文件内包含的可能是一款软件工具,其主要功能是阻止或禁止操作系统的更新。这种工具可能针对的是Windows、Linux或者其他操作系统的自动更新功能。一般来说,用户可能出于稳定性考虑,希望控制更新时间,或者是因为特定的软件环境依赖于旧版本的系统兼容性,不希望系统自动更新导致兼容性问题。 【描述】“一健关闭系统更新”说明了该工具的使用方式非常简单直接。用户只需通过简单的操作,比如点击一个按钮或者执行一个命令,就能实现关闭系统自动更新的目的。这种一键式操作符合用户追求的易用性原则,使得不太精通系统操作的用户也能轻松控制更新设置。 【标签】“系统工具”表明这是一个与操作系统紧密相关的辅助工具。系统工具通常包括系统清理、性能优化、磁盘管理等多种功能,而本工具专注于管理系统更新,使其成为系统维护中的一环。 【压缩包子文件的文件名称列表】“系统禁止更新工具”是压缩包内的文件名。由于文件格式为“.7z”,这说明该工具采用了7-Zip压缩格式。7-Zip是一款开源且免费的压缩软件,支持非常高的压缩比,并且能够处理各种压缩文件格式,如ZIP、RAR等。它支持创建密码保护的压缩文件和分卷压缩,这在需要转移大量数据时特别有用。然而在这个上下文中,“系统禁止更新工具”文件名暗示了该压缩包内只包含了一个程序,即专门用于关闭系统更新的工具。 根据标题和描述,我们可以推测该工具可能的实现机制,例如: 1. 修改系统服务的配置:在Windows系统中,可以通过修改Windows Update服务的属性来禁用该服务,从而阻止系统自动下载和安装更新。 2. 修改注册表设置:通过编辑Windows注册表中的某些特定键值,可以关闭系统更新功能。这通常涉及到对HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft\Windows\WindowsUpdate和HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft\Windows\WindowsUpdate\AU等路径下的设置进行修改。 3. 使用第三方软件:某些第三方工具提供了一键禁用系统更新的功能,通过修改操作系统的相关文件和配置来实现更新的禁用。这包括阻止Windows Update的运行、拦截更新下载等。 该工具的使用可能带来一些后果,比如系统安全风险的增加、系统漏洞得不到及时修复以及可能违反某些软件许可协议。用户在使用这类工具时应该清楚这些潜在的影响,并自行承担相应的风险。 总结来说,该“系统禁止更新工具”可以视为一个针对特定用户需求,尤其是企业用户或个人用户中对系统稳定性有较高要求的人群,提供的一个便捷的解决方案。它通过直接修改系统设置来禁止操作系统自动更新,但用户在使用此工具时需要谨慎,因为这可能会带来系统安全和稳定性的风险。
recommend-type

【PC3000高级应用】:复杂故障快速诊断与解决

# 摘要 本文详细介绍了PC3000在数据恢复领域的应用及其重要性,阐述了其基本操作、界面理解以及在复杂故障诊断中的应用方法。深入剖析了PC3