pytorch 我是土堆课程学习

张开发
2026/5/5 7:25:52 15 分钟阅读
pytorch 我是土堆课程学习
2026-1-15tipsgethub的download zip 之后浏览器上下载卡住了使用 fdmfree download Manager右键下载链接复制到fdm即可anaconda常用指令进入 Anaconda promptconda create -n [环境名称] python[3.6]ad: conda create -n tudui python3.6conda list 获取base环境中的所有包conda env list 表示Anaconda里面所有的环境conda activate tudui 激活“tudui”这个环境当然也可以用Anaconda Navigator这种可视化页面来操作新建Python环境并安装必要的numpy等以及torch库conda create -n aqua2 -y python3.11 conda activate aqua2 conda install -y -c conda-forge numpy1.26.4 scipy1.13 pandas2.2 matplotlib3.8 scikit-learn1.5 conda install -y -c pytorch pytorch torchvision torchaudio cpuonly python -c import torch, numpy; print(torch, torch.__version__); print(numpy, numpy.__version__); atorch.randn(2000,2000); print((aa).shape)io2.4.1验证python -c import torch, numpy; print(torch, torch.__version__); print(numpy, numpy.__version__); print(cuda, torch.version.cuda); print(mps, getattr(torch.backends,mps,None))python -c import torch; xtorch.randn(2,3); yxx.T; print(ok, y.shape, y.dtype)在tudui环境中安装notebook的包conda activate tuduiconda install nb_conda 注意这里最好别用pipjupyter notebook主要是要看conda list里面有没有ipkernel没有就需要安装这个包然后用浏览器进入新建对应conda环境tudui的notebook验证import torchtorch.cuda.is_available()正确输出truehelp()与dir()help(torch.cuda.is_available)dir(torch.cuda.is_available())Dataset与DataloaderDataset和DataLoader是 PyTorch 中数据加载的两个核心组件它们分工明确一起协作完成高效的数据加载和处理。1.Dataset定义数据集的定义者和描述者职责负责定义数据如何组织、存储和读取关键方法__len__()返回数据集的大小__getitem__()根据索引返回单个数据样本特点被动组件不管理批次、打乱等from torch.utils.data import Dataset import torch class MyDataset(Dataset): def __init__(self, data): self.data data def __len__(self): return len(self.data) def __getitem__(self, idx): return self.data[idx] # 返回单个样本 # 创建数据集 dataset MyDataset(torch.randn(100, 3, 32, 32)) # 100个样本 print(f数据集大小: {len(dataset)}) # 100 sample dataset[0] # 获取第一个样本 print(f样本形状: {sample.shape}) # torch.Size([3, 32, 32])2.DataLoader定义数据加载的管理者和执行者职责负责批量加载、打乱、并行处理等关键功能批量处理数据打乱多进程并行加载数据预处理特点主动组件管理加载流程from torch.utils.data import DataLoader # 创建数据加载器 dataloader DataLoader( dataset, # 传入 Dataset batch_size16, # 批次大小 shuffleTrue, # 打乱数据 num_workers2, # 并行进程数 drop_lastTrue # 丢弃最后一个不完整的批次 ) # 遍历批次 for batch in dataloader: print(f批次形状: {batch.shape}) # torch.Size([16, 3, 32, 32]) breakP6_Dataset类代码实战P7_TenSorBoard的使用一P8_TenSorBoard的使用二P9_Transforms的使用一P16_nn.moduleP18_卷积P19_最大池化P20_线性激活P21_线性层nn.linearP22_SequentialP23_损失函数与反向传播

更多文章