python

pytorch 限制GPU使用效率详解(计算效率)

2020-06-25
问题 用过 tensorflow 的人都知道, tf 可以限制程序在 GPU 中的使用效率,但 pytorch 中没有这个操作. 思路 于是我想到了一个代替方法,玩过单片机点灯的同学都知道,灯的亮度是靠占空比实现的,这实际上也是计算机的运行原理. 那我们是不是也可以通过增加 GPU 不工作的时间,进而降低 GPU 的使用效率 ? 主要代码 import time ... rest_time = 0.15 ... for _ in range( XXX ): ... outputs = all_G

Pytorch 高效使用GPU的操作

2020-06-25
前言 深度学习涉及很多向量或多矩阵运算,如矩阵相乘.矩阵相加.矩阵-向量乘法等.深层模型的算法,如BP,Auto-Encoder,CNN等,都可以写成矩阵运算的形式,无须写成循环运算.然而,在单核CPU上执行时,矩阵运算会被展开成循环的形式,本质上还是串行执行.GPU(Graphic Process Units,图形处理器)的众核体系结构包含几千个流处理器,可将矩阵运算并行化执行,大幅缩短计算时间.随着NVIDIA.AMD等公司不断推进其GPU的大规模并行架构,面向通用计算的GPU已成为加速可并

浅谈keras 模型用于预测时的注意事项

2020-06-25
为什么训练误差比测试误差高很多? 一个Keras的模型有两个模式:训练模式和测试模式.一些正则机制,如Dropout,L1/L2正则项在测试模式下将不被启用. 另外,训练误差是训练数据每个batch的误差的平均.在训练过程中,每个epoch起始时的batch的误差要大一些,而后面的batch的误差要小一些.另一方面,每个epoch结束时计算的测试误差是由模型在epoch结束时的状态决定的,这时候的网络将产生较小的误差. [Tips]可以通过定义回调函数将每个epoch的训练误差和测试误差并作图,

解决Pytorch自定义层出现多Variable共享内存错误问题

2020-06-25
错误信息: RuntimeError: in-place operations can be only used on variables that don't share storage with any other variables, but detected that there are 4 objects sharing it 自动求导是很方便, 但是想想, 如果两个Variable共享内存, 再对这个共享的内存的数据进行修改, 就会引起错误! 一般是由于 inplace操作或是ind

Pytorch学习之torch用法----比较操作(Comparison Ops)

2020-06-25
1. torch.eq(input, other, out=None) 说明: 比较元素是否相等,第二个参数可以是一个数,或者是第一个参数同类型形状的张量 参数: input(Tensor) ---- 待比较张量 other(Tenosr or float) ---- 比较张量或者数 out(Tensor,可选的) ---- 输出张量 返回值: 一个torch.ByteTensor张量,包含了每个位置的比较结果(相等为1,不等为0) >>> a = torch.Tensor([[1, 2

Python3实现建造者模式的示例代码

2020-06-25
建造者模式 建造者模式用于创建复杂的对象.使用建造者模式可以使复杂的过程层次明了.清晰,把对象的创建以及使用进行了解耦.实际上从代码的角度上看,是进行了多次封装,使代码结构更为规范合理,层次结构更加鲜明. 在一个复杂的对象中,需要编写大量的代码去实现这一个类,并且在进行初始化时,也有可能会有大量的参数去进行初始化. 建造者模式把实现一个类给拆分成多个创建步骤,这些步骤在大多数相关资料中,一般以拟人化的形式进行表达:例如建造者.指挥者以及导演者,但是这些名词的拟人化并不能完全的让读者能够get到完

浅谈pytorch中torch.max和F.softmax函数的维度解释

2020-06-25
在利用torch.max函数和F.Ssoftmax函数时,对应该设置什么维度,总是有点懵,遂总结一下: 首先看看二维tensor的函数的例子: import torch import torch.nn.functional as F input = torch.randn(3,4) print(input) tensor([[-0.5526, -0.0194, 2.1469, -0.2567], [-0.3337, -0.9229, 0.0376, -0.0801], [ 1.4721, 0.1

Python drop方法删除列之inplace参数实例

2020-06-25
drop方法有一个可选参数inplace,表明可对原数组作出修改并返回一个新数组.不管参数默认为False还是设置为True,原数组的内存值是不会改变的,区别在于原数组的内容是否直接被修改.默认为False,表明原数组内容并不改变,如果我们需要得到改变后的内容,需要将新结果赋给一个新的数组,即data = data.drop(['test','test2'],1). 如果将inplace值设定为True,则原数组内容直接被改变. 测试程序如下 #增加两列空值 import numpy as np

使用pytorch 筛选出一定范围的值

2020-06-25
我就废话不多说了,大家还是直接看代码吧~ import torch input_tensor = torch.tensor([1,2,3,4,5]) print(input_tensor>3) mask = (input_tensor>3).nonzero() print(mask) print(input_tensor.index_select(0,mask)) tensor([0, 0, 0, 1, 1], dtype=torch.uint8) tensor([3, 4]) tensor(

python suds访问webservice服务实现

2020-06-25
安装suds 在Python3环境下如果使用:pip install suds,应该会报ImportError: No module named client,这里推荐安装suds-py3. 使用 1.获取所有方法 webservice中的方法,跟http中的get.post这种类似. from suds.client import Client url = 'http://******************?wsdl' # wsdl地址 client = Client(url) print(

Python如何优雅删除字符列表空字符及None元素

2020-06-25
这样的一段删除空字符串的代码: def not_empty(s): return s and s.strip() print(list(filter(not_empty, ['A', '', 'B', None,'C', ' '])))   代码很简洁,效果嘛,可以丢到 Python在线工具|菜鸟教程 跑跑看,很 nice ~ 但是函数 not_empty 的返回值有点复杂,可以仔细分析一下: - 假设字符串a和b作and运算 a and b: - 若两者均为非空,则 a and b = b;

PyTorch之nn.ReLU与F.ReLU的区别介绍

2020-06-25
我就废话不多说了,大家还是直接看代码吧~ import torch.nn as nn import torch.nn.functional as F import torch.nn as nn class AlexNet_1(nn.Module): def __init__(self, num_classes=n): super(AlexNet, self).__init__() self.features = nn.Sequential( nn.Conv2d(3, 64, kernel_siz

浅谈PyTorch中in-place operation的含义

2020-06-24
in-place operation在pytorch中是指改变一个tensor的值的时候,不经过复制操作,而是直接在原来的内存上改变它的值.可以把它成为原地操作符. 在pytorch中经常加后缀"_"来代表原地in-place operation,比如说.add_() 或者.scatter().python里面的+=,*=也是in-place operation. 下面是正常的加操作,执行结束加操作之后x的值没有发生变化: import torch x=torch.rand(2) #t

在pytorch中动态调整优化器的学习率方式

2020-06-24
在深度学习中,经常需要动态调整学习率,以达到更好地训练效果,本文纪录在pytorch中的实现方法,其优化器实例为SGD优化器,其他如Adam优化器同样适用. 一般来说,在以SGD优化器作为基本优化器,然后根据epoch实现学习率指数下降,代码如下: step = [10,20,30,40] base_lr = 1e-4 sgd_opt = torch.optim.SGD(model.parameters(), lr=base_lr, nesterov=True, momentum=0.9) de

Pytorch mask-rcnn 实现细节分享

2020-06-24
DataLoader Dataset不能满足需求需自定义继承torch.utils.data.Dataset时需要override __init__, __getitem__, __len__ ,否则DataLoader导入自定义Dataset时缺少上述函数会导致NotImplementedError错误 Numpy 广播机制: 让所有输入数组都向其中shape最长的数组看齐,shape中不足的部分都通过在前面加1补齐 输出数组的shape是输入数组shape的各个轴上的最大值 如果输入数组的某

CentOS 7如何实现定时执行python脚本

2020-06-23
在CentOS下,可以使用crontab进行定时任务的处理. 一.crontab的安装 默认情况下,CentOS 7中已经安装有crontab,如果没有安装,可以通过yum进行安装. yum install crontabs 二.crontab的定时语法说明 corntab中,一行代码就是一个定时任务,其语法结构可以通过这个图来理解. 字符含义如下: * 代表取值范围内的数字 / 代表"每" - 代表从某个数字到某个数字 , 代表离散的取值(取值的列表) 一些常用的时间写法如下: *

在tensorflow实现直接读取网络的参数(weight and bias)的值

2020-06-23
训练好了一个网络,想要查看网络里面参数是否经过BP算法优化过,可以直接读取网络里面的参数,如果一直是随机初始化的值,则证明训练代码有问题,需要改. 下面介绍如何直接读取网络的weight 和 bias. (1) 获取参数的变量名.可以使用一下函数获取变量名: def vars_generate1(self,scope_name_var): return [var for var in tf.global_variables() if scope_name_var in var.name ] 输入

python连接mysql有哪些方法

2020-06-23
Python数据库接口支持非常多的数据库,你可以选择适合你项目的数据库: GadFlymSQL MySQL PostgreSQL Microsoft SQL Server 2000 InformixInterbase Oracle Sybase 不同的数据库你需要下载不同的DB API模块,例如你需要访问Oracle数据库和Mysql数据,你需要下载Oracle和MySQL数据库模块. DB-API是一个规范.它定义了一系列必须的对象和数据库存取方式, 以便为各种各样的底层数据库系统和多种多样的

Python Tornado核心及相关原理详解

2020-06-23
Tornado的核心是什么?Tornado 的核心是 ioloop 和 iostream 这两个模块,前者提供了 一个高效的 I/O 事件循环,后者则封装了 一个无阻塞的 socket . 通过向 ioloop 中添加网络 I/O 事件,利用无阻塞的 socket ,再搭配相应的回调函数,便可达到梦寐以求的高效异步执行. 一.Tornado简介 Tornado全称Tornado Web Server,是一个用Python语言写成的Web服务器兼Web应用框架,由FriendFeed公司在自己的网

python3的pip路径在哪

2020-06-23
python3.4以上的版本中,是默认自带pip的. 查看pip的方法 下载安装好python后,进入命令行,输入pip -V,即可查看python版本号 C:\Users\Administrator>pip -V 输出结果 pip 19.2.2 from c:\anaconda\lib\site-packages\pip (python 3.7) 手动安装pip 可以使用以下方法来安装: $ curl https://bootstrap.pypa.io/get-pip.py -o get-pi