0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

对比Keras和PyTorch四个方面的不同

DPVg_AI_era 来源:lq 2019-06-29 09:20 次阅读

Keras和PyTorch变得极为流行,主要原因是它们比TensorFlow更容易使用。本文对比了Keras和PyTorch四个方面的不同,读者可以针对自己的任务来选择。

对于许多科学家、工程师和开发人员来说,TensorFlow是他们的第一个深度学习框架。但indus.ai公司机器学习工程师George Seif认为,TF并不是非常的用户友好。

相比TF,Seif认为Keras和PyTorch比TensorFlow更易用,已经获得了巨大的普及。

Keras本身不是框架,而是一个位于其他Deep Learning框架之上的高级API。目前它支持TensorFlow,Theano和CNTK。Keras是迄今为止启动和运行最快最简单的框架。定义神经网络是直观的,使用功能性API允许人们将层定义为函数。

而PyTorch像Keras一样,它也抽象了深度网络编程的大部分混乱部分。PyTorch介于Keras和TensorFlow之间,比Keras拥有更灵活、更好的控制力,与此同时用户又不必做任何疯狂的声明式编程。

深度学习练习者整天都在争论应该使用哪个框架。接下来我们将通过4个不同方面,来对比Keras和PyTorch,最终初学者会明白应该选谁。

用于定义模型的类与函数

Keras提供功能性API来定义深度学习模型。神经网络被定义为一组顺序函数,功能定义层1的输出是功能定义层2的输入,例如下面demo代码:

img_input = layers.Input(shape=input_shape)x = layers.Conv2D(64, (3, 3), activation='relu')(img_input)x = layers.Conv2D(64, (3, 3), activation='relu')(x)x = layers.MaxPooling2D((2, 2), strides=(2, 2))(x)

而PyTorch将网络设置为一个类,扩展了Torch库中的torch.nn.Module,PyTorch允许用户访问所有Python的类功能而不是简单的函数调用。与Keras类似,PyTorch提供了层作为构建块,但由于它们位于Python类中,因此它们在类的__init __()方法中引用,并由类的forward()方法执行。例如下面demo代码:

class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(3, 64, 3) self.conv2 = nn.Conv2d(64, 64, 3) self.pool = nn.MaxPool2d(2, 2) def forward(self, x): x = F.relu(self.conv1(x)) x = self.pool(F.relu(self.conv2(x))) return xmodel = Net()

所以如果你想更清晰、更优雅地定义网络,可以选择PyTorch;如果只是求快好上手,可以选择Keras。

张量、计算图与标准阵列

Keras API隐藏了编码器的许多混乱细节。定义网络层非常直观,默认设置已经足以应付大部分情况,不需要涉及到非常底层的内容。

而当你真正触达到更底层的TensorFlow代码时,同时你也获得了随之而来的最具有挑战性的部分:你需要确保所有矩阵乘法都排成一行。哦对了,甚至别指望打印出图层的一个输出,因为你只会在终端上打印出一个漂亮的Tensor定义。

相比起来,PyTorch在这些方面就做的更让人欣慰一些。你需要知道每个层的输入和输出大小,但这很快就能掌握。同时你也不必处理构建一个无法在调试中看到的抽象计算图。

PyTorch的另一个优势是可以在Torch Tensors和Numpy阵列之间来回切换。而反观TF,如果需要实现自定义的东西,在TF张量和Numpy阵列之间来回转换可能会很麻烦,需要开发人员对TensorFlow会话有充分的了解。

PyTorch上这种操作实际上要简单得多。你只需要知道两个操作:一个将Torch Tensor(一个Variable对象)切换到Numpy,另一个反过来。

当然,如果不需要实现任何花哨的东西,那么Keras会做得很好,因为你不会遇到任何TensorFlow路障。

训练模型

在Keras上训练模型非常容易!一个简单的.fit()走四方。下面是demo代码:

history = model.fit_generator( generator=train_generator, epochs=10, validation_data=validation_generator)

但在PyTorch中训练模型就费点事了,包括几个步骤:

在每批训练开始时初始化梯度

运行正向传递模式

运行向后传递

计算损失并更新权重

for epoch in range(2): # loop over the dataset multiple times running_loss = 0.0 for i, data in enumerate(trainloader, 0): # Get the inputs; data is a list of [inputs, labels] inputs, labels = data # (1) Initialise gradients optimizer.zero_grad() # (2) Forward pass outputs = net(inputs) loss = criterion(outputs, labels) # (3) Backward loss.backward() # (4) Compute the loss and update the weights optimizer.step()

你看看,就运行个训练就得这么多步骤!

我想这样你总能意识到发生了什么。同时,由于这些模型训练步骤在训练不同模型时基本保持不变,因此非常不必要。

控制CPUGPU模式

如果安装了tensorflow-gpu,默认情况下在Keras中启用并完成使用GPU。然后,如果希望将某些操作移动到CPU,则可以使用单行操作。

with tf.device('/cpu:0'): y = apply_non_max_suppression(x)

在PyTorch就得费点劲,你必须为每个Torch张量和numpy变量明确启用GPU。如果在CPU和GPU之间来回切换以进行不同的操作,就会使代码变得混乱并且容易出错。

例如,要将我们以前的模型转移到GPU上运行,我们必须执行以下操作:

# Get the GPU devicedevice = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")# Transfer the network to GPUnet.to(device)# Transfer the inputs and labels to GPUinputs, labels = data[0].to(device), data[1].to(device)

在GPU这块,Keras凭借其简洁和漂亮的默认设置赢得了胜利。

选择框架的建议

Seif通常给出的建议是从Keras开始,毕竟又快、又简单、又好用!你甚至可以执行自定义图层和损失函数的操作,而无需触及任何一行TensorFlow。

但如果你确实开始深入了解深层网络中更细粒度的方面,或者正在实现非标准的东西,那么PyTorch就是首选库。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 深度学习
    +关注

    关注

    73

    文章

    5224

    浏览量

    119866
  • keras
    +关注

    关注

    2

    文章

    18

    浏览量

    6049
  • pytorch
    +关注

    关注

    2

    文章

    759

    浏览量

    12822

原文标题:深度学习框架如何选?4大场景对比Keras和PyTorch

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    四个按钮控制四个继电器的程序怎么写?

    我想用四个按钮控制四个继电器,假设按钮为ABCD,继电器为EFGH,AB按下E动,CD按下F动,AC按下G动,BD按下H动,都按下不动,麻烦高手给程序他,我用的单片机是AT89C51,打算用P1口
    发表于 07-22 00:28

    如何用labview将IP地址的四个数值部分拆分成四个数值

    在TCP通讯中,需要将IP地址转换成hex码,并需要求异或和。如何用labview将IP地址的四个数值部分拆分成四个单个数值?
    发表于 10-04 10:36

    esd,mcu和adc复位问题的必须要注意的四个方面!

    esd,mcu和adc复位问题的必须要注意的四个方面https://bbs.elecfans.com/jishu_1450674_1_1.html
    发表于 11-28 16:58

    印制电路板设计四个方面的要求

      对于印制电路板的设计要求,通常要从正确性、可靠性、工艺性、经济性四个方面进行考虑。制板要求不同,加工复杂程度也就不同。因此,要根据产品的性质、所处的阶段(研制、试制、生产),相应地制定印制电路板的设计要求。
    发表于 09-04 16:11

    Keras之ML~P:基于Keras中建立的回归预测的神经网络模型

    Keras之ML~P:基于Keras中建立的回归预测的神经网络模型(根据200数据样本预测新的5+1样本)——回归预测
    发表于 12-20 10:43

    Pytorch模型训练实用PDF教程【中文】

    PyTorch 提供的数据增强方法(22 )、权值初始化方法(10 )、损失函数(17 )、优化器(6 )及 tensorboa
    发表于 12-21 09:18

    请问UCC25630的四个型号有什么区别?

    这是TI官网上的UCC25630四个型号的对比表。[/td][td=165]UCC256301UCC256302UCC256303UCC256304TopologyHalf-Bridge
    发表于 04-04 10:18

    UI设计的四个方向

    UI设计的四个方向
    发表于 04-16 14:24

    实现四个按钮分别控制四个LED灯

    实现四个按钮分别控制四个LED灯,按一次亮,再按一次熄灭。掌握芯片的终端机制,并学会进行中断配置。GPIO控制器 -> SYSCFG选择器 -> EXTI外部中断控制器 ->
    发表于 08-16 08:10

    如何利用STM32F401VE实现四个按钮分别控制四个LED灯?

    如何利用STM32F401VE实现四个按钮分别控制四个LED灯?
    发表于 11-17 08:02

    S32G-GoldVip上的Pytorch和Tensorflow如何启用?

    大家好,我想在 Goldbox 上运行我的 ML 模型,我看到 Goldvip 有一可用的库 eIQ Auto,它提供内部使用 Tensorflow 的 Pytorch/Keras 2.x,请帮助我了解这些库在哪里可用以及如何
    发表于 03-30 07:05

    keras可视化介绍

    , Tensorflow, Pytorch, Keras, Caffe等),网页地址: https://netron.app/ 将上一讲生成的keras_mnist.h5导入,得到模型结构,如下图: 2
    发表于 08-18 07:53

    TCO在CRT方面的对比

    TCO在CRT方面的对比 随着时间的发展,原有的TCO99标准已经难以适应新的LCD、PDP等采用新式显示技术的显示器。于是TCO联盟开始制定最新的TCO03标准,
    发表于 12-26 17:06 772次阅读

    TCO在LCD方面的对比

    TCO在LCD方面的对比 随着时间的发展,原有的TCO99标准已经难以适应新的LCD、PDP等采用新式显示技术的显示器。于是TCO联盟开始制定最新的TCO03标准,
    发表于 12-26 17:10 813次阅读

    Pytorch入门教程与范例

    ,tensorflow 等低层程序库,或者 keras、sonnet 等高层 wrapper,pytorch 是一种自成体系的深度学习库(图1)。
    发表于 11-15 17:50 4965次阅读
    <b class='flag-5'>Pytorch</b>入门教程与范例