0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何使用显式核方法改进线性模型

Tensorflowers 来源:陈翠 2018-12-02 11:11 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

本文使用tf.contrib.learn(TensorFlow 的高阶机器学习 API)Estimator 构建我们的机器学习模型。如果您不熟悉此 API,不妨通过Estimator 指南着手了解。我们将使用 MNIST 数据集。本文包含以下步骤:

加载和准备 MNIST 数据,以用于分类

构建一个简单的线性模型,训练该模型,并用评估数据对其进行评估

将线性模型替换为核化线性模型,重新训练它,并重新进行评估

加载和准备用于分类的 MNIST 数据

运行以下实用程序命令,以加载 MNIST 数据集:

data = tf.contrib.learn.datasets.mnist.load_mnist()

上述方法会加载整个 MNIST 数据集(包含 7 万个样本),然后将数据集拆分为训练数据(5.5 万)、验证数据(5 千)和测试数据(1 万)。拆分的每个数据集均包含一个图像 NumPy 数组(形状为 [sample_size, 784])以及一个标签 NumPy 数组(形状为 [sample_size, 1])。在本文中,我们仅分别使用训练数据和验证数据训练和评估模型。

要将数据馈送到tf.contrib.learn Estimator,将数据转换为张量会很有帮助。为此,我们将使用input function 将操作添加到 TensorFlow 图,该图在执行时会创建要在下游使用的小批次张量。有关输入函数的更多背景知识,请参阅输入函数这一部分(https://tensorflow.google.cn/guide/premade_estimators?hl=zh-CN#create_input_functions)。在本示例中,我们不仅会将 NumPy 数组转换为张量,还将使用tf.train.shuffle_batch操作指定 batch_size 以及是否在每次执行 input_fn 操作时都对输入进行随机化处理(在训练期间,随机化处理通常会加快收敛速度)。以下代码段是加载和准备数据的完整代码。在本示例中,我们使用大小为 256 的小批次数据集进行训练,并使用整个样本(5 千个条目)进行评估。您可以随意尝试不同的批次大小。

import numpy as npimport tensorflow as tfdef get_input_fn(dataset_split, batch_size, capacity=10000, min_after_dequeue=3000): def _input_fn(): images_batch, labels_batch = tf.train.shuffle_batch( tensors=[dataset_split.images, dataset_split.labels.astype(np.int32)], batch_size=batch_size, capacity=capacity, min_after_dequeue=min_after_dequeue, enqueue_many=True, num_threads=4) features_map = {'images': images_batch} return features_map, labels_batch return _input_fndata = tf.contrib.learn.datasets.mnist.load_mnist()train_input_fn = get_input_fn(data.train, batch_size=256)eval_input_fn = get_input_fn(data.validation, batch_size=5000)

训练一个简单的线性模型

现在,我们可以使用 MNIST 数据集训练一个线性模型。我们将使用tf.contrib.learn.LinearClassifierEstimator,并用 10 个类别表示 10 个数字。输入特征会形成一个 784 维密集向量,指定方式如下:

image_column = tf.contrib.layers.real_valued_column('images', dimension=784)

用于构建、训练和评估 LinearClassifier Estimator 的完整代码如下所示:

import time# Specify the feature(s) to be used by the estimator.image_column = tf.contrib.layers.real_valued_column('images', dimension=784)estimator = tf.contrib.learn.LinearClassifier(feature_columns=[image_column], n_classes=10)# Train.start = time.time()estimator.fit(input_fn=train_input_fn, steps=2000)end = time.time()print('Elapsed time: {} seconds'.format(end - start))# Evaluate and report metrics.eval_metrics = estimator.evaluate(input_fn=eval_input_fn, steps=1)print(eval_metrics)

下表总结了使用评估数据评估的结果。

如何使用显式核方法改进线性模型

注意:指标会因各种因素而异。

除了调整(训练)批次大小和训练步数之外,您还可以微调一些其他参数。例如,您可以更改用于最小化损失的优化方法,只需明确从可用优化器集合中选择其他优化器即可。例如,以下代码构建的 LinearClassifier Estimator 使用了 Follow-The-Regularized-Leader (FTRL) 优化策略,并采用特定的学习速率和 L2 正则化。

optimizer = tf.train.FtrlOptimizer(learning_rate=5.0, l2_regularization_strength=1.0)estimator = tf.contrib.learn.LinearClassifier( feature_columns=[image_column], n_classes=10, optimizer=optimizer)

无论参数的值如何,线性模型可在此数据集上实现的准确率上限约为93%。

结合使用显式核映射和线性模型

线性模型在 MNIST 数据集上的错误率相对较高(约 7%)表明输入数据不是可线性分隔的。我们将使用显式核映射减少分类错误。

直觉:大概的原理是,使用非线性映射将输入空间转换为其他特征空间(可能是更高维度的空间,其中转换的特征几乎是可线性分隔的),然后对映射的特征应用线性模型。如下图所示:

如何使用显式核方法改进线性模型

技术详情

在本示例中,我们将使用 Rahimi 和 Recht 所著的论文 “Random Features for Large-Scale Kernel Machines”(大型核机器的随机特征)中介绍的随机傅里叶特征来映射输入数据。随机傅里叶特征通过以下映射将向量x∈Rd 映射到x′∈RD

如何使用显式核方法改进线性模型

其中,Ω∈RD×d、x∈Rd,b∈RD和余弦值会应用到元素级别。

在本示例中,Ω和b条目是从分布中采样的,使映射符合以下特性:

如何使用显式核方法改进线性模型

上述表达式右侧的量也称为 RBF(或高斯)核函数。此函数是机器学习中使用最广泛的核函数之一,可隐式衡量比原始空间维度高得多的其他空间中的相似性。要了解详情,请参阅径向基函数核(https://en.wikipedia.org/wiki/Radial_basis_function_kernel)。

核分类器

tf.contrib.kernel_methods.KernelLinearClassifier是预封装的tf.contrib.learnEstimator,集显式核映射和线性模型的强大功能于一身。其构造函数与 LinearClassifier Estimator 的构造函数几乎完全相同,但前者还可以指定要应用到分类器使用的每个特征的一系列显式核映射。以下代码段演示了如何将 LinearClassifier 替换为 KernelLinearClassifier。

# Specify the feature(s) to be used by the estimator. This is identical to the# code used for the LinearClassifier.image_column = tf.contrib.layers.real_valued_column('images', dimension=784)optimizer = tf.train.FtrlOptimizer( learning_rate=50.0, l2_regularization_strength=0.001)kernel_mapper = tf.contrib.kernel_methods.RandomFourierFeatureMapper( input_dim=784, output_dim=2000, stddev=5.0, name='rffm')kernel_mappers = {image_column: [kernel_mapper]}estimator = tf.contrib.kernel_methods.KernelLinearClassifier( n_classes=10, optimizer=optimizer, kernel_mappers=kernel_mappers)# Train.start = time.time()estimator.fit(input_fn=train_input_fn, steps=2000)end = time.time()print('Elapsed time: {} seconds'.format(end - start))# Evaluate and report metrics.eval_metrics = estimator.evaluate(input_fn=eval_input_fn, steps=1)print(eval_metrics)

传递到KernelLinearClassifier的唯一额外参数是一个字典,表示从 feature_columns 到要应用到相应特征列的核映射列表的映射。以下行指示分类器先使用随机傅里叶特征将初始的 784 维图像映射到 2000 维向量,然后在转换的向量上应用线性模型:

kernel_mapper = tf.contrib.kernel_methods.RandomFourierFeatureMapper( input_dim=784, output_dim=2000, stddev=5.0, name='rffm')kernel_mappers = {image_column: [kernel_mapper]}estimator = tf.contrib.kernel_methods.KernelLinearClassifier( n_classes=10, optimizer=optimizer, kernel_mappers=kernel_mappers)

请注意stddev参数。它是近似 RBF 核的标准偏差 (σ),可以控制用于分类的相似性指标。stddev通常通过微调超参数确定。

下表总结了运行上述代码的结果。我们可以通过增加映射的输出维度以及微调标准偏差,进一步提高准确率。

如何使用显式核方法改进线性模型

标准偏差

分类质量与标准偏差的值密切相关。下表显示了分类器在具有不同标准偏差值的评估数据上达到的准确率。最优值为标准偏差 = 5.0。注意标准偏差值过小或过大会如何显著降低分类的准确率。

如何使用显式核方法改进线性模型

输出维度

直观地来讲,映射的输出维度越大,两个映射向量的内积越逼近核,这通常意味着分类准确率越高。换一种思路就是,输出维度等于线性模型的权重数;此维度越大,模型的 “自由度” 就越高。不过,超过特定阈值后,输出维度的增加只能让准确率获得极少的提升,但却会导致训练时间更长。下面的两个图表展示了这一情况,分别显示了评估准确率与输出维度和训练时间之间的函数关系。

如何使用显式核方法改进线性模型

如何使用显式核方法改进线性模型

总结

显式核映射结合了非线性模型的预测能力和线性模型的可扩展性。与传统的双核方法不同,显式核方法可以扩展到数百万或数亿个样本。使用显式核映射时,请注意以下提示:

随机傅立叶特征对具有密集特征的数据集尤其有效

核映射的参数通常取决于数据。模型质量与这些参数密切相关。通过微调超参数可找到最优值

如果您有多个数值特征,不妨将它们合并成一个多维特征,然后向合并后的向量应用核映射

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 线性模型
    +关注

    关注

    0

    文章

    9

    浏览量

    7977

原文标题:如何使用显式核方法改进线性模型

文章出处:【微信号:tensorflowers,微信公众号:Tensorflowers】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    基于GAC模型实现交互图像分割的改进算法

    基于GAC模型实现交互图像分割的改进算法提出了一种改进的交互图像分割算法。采用全变分去噪模型
    发表于 09-19 09:19

    介绍支持向量机与决策树集成等模型的应用

    本文主要介绍支持向量机、k近邻、朴素贝叶斯分类 、决策树、决策树集成等模型的应用。讲解了支持向量机SVM线性与非线性模型的适用环境,并对
    发表于 09-01 06:57

    一种基于改进线性规划的LDPC码混合译码算法

    一种基于改进线性规划的LDPC码混合译码算法_陈紫强
    发表于 01-07 16:52 0次下载

    基于改进单相dq变换与形态滤波的电压暂降检测方法_金

    基于改进单相dq变换与形态滤波的电压暂降检测方法_金
    发表于 01-08 11:37 5次下载

    基于ARMLinux 台的模型预测控制算法实现

    基于ARMLinux 台的模型预测控制算法实现
    发表于 09-25 08:48 16次下载
    基于ARMLinux 台的<b class='flag-5'>显</b><b class='flag-5'>式</b><b class='flag-5'>模型</b>预测控制算法实现

    八代酷睿的尴尬,遭遇研发瓶颈

    八代酷睿从HD系列更名为UHD系列,官方声称UHD系列的主要改变在于支持硬件编解码10bit 4K HEVC视频(或解码VP9),而本质上与上代HD6XX
    发表于 11-01 16:39 4362次阅读

    一种改进的非线性亮度提升模型的逆光图像恢复手段

    针对因为拍照时光线不足或拍摄角度不佳而拍出逆光图像影响肉眼观察或计算机识别的问题,提出一种改进的非线性亮度提升模型的逆光图像恢复手段。已有的非线性亮度提升
    发表于 12-06 16:45 1次下载
    一种<b class='flag-5'>改进</b>的非<b class='flag-5'>线性</b>亮度提升<b class='flag-5'>模型</b>的逆光图像恢复手段

    反馈线性化直接方法改进设计与仿真研究

    基于动平衡状态理论的反馈线性化直接方法的基本思想是:首先根据对被控对象的性能要求,设计出具有希望动态特性的线性参考模型;然后将参考模型的状态
    的头像 发表于 11-14 07:46 2463次阅读
    反馈<b class='flag-5'>线性</b>化直接<b class='flag-5'>方法</b>的<b class='flag-5'>改进</b>设计与仿真研究

    应该如何选择使用独有什么切换策略吗?

     独内部也有一个官方的程序清单,建议哪些程序用独(高性能),哪些程序用(省电)
    发表于 08-19 17:31 0次下载
    应该如何选择使用独<b class='flag-5'>显</b>和<b class='flag-5'>核</b><b class='flag-5'>显</b>有什么切换策略吗?

    cpu带和不带的区别

    CPU带表示处理器中集成了核心显卡,可以在无独立显卡的情况下显示画面。相反,不带的CPU则需要额外配备独立显卡才能正常显示画面。同一芯片的处理器带
    发表于 05-12 16:18 3.8w次阅读

    基于反馈的改进协同过滤算法研究

    基于反馈的协同过滤算法只存在3个变量,其相似度计算方法依赖用户评分数据的反馈行为,而未考虑现实推荐场景中存在的隐性因素影响,这决定了
    发表于 04-28 11:30 3次下载
    基于<b class='flag-5'>显</b><b class='flag-5'>式</b>反馈的<b class='flag-5'>改进</b>协同过滤算法研究

    结合和隐特征交互的融合模型

    特征工程是影响杋器茡习算法性能的关键因素之一,随着互联网数据规模的扩大,传统特征工程的人力成本不断増加。为减少对特征工程的依赖,构建一种结合和隐特征交互的融合模型。将稀疏结构单元
    发表于 05-12 16:13 5次下载

    基于除法畸变模型的镜头线性标定方法

    针对鱼眼镜头的高精度标定需求,提岀一种基于除法畸变模型线性标定方法。通过除法模型将题转换为线性方程组求解问题相机畸变中心后对畸变方程矩阵进
    发表于 05-19 11:39 8次下载

    面向非线性动态的保精度-稀疏特性回归模型

    面向非线性动态的保精度-稀疏特性回归模型
    发表于 07-02 15:00 3次下载

    什么是方法

    方法是机器学习中的一类算法,它使用函数将数据映射到高维特征空间,然后在该特征空间中执行线性或非线性分类/回归。
    的头像 发表于 03-31 10:49 2482次阅读