首页 > TAG信息列表 > Tensorflow2

tensorflow2——warmup+Cos衰减

class WarmUpCos(keras.callbacks.Callback): def __init__(self, lr_max,lr_min, warm_step,sum_step,bat): super(WarmUpCos, self).__init__() self.lr_max = lr_max self.lr_min = lr_min self.warm_step = warm_step

1-1结构化数据建模流程范例 ——eat_tensorflow2_in_30_days

1-1结构化数据建模流程范例 准备数据 titanic数据集的目标是根据乘客信息预测他们在Titanic号撞击冰山沉没后能否生存。 结构化数据一般会使用Pandas中的DataFrame进行预处理。 import numpy as np import pandas as pd import matplotlib.pyplot as plt import tensorflow as t

6-6 使用tensorflow-serving部署模型——eat_tensorflow2_in_30_days

6-6 使用tensorflow-serving部署模型 TensorFlow训练好的模型以tensorflow原生方式保存成protobuf文件后可以用许多方式部署运行。 例如:通过 tensorflow-js 可以用javascrip脚本加载模型并在浏览器中运行模型。 通过 tensorflow-lite 可以在移动和嵌入式设备上加载并运行TensorFl

6-5使用tensorflow-serving部署模型——eat_tensorflow2_in_30_days

6-5使用tensorflow-serving部署模型 TensorFlow训练好的模型以tensorflow原生方式保存成protobuf文件后可以用许多方式部署运行。 例如:通过 tensorflow-js 可以用javascrip脚本加载模型并在浏览器中运行模型。 通过 tensorflow-lite 可以在移动和嵌入式设备上加载并运行TensorFlo

6-4 使用多GPU训练模型——eat_tensorflow2_in_30_days

6-4 使用多GPU训练模型 如果使用多GPU训练模型,推荐使用内置fit方法,较为方便,仅需添加2行代码。 MirroredStrategy过程简介: 训练开始前,该策略在所有 N 个计算设备上均各复制一份完整的模型; 每次训练传入一个批次的数据时,将数据分成 N 份,分别传入 N 个计算设备(即数据并行); N 个计算

6-2训练模型的3种方法——eat_tensorflow2_in_30_days

6-2训练模型的3种方法 模型的训练主要有内置fit方法、内置train_on_batch方法、自定义训练循环。 注:fit_generator方法在tf.keras中不推荐使用,其功能已经被fit包含。 import numpy as np import pandas as pd import tensorflow as tf from tensorflow.keras import * #打印

6-1构建模型的3种方法——eat_tensorflow2_in_30_days

6-1构建模型的3种方法 可以使用以下3种方式构建模型: 使用Sequential按层顺序构建模型; 使用函数式API构建任意结构模型; 继承Model基类构建自定义模型。 对于顺序结构的模型,优先使用Sequential方法构建。 如果模型有多输入或者多输出,或者模型需要共享权重,或者模型具有残差连接等

5-7 优化器optimizers——eat_tensorflow2_in_30_days

5-7 优化器optimizers 机器学习界有一群炼丹师,他们每天的日常是: 拿来药材(数据),架起八卦炉(模型),点着六味真火(优化算法),就摇着蒲扇等着丹药出炉了。 不过,当过厨子的都知道,同样的食材,同样的菜谱,但火候不一样了,这出来的口味可是千差万别。火小了夹生,火大了易糊,火不匀则半生半糊。 机器学

5-6 评估指标metrics——eat_tensorflow2_in_30_days

5-6 评估指标metrics 损失函数除了作为模型训练时候的优化目标,也能够作为模型好坏的一种评价指标。但通常人们还会从其它角度评估模型的好坏。 这就是评估指标。通常损失函数都可以作为评估指标,如MAE, MSE, CategoricalCrossentropy等也是常用的评估指标。 但评估指标不一定可以

5-5损失函数losses——eat_tensorflow2_in_30_days

5-5损失函数losses 一般来说,监督学习的目标函数由损失函数和正则化项组成。(Objective = Loss + Regularization) 对于keras模型,目标函数中的正则化项一般在各层中指定,例如使用Dense的 kernel_regularizer 和 bias_regularizer等参数指定权重使用l1或者l2正则化项,此外还可以用kerne

4-5AutoGraph和tf.Module——eat_tensorflow2_in_30_days

4-5AutoGraph和tf.Module 有三种计算图的构建方式:静态计算图,动态计算图,以及Autograph。 TensorFlow 2.0主要使用的是动态计算图和Autograph。 动态计算图易于调试,编码效率较高,但执行效率偏低。 静态计算图执行效率很高,但较难调试。 Autograph机制可以将动态图转换成静态计算图,兼

4-4AutoGraph的机制原理——eat_tensorflow2_in_30_days

4-4AutoGraph的机制原理 有三种计算图的构建方式:静态计算图,动态计算图,以及Autograph。 TensorFlow 2.0主要使用的是动态计算图和Autograph。 动态计算图易于调试,编码效率较高,但执行效率偏低。 静态计算图执行效率很高,但较难调试。 Autograph机制可以将动态图转换成静态计算图,兼

TensorFlow2 models

TensorFlow2  models git clone https://github.com/tensorflow/models.git (mask_rcnn_tf2) bim@bim-PowerEdge-R730:~/tensorflow_project$ git clone https://github.com/tensorflow/models.git Cloning into 'models'... remote: Enumerating objects: 72952,

基于LSTM实现多变量预测(Tensorflow2实现)

这篇文章的内容来自B站UP主唐国梁Tommy老师的视频 TensorFlow 2.0 基于LSTM多变量_共享单车使用量预测: https://www.bilibili.com/video/BV1y5411K7NR 案例实现思路: 模块导入 加载数据集、预处理 数据可视化 数据预处理 特征工程 模型编译、训练、验证 模型验证 1、模块导入

2-3自动微分机制——eat_tensorflow2_in_30_days

神经网络通常依赖反向传播求梯度来更新网络参数,求梯度过程通常是一件非常复杂而且容易出错的事情 而深度学习框架可以帮助我们自动地完成这种求梯度运算 TensorFlow一般使用梯度磁带tf.GradientTape来记录正向运算过程,然后反播磁带自动得到梯度值 这种利用tf.GradientTape求微分

2-2三种计算图——eat_tensorflow2_in_30_days

有三种计算图的构建方式:静态计算图、动态计算、以及Autograph 在TensorFlow1.0时代,采用的是静态计算图,需要先使用TensorFlow的各种算子创建计算图,然后再开启一个会话Session,显式执行计算图 而在TensorFlow2.0时代,采用的是动态计算图,即每使用一个算子后,该算子会被动态加入到隐含的

2-1张量数据结构——eat_tensorflow2_in_30_days

程序=数据结构+算法 TensorFlow程序=张量数据结构+计算图算法语言 张量和计算图是TensorFlow的核心概念 TensorFlow的基本数据结构是张量Tensor。张量即多维数组。TensorFlow的张量和NumPy中的ndarray很类似 从行为特性来看,有两种类型的张量,常量constant和变量Variable 常量的值

SimCSE的loss实现-tensorflow2

对比学习的核心就是loss的编写,记录下loss的tensorflow实现 def unsupervise_loss(y_pred, alpha=0.05): idxs = tf.range(y_pred.shape[0]) y_true = idxs + 1 - idxs % 2 * 2 y_pred = tf.math.l2_normalize(y_pred, dim = 1) similarities = tf.matmul(y_pred,

6.2 tensorflow2实现Deep&Cross推荐系统——Python实战

文章目录 Deep&Cross模型 Criteo数据 数据处理 完整代码 数据分析 tensorflow2实现Deep&Cross 构建Deep&Cross模型 构建`CrossNetwork` 构建`DNN` 构建`DeepCrossNetwork` 训练与预测 参考 Deep&Cross模型 Deep&Cross 模型的特点: 解决了 Wide&Deep 模型人

TensorFlow2 实现神经风格迁移,DIY数字油画定制照片,面试必问知识点

[]( )使用VGG提取特征 分类器CNN可以分为两部分:第一部分称为特征提取器 (feature extractor),主要由卷积层组成;后一部分由几个全连接层组成,输出类概率得分,称为分类器头 (classifier head)。在ImageNet上为分类任务预先训练的CNN也可以用于其他任务,这就是所谓的迁移学习 (tran

人工智能之深度学习-初始环境搭建(安装Anaconda3和TensorFlow2步骤详解)

前言: 本篇文章主要讲解的是在学习人工智能之深度学习时所学到的知识和需要的环境配置(安装Anaconda3和TensorFlow2步骤详解),以及个人的心得体会,汇集成本篇文章,作为自己深度学习的总结与笔记。 内容主要是人工智能和深度学习的简介、环境配置和简单的python实例演示。 对于刚了解人工

Tensorflow2 深度学习原理与实战

目录 一、引言​ ​ 二、卷积神经网络(CNN) 三、生成对抗神经网络(GAN) 一、引言  二、卷积神经网络(CNN)   一共有七层,分别为: C1:第一次卷积; S2:第一次池化; C3:第二次卷积; S4:第二次池化; C5:第一次全连接层; F6:第二次全连接层; OUTPUT:输出层。 局部连接(权值共享):每个隐层神经元的

tensorflow2实现coordinate attention

import tensorflow as tf from tensorflow.keras.layers import (Conv2D,AvgPool2D,Input) def CoordAtt(x, reduction = 32): def coord_act(x): tmpx = tf.nn.relu6(x+3) / 6 x = x * tmpx return x x_shape = x.get_shape().as_list()

MobileNet实战:tensorflow2.X版本,MobileNetV2图像分类任务(大数据集)

MobileNet实战:tensorflow2.X版本,MobileNetV2图像分类任务(大数据集) 摘要 本例提取了植物幼苗数据集中的部分数据做数据集,数据集共有12种类别,今天我和大家一起实现tensorflow2.X版本图像分类任务,分类的模型使用MobileNetV2。本文实现的算法有一下几个特点: 1、自定义了图片加载

tensorflow2.x(二)充分利用GPU资源、多进程并行模型

在上一篇文章中,我们解决了tensorflow在大样本训练中内存不足的问题,但是可能无法最大化利用GPU资源,在这篇文章中,我们继续挖掘如何充分利用GPU资源,将显卡的内存、算力全部拉满。 为了进一步挖掘显卡性能,进一步提升资源利用率,进一步解放双手,在这篇文章中,我们试图使用多进程,分配