欧美阿v视频在线大全_亚洲欧美中文日韩V在线观看_www性欧美日韩欧美91_亚洲欧美日韩久久精品

主頁 > 知識庫 > 手把手教你使用TensorFlow2實現RNN

手把手教你使用TensorFlow2實現RNN

熱門標簽:煙臺電話外呼營銷系統 預覽式外呼系統 銀川電話機器人電話 電銷機器人錄音要學習什么 長春極信防封電銷卡批發 企業彩鈴地圖標注 外賣地址有什么地圖標注 上海正規的外呼系統最新報價 如何地圖標注公司

概述

RNN (Recurrent Netural Network) 是用于處理序列數據的神經網絡. 所謂序列數據, 即前面的輸入和后面的輸入有一定的聯系.

權重共享

傳統神經網絡:


RNN:


RNN 的權重共享和 CNN 的權重共享類似, 不同時刻共享一個權重, 大大減少了參數數量.

計算過程:


計算狀態 (State)

計算輸出:

案例

數據集

IBIM 數據集包含了來自互聯網的 50000 條關于電影的評論, 分為正面評價和負面評價.

RNN 層

class RNN(tf.keras.Model):

    def __init__(self, units):
        super(RNN, self).__init__()

        # 初始化 [b, 64] (b 表示 batch_size)
        self.state0 = [tf.zeros([batch_size, units])]
        self.state1 = [tf.zeros([batch_size, units])]

        # [b, 80] => [b, 80, 100]
        self.embedding = tf.keras.layers.Embedding(total_words, embedding_len, input_length=max_review_len)

        self.rnn_cell0 = tf.keras.layers.SimpleRNNCell(units=units, dropout=0.2)
        self.rnn_cell1 = tf.keras.layers.SimpleRNNCell(units=units, dropout=0.2)

        # [b, 80, 100] => [b, 64] => [b, 1]
        self.out_layer = tf.keras.layers.Dense(1)

    def call(self, inputs, training=None):
        """

        :param inputs: [b, 80]
        :param training:
        :return:
        """

        state0 = self.state0
        state1 = self.state1

        x = self.embedding(inputs)

        for word in tf.unstack(x, axis=1):
            out0, state0 = self.rnn_cell0(word, state0, training=training)
            out1, state1 = self.rnn_cell1(out0, state1, training=training)

        # [b, 64] -> [b, 1]
        x = self.out_layer(out1)

        prob = tf.sigmoid(x)

        return prob

獲取數據

def get_data():
    # 獲取數據
    (X_train, y_train), (X_test, y_test) = tf.keras.datasets.imdb.load_data(num_words=total_words)

    # 更改句子長度
    X_train = tf.keras.preprocessing.sequence.pad_sequences(X_train, maxlen=max_review_len)
    X_test = tf.keras.preprocessing.sequence.pad_sequences(X_test, maxlen=max_review_len)

    # 調試輸出
    print(X_train.shape, y_train.shape)  # (25000, 80) (25000,)
    print(X_test.shape, y_test.shape)  # (25000, 80) (25000,)

    # 分割訓練集
    train_db = tf.data.Dataset.from_tensor_slices((X_train, y_train))
    train_db = train_db.shuffle(10000).batch(batch_size, drop_remainder=True)

    # 分割測試集
    test_db = tf.data.Dataset.from_tensor_slices((X_test, y_test))
    test_db = test_db.batch(batch_size, drop_remainder=True)

    return train_db, test_db

完整代碼

import tensorflow as tf


class RNN(tf.keras.Model):

    def __init__(self, units):
        super(RNN, self).__init__()

        # 初始化 [b, 64]
        self.state0 = [tf.zeros([batch_size, units])]
        self.state1 = [tf.zeros([batch_size, units])]

        # [b, 80] => [b, 80, 100]
        self.embedding = tf.keras.layers.Embedding(total_words, embedding_len, input_length=max_review_len)

        self.rnn_cell0 = tf.keras.layers.SimpleRNNCell(units=units, dropout=0.2)
        self.rnn_cell1 = tf.keras.layers.SimpleRNNCell(units=units, dropout=0.2)

        # [b, 80, 100] => [b, 64] => [b, 1]
        self.out_layer = tf.keras.layers.Dense(1)

    def call(self, inputs, training=None):
        """

        :param inputs: [b, 80]
        :param training:
        :return:
        """

        state0 = self.state0
        state1 = self.state1

        x = self.embedding(inputs)

        for word in tf.unstack(x, axis=1):
            out0, state0 = self.rnn_cell0(word, state0, training=training)
            out1, state1 = self.rnn_cell1(out0, state1, training=training)

        # [b, 64] -> [b, 1]
        x = self.out_layer(out1)

        prob = tf.sigmoid(x)

        return prob


# 超參數
total_words = 10000  # 文字數量
max_review_len = 80  # 句子長度
embedding_len = 100  # 詞維度
batch_size = 1024  # 一次訓練的樣本數目
learning_rate = 0.0001  # 學習率
iteration_num = 20  # 迭代次數
optimizer = tf.keras.optimizers.Adam(learning_rate=learning_rate)  # 優化器
loss = tf.losses.BinaryCrossentropy(from_logits=True)  # 損失
model = RNN(64)

# 調試輸出summary
model.build(input_shape=[None, 64])
print(model.summary())

# 組合
model.compile(optimizer=optimizer, loss=loss, metrics=["accuracy"])


def get_data():
    # 獲取數據
    (X_train, y_train), (X_test, y_test) = tf.keras.datasets.imdb.load_data(num_words=total_words)

    # 更改句子長度
    X_train = tf.keras.preprocessing.sequence.pad_sequences(X_train, maxlen=max_review_len)
    X_test = tf.keras.preprocessing.sequence.pad_sequences(X_test, maxlen=max_review_len)

    # 調試輸出
    print(X_train.shape, y_train.shape)  # (25000, 80) (25000,)
    print(X_test.shape, y_test.shape)  # (25000, 80) (25000,)

    # 分割訓練集
    train_db = tf.data.Dataset.from_tensor_slices((X_train, y_train))
    train_db = train_db.shuffle(10000).batch(batch_size, drop_remainder=True)

    # 分割測試集
    test_db = tf.data.Dataset.from_tensor_slices((X_test, y_test))
    test_db = test_db.batch(batch_size, drop_remainder=True)

    return train_db, test_db


if __name__ == "__main__":
    # 獲取分割的數據集
    train_db, test_db = get_data()

    # 擬合
    model.fit(train_db, epochs=iteration_num, validation_data=test_db, validation_freq=1)

輸出結果:

Model: "rnn"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
embedding (Embedding) multiple 1000000
_________________________________________________________________
simple_rnn_cell (SimpleRNNCe multiple 10560
_________________________________________________________________
simple_rnn_cell_1 (SimpleRNN multiple 8256
_________________________________________________________________
dense (Dense) multiple 65
=================================================================
Total params: 1,018,881
Trainable params: 1,018,881
Non-trainable params: 0
_________________________________________________________________
None

(25000, 80) (25000,)
(25000, 80) (25000,)
Epoch 1/20
2021-07-10 17:59:45.150639: I tensorflow/compiler/mlir/mlir_graph_optimization_pass.cc:176] None of the MLIR Optimization Passes are enabled (registered 2)
24/24 [==============================] - 12s 294ms/step - loss: 0.7113 - accuracy: 0.5033 - val_loss: 0.6968 - val_accuracy: 0.4994
Epoch 2/20
24/24 [==============================] - 7s 292ms/step - loss: 0.6951 - accuracy: 0.5005 - val_loss: 0.6939 - val_accuracy: 0.4994
Epoch 3/20
24/24 [==============================] - 7s 297ms/step - loss: 0.6937 - accuracy: 0.5000 - val_loss: 0.6935 - val_accuracy: 0.4994
Epoch 4/20
24/24 [==============================] - 8s 316ms/step - loss: 0.6934 - accuracy: 0.5001 - val_loss: 0.6933 - val_accuracy: 0.4994
Epoch 5/20
24/24 [==============================] - 7s 301ms/step - loss: 0.6934 - accuracy: 0.4996 - val_loss: 0.6933 - val_accuracy: 0.4994
Epoch 6/20
24/24 [==============================] - 8s 334ms/step - loss: 0.6932 - accuracy: 0.5000 - val_loss: 0.6932 - val_accuracy: 0.4994
Epoch 7/20
24/24 [==============================] - 10s 398ms/step - loss: 0.6931 - accuracy: 0.5006 - val_loss: 0.6932 - val_accuracy: 0.4994
Epoch 8/20
24/24 [==============================] - 9s 382ms/step - loss: 0.6930 - accuracy: 0.5006 - val_loss: 0.6931 - val_accuracy: 0.4994
Epoch 9/20
24/24 [==============================] - 8s 322ms/step - loss: 0.6924 - accuracy: 0.4995 - val_loss: 0.6913 - val_accuracy: 0.5240
Epoch 10/20
24/24 [==============================] - 8s 321ms/step - loss: 0.6812 - accuracy: 0.5501 - val_loss: 0.6655 - val_accuracy: 0.5767
Epoch 11/20
24/24 [==============================] - 8s 318ms/step - loss: 0.6381 - accuracy: 0.6896 - val_loss: 0.6235 - val_accuracy: 0.7399
Epoch 12/20
24/24 [==============================] - 8s 323ms/step - loss: 0.6088 - accuracy: 0.7655 - val_loss: 0.6110 - val_accuracy: 0.7533
Epoch 13/20
24/24 [==============================] - 8s 321ms/step - loss: 0.5949 - accuracy: 0.7956 - val_loss: 0.6111 - val_accuracy: 0.7878
Epoch 14/20
24/24 [==============================] - 8s 324ms/step - loss: 0.5859 - accuracy: 0.8142 - val_loss: 0.5993 - val_accuracy: 0.7904
Epoch 15/20
24/24 [==============================] - 8s 330ms/step - loss: 0.5791 - accuracy: 0.8318 - val_loss: 0.5961 - val_accuracy: 0.7907
Epoch 16/20
24/24 [==============================] - 8s 340ms/step - loss: 0.5739 - accuracy: 0.8421 - val_loss: 0.5942 - val_accuracy: 0.7961
Epoch 17/20
24/24 [==============================] - 9s 378ms/step - loss: 0.5701 - accuracy: 0.8497 - val_loss: 0.5933 - val_accuracy: 0.8014
Epoch 18/20
24/24 [==============================] - 9s 361ms/step - loss: 0.5665 - accuracy: 0.8589 - val_loss: 0.5958 - val_accuracy: 0.8082
Epoch 19/20
24/24 [==============================] - 8s 353ms/step - loss: 0.5630 - accuracy: 0.8681 - val_loss: 0.5931 - val_accuracy: 0.7966
Epoch 20/20
24/24 [==============================] - 8s 314ms/step - loss: 0.5614 - accuracy: 0.8702 - val_loss: 0.5925 - val_accuracy: 0.7959

Process finished with exit code 0

到此這篇關于手把手教你使用TensorFlow2實現RNN的文章就介紹到這了,更多相關TensorFlow2實現RNN內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • tensorflow2.0實現復雜神經網絡(多輸入多輸出nn,Resnet)
  • windows系統Tensorflow2.x簡單安裝記錄(圖文)
  • TensorFlow2基本操作之合并分割與統計
  • 詳解TensorFlow2實現前向傳播
  • Python強化練習之Tensorflow2 opp算法實現月球登陸器

標簽:西寧 潮州 佳木斯 湖北 宜昌 珠海 上饒 盤錦

巨人網絡通訊聲明:本文標題《手把手教你使用TensorFlow2實現RNN》,本文關鍵詞  手把手,教你,使用,TensorFlow2,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《手把手教你使用TensorFlow2實現RNN》相關的同類信息!
  • 本頁收集關于手把手教你使用TensorFlow2實現RNN的相關信息資訊供網民參考!
  • 推薦文章
    欧美阿v视频在线大全_亚洲欧美中文日韩V在线观看_www性欧美日韩欧美91_亚洲欧美日韩久久精品
  • <rt id="w000q"><acronym id="w000q"></acronym></rt>
  • <abbr id="w000q"></abbr>
    <rt id="w000q"></rt>
    波多野吉衣在线视频| 欧美精品久久99| 国产日韩精品一区二区三区在线| 日韩国产精品久久久久久亚洲| 麻豆短视频在线观看| 欧美无砖砖区免费| 一区二区三区在线免费视频| 99久久综合精品| 色先锋资源久久综合| 亚洲欧美偷拍三级| 四川一级毛毛片| 欧美色大人视频| 亚洲一区二区三区四区在线免费观看 | 91n在线视频| 国产欧美日韩亚州综合 | 午夜婷婷国产麻豆精品| 香蕉网在线视频| 欧美情侣在线播放| 天堂va蜜桃一区二区三区漫画版| 中文字幕人妻熟女在线| 欧美一级日韩免费不卡| 免费看日韩a级影片| 中字幕一区二区三区乱码| 久久久久久99久久久精品网站| 国产中文字幕一区| 中文字幕亚洲欧美日韩| 亚洲美女视频在线观看| 韩国黄色一级片| 日韩欧美国产综合在线一区二区三区| 蜜桃av一区二区在线观看| 日本人亚洲人jjzzjjz| 国产精品欧美一区喷水| 99久久精品免费精品国产| 欧美三级日本三级少妇99| 偷拍自拍另类欧美| 免费看91的网站| 国产精品卡一卡二| 日本人妻一区二区三区| 日韩精品在线一区| 国产成人免费视频精品含羞草妖精| 欧产日产国产v| 午夜久久久影院| 大胸美女被爆操| 亚洲天堂精品在线观看| 李丽珍裸体午夜理伦片| 久久午夜羞羞影院免费观看| 成人黄色小视频在线观看| 欧美日韩国产大片| 激情综合一区二区三区| 色噜噜久久综合| 日韩av中文字幕一区二区| 色www亚洲国产阿娇yao| 亚洲综合色丁香婷婷六月图片| 野花社区视频在线观看| 国产精品麻豆一区二区| 亚洲精品激情视频| 久久久一区二区三区| 99re视频这里只有精品| 日韩午夜中文字幕| 成人激情午夜影院| 日韩欧美一级特黄在线播放| 成人免费观看av| 日韩视频一区在线观看| 波多野结衣一区二区三区| 日韩一区二区免费在线电影| 成人免费看视频| 欧美成人综合网站| 99国产欧美另类久久久精品| 日韩精品一区二区三区中文不卡| 成人sese在线| 精品国产乱子伦一区| 四川一级毛毛片| 国产日韩欧美激情| 亚州av综合色区无码一区| 国产精品日韩精品欧美在线| 中文字幕在线永久| 国产精品高潮久久久久无| 亚洲人人夜夜澡人人爽| 一区二区三区日韩在线观看| 蜜桃av免费观看| 视频一区中文字幕国产| 色综合久久久久综合99| 久久疯狂做爰流白浆xx| 欧美日韩高清一区二区| 成人99免费视频| 久久这里只精品最新地址| 色哟哟无码精品一区二区三区| 国产精品丝袜黑色高跟| 日韩av在线看免费观看| 亚洲国产精品久久久久婷婷884| 国产高清视频免费在线观看| 蜜臂av日日欢夜夜爽一区| 欧美日韩精品一区二区三区 | 日本中文一区二区三区| 91久久精品一区二区二区| 国产精品影音先锋| 亚洲精品一区二区三区福利| 国产高清成人久久| 一区二区三区av电影 | 黑人と日本人の交わりビデオ| 亚洲一区在线播放| 日本韩国一区二区| 成人免费观看男女羞羞视频| 久久久精品2019中文字幕之3| 一区二区三区少妇| 亚洲mv在线观看| 欧美日韩成人在线| 日本成人在线免费观看| 亚洲丝袜自拍清纯另类| 爱爱视频免费在线观看| 国产一区二区三区在线观看免费| 日韩欧美一二区| 国产国语性生话播放| 日韩中文字幕1| 欧美妇女性影城| 日本少妇xxx| 一区二区三区在线播放| 91国偷自产一区二区使用方法| 国产宾馆实践打屁股91| 中文字幕巨乱亚洲| 三上悠亚作品在线观看| 国产成人精品免费网站| 国产日韩影视精品| 狂野欧美性猛交| 风间由美一区二区av101| 中文乱码免费一区二区| 欧美色视频一区二区三区在线观看| 国产乱码精品一区二区三区忘忧草| 久久一区二区三区四区| 色屁屁草草影院ccyy.com| 国产主播一区二区| 中文字幕+乱码+中文字幕一区| 国产大屁股喷水视频在线观看| 国产精品一品视频| 国产精品嫩草99a| 特级片在线观看| 国产又粗又猛又爽又黄| 亚洲地区一二三色| 日韩一级大片在线观看| 9.1成人看片免费版| 久久国产尿小便嘘嘘尿| 国产亚洲1区2区3区| 国产黄色小视频网站| 不卡视频在线观看| 一二三四社区欧美黄| 51午夜精品国产| 亚洲永久精品ww.7491进入| 国产一区二区在线看| 国产精品天天看| 在线观看一区不卡| 喷水视频在线观看| 精品在线视频一区| 国产精品成人免费| 欧美午夜精品理论片a级按摩| 欧美双性人妖o0| 精品午夜久久福利影院| 中文字幕中文乱码欧美一区二区 | 91亚洲国产成人精品一区二三 | 亚洲精品免费一二三区| 欧美精品在线观看播放| 久久久久亚洲av成人无码电影| 国产精品1024| 亚洲精品久久7777| 欧美一激情一区二区三区| 日韩黄色中文字幕| 99精品欧美一区二区三区综合在线| 午夜私人影院久久久久| 久久久久99精品国产片| 色婷婷久久久久swag精品| yy1111111| 国产电影一区二区三区| 伊人婷婷欧美激情| 欧美成人三级在线| 在线免费观看亚洲视频| 日韩精品视频一区二区| 国产九色sp调教91| 亚洲国产成人porn| 久久久亚洲午夜电影| 欧美在线不卡视频| 影音先锋男人在线| 黑人性生活视频| 国产一区二区三区国产| 亚洲综合无码一区二区| xfplay精品久久| 欧美手机在线视频| 日本午夜精品视频| 精品人妻伦一二三区久| 国产成人综合在线播放| 午夜日韩在线电影| 国产精品看片你懂得| 日韩精品一区二区三区中文不卡| 免费高清在线观看电视| 特大黑人巨人吊xxxx| 99久久国产免费看| 黑人巨大精品欧美一区| 亚洲国产一区二区三区| 国产欧美日韩另类视频免费观看| 欧美精品一卡二卡| 曰本女人与公拘交酡| 欧美偷拍一区二区三区|