<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          英文教程看不下去?這里有一份TensorFlow2.0中文教程

          共 8264字,需瀏覽 17分鐘

           ·

          2020-12-31 12:32

          TensorFlow


          轉(zhuǎn)自:機(jī)器之心


          雖然,自TensorFlow 2.0 發(fā)布以來,我們總是能夠聽到「TensorFlow 2.0 就是 keras」、「說的很好,但我用 PyTorch」類似的吐槽。但毋庸置疑,TensorFlow 依然是當(dāng)前最主流的深度學(xué)習(xí)框架。


          整體而言,為了吸引用戶,TensorFlow 2.0 從簡單、強(qiáng)大、可擴(kuò)展三個(gè)層面進(jìn)行了重新設(shè)計(jì)。特別是在簡單化方面,TensorFlow 2.0 提供更簡化的 API、注重 Keras、結(jié)合了 Eager execution。


          過去一段時(shí)間,機(jī)器之心為大家編譯介紹了部分英文教程,例如:



          此文章中,機(jī)器之心為大家推薦一個(gè)持續(xù)更新的中文教程,方便大家更系統(tǒng)的學(xué)習(xí)、使用 TensorFlow 2.0 :


          • 知乎專欄地址:https://zhuanlan.zhihu.com/c_1091021863043624960

          • Github 項(xiàng)目地址:https://github.com/czy36mengfei/tensorflow2_tutorials_chinese


          該教程是 NLP 愛好者 Doit 在知乎上開的一個(gè)專欄,由作者從 TensorFlow2.0 官方教程的個(gè)人學(xué)習(xí)復(fù)現(xiàn)筆記整理而來。作者將此教程分為了三類:TensorFlow 2.0 基礎(chǔ)教程、TensorFlow 2.0 深度學(xué)習(xí)實(shí)踐、TensorFlow 2.0 基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)。


          以基礎(chǔ)教程為例,作者整理了 Keras 快速入門教程、eager 模式、Autograph 等。目前為止,該中文教程已經(jīng)包含 20 多篇文章,作者還在持續(xù)更新中,感興趣的讀者可以 follow。


          該中文教程當(dāng)前目錄


          以下是作者整理的「Keras 快速入門」教程內(nèi)容。


          Keras 快速入門


          Keras 是一個(gè)用于構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的高階 API。它可用于快速設(shè)計(jì)原型、高級研究和生產(chǎn)。


          keras 的 3 個(gè)優(yōu)點(diǎn):方便用戶使用、模塊化和可組合、易于擴(kuò)展


          1. 導(dǎo)入 tf.keras


          tensorflow2 推薦使用 keras 構(gòu)建網(wǎng)絡(luò),常見的神經(jīng)網(wǎng)絡(luò)都包含在 keras.layer 中 (最新的 tf.keras 的版本可能和 keras 不同)


          import?tensorflow?as?tf
          from?tensorflow.keras?import?layers
          print(tf.__version__)
          print(tf.keras.__version__)


          2. 構(gòu)建簡單模型


          2.1 模型堆疊


          最常見的模型類型是層的堆疊:tf.keras.Sequential 模型


          model?=?tf.keras.Sequential()
          model.add(layers.Dense(32,?activation='relu'))
          model.add(layers.Dense(32,?activation='relu'))
          model.add(layers.Dense(10,?activation='softmax'))


          2.2 網(wǎng)絡(luò)配置


          tf.keras.layers 中網(wǎng)絡(luò)配置:


          • activation:設(shè)置層的激活函數(shù)。此參數(shù)由內(nèi)置函數(shù)的名稱指定,或指定為可調(diào)用對象。默認(rèn)情況下,系統(tǒng)不會(huì)應(yīng)用任何激活函數(shù)。

          • kernel_initializer 和 bias_initializer:創(chuàng)建層權(quán)重(核和偏差)的初始化方案。此參數(shù)是一個(gè)名稱或可調(diào)用對象,默認(rèn)為 "Glorot uniform" 初始化器。

          • kernel_regularizer 和 bias_regularizer:應(yīng)用層權(quán)重(核和偏差)的正則化方案,例如 L1 或 L2 正則化。默認(rèn)情況下,系統(tǒng)不會(huì)應(yīng)用正則化函數(shù)。


          layers.Dense(32,?activation='sigmoid')
          layers.Dense(32,?activation=tf.sigmoid)
          layers.Dense(32,?kernel_initializer='orthogonal')
          layers.Dense(32,?kernel_initializer=tf.keras.initializers.glorot_normal)
          layers.Dense(32,?kernel_regularizer=tf.keras.regularizers.l2(0.01))
          layers.Dense(32,?kernel_regularizer=tf.keras.regularizers.l1(0.01))


          3. 訓(xùn)練和評估


          3.1 設(shè)置訓(xùn)練流程


          構(gòu)建好模型后,通過調(diào)用 compile 方法配置該模型的學(xué)習(xí)流程:


          model?=?tf.keras.Sequential()
          model.add(layers.Dense(32,?activation='relu'))
          model.add(layers.Dense(32,?activation='relu'))
          model.add(layers.Dense(10,?activation='softmax'))
          model.compile(optimizer=tf.keras.optimizers.Adam(0.001),
          ?????????????loss=tf.keras.losses.categorical_crossentropy,
          ?????????????metrics=[tf.keras.metrics.categorical_accuracy])


          3.2 輸入 Numpy 數(shù)據(jù)


          import?numpy?as?np

          train_x?=?np.random.random((1000,?72))
          train_y?=?np.random.random((1000,?10))

          val_x?=?np.random.random((200,?72))
          val_y?=?np.random.random((200,?10))

          model.fit(train_x,?train_y,?epochs=10,?batch_size=100,
          ??????????validation_data=(val_x,?val_y))


          3.3tf.data 輸入數(shù)據(jù)


          dataset?=?tf.data.Dataset.from_tensor_slices((train_x,?train_y))
          dataset?=?dataset.batch(32)
          dataset?=?dataset.repeat()
          val_dataset?=?tf.data.Dataset.from_tensor_slices((val_x,?val_y))
          val_dataset?=?val_dataset.batch(32)
          val_dataset?=?val_dataset.repeat()

          model.fit(dataset,?epochs=10,?steps_per_epoch=30,
          ??????????validation_data=val_dataset,?validation_steps=3)


          3.4 評估與預(yù)測


          test_x?=?np.random.random((1000,?72))
          test_y?=?np.random.random((1000,?10))
          model.evaluate(test_x,?test_y,?batch_size=32)
          test_data?=?tf.data.Dataset.from_tensor_slices((test_x,?test_y))
          test_data?=?test_data.batch(32).repeat()
          model.evaluate(test_data,?steps=30)
          #?predict
          result?=?model.predict(test_x,?batch_size=32)
          print(result)


          4. 構(gòu)建高級模型


          4.1 函數(shù)式 api


          tf.keras.Sequential 模型是層的簡單堆疊,無法表示任意模型。使用 Keras 函數(shù)式 API 可以構(gòu)建復(fù)雜的模型拓?fù)?,例如?/span>


          • 多輸入模型,

          • 多輸出模型,

          • 具有共享層的模型(同一層被調(diào)用多次),

          • 具有非序列數(shù)據(jù)流的模型(例如,殘差連接)。


          使用函數(shù)式 API 構(gòu)建的模型具有以下特征:


          • 層實(shí)例可調(diào)用并返回張量。

          • 輸入張量和輸出張量用于定義 tf.keras.Model 實(shí)例。

          • 此模型的訓(xùn)練方式和 Sequential 模型一樣。


          input_x?=?tf.keras.Input(shape=(72,))
          hidden1?=?layers.Dense(32,?activation='relu')(input_x)
          hidden2?=?layers.Dense(16,?activation='relu')(hidden1)
          pred?=?layers.Dense(10,?activation='softmax')(hidden2)

          model?=?tf.keras.Model(inputs=input_x,?outputs=pred)
          model.compile(optimizer=tf.keras.optimizers.Adam(0.001),
          ?????????????loss=tf.keras.losses.categorical_crossentropy,
          ?????????????metrics=['accuracy'])
          model.fit(train_x,?train_y,?batch_size=32,?epochs=5)


          4.2 模型子類化


          通過對 tf.keras.Model 進(jìn)行子類化并定義您自己的前向傳播來構(gòu)建完全可自定義的模型。在 init 方法中創(chuàng)建層并將它們設(shè)置為類實(shí)例的屬性。在 call 方法中定義前向傳播


          class?MyModel(tf.keras.Model):
          ????def?__init__(self,?num_classes=10):
          ????????super(MyModel,?self).__init__(name='my_model')
          ????????self.num_classes?=?num_classes
          ????????self.layer1?=?layers.Dense(32,?activation='relu')
          ????????self.layer2?=?layers.Dense(num_classes,?activation='softmax')
          ????def?call(self,?inputs):
          ????????h1?=?self.layer1(inputs)
          ????????out?=?self.layer2(h1)
          ????????return?out

          ????def?compute_output_shape(self,?input_shape):
          ????????shape?=?tf.TensorShapej(input_shape).as_list()
          ????????shape[-1]?=?self.num_classes
          ????????return?tf.TensorShape(shape)

          model?=?MyModel(num_classes=10)
          model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),
          ?????????????loss=tf.keras.losses.categorical_crossentropy,
          ?????????????metrics=['accuracy'])

          model.fit(train_x,?train_y,?batch_size=16,?epochs=5)


          4.3 自定義層


          通過對 tf.keras.layers.Layer 進(jìn)行子類化并實(shí)現(xiàn)以下方法來創(chuàng)建自定義層:


          • build:創(chuàng)建層的權(quán)重。使用 add_weight 方法添加權(quán)重。

          • call:定義前向傳播。

          • compute_output_shape:指定在給定輸入形狀的情況下如何計(jì)算層的輸出形狀?;蛘?,可以通過實(shí)現(xiàn) get_config 方法和 from_config 類方法序列化層。


          class?MyLayer(layers.Layer):
          ????def?__init__(self,?output_dim,?**kwargs):
          ????????self.output_dim?=?output_dim
          ????????super(MyLayer,?self).__init__(**kwargs)

          ????def?build(self,?input_shape):
          ????????shape?=?tf.TensorShape((input_shape[1],?self.output_dim))
          ????????self.kernel?=?self.add_weight(name='kernel1',?shape=shape,
          ???????????????????????????????????initializer='uniform',?trainable=True)
          ????????super(MyLayer,?self).build(input_shape)

          ????def?call(self,?inputs):
          ????????return?tf.matmul(inputs,?self.kernel)

          ????def?compute_output_shape(self,?input_shape):
          ????????shape?=?tf.TensorShape(input_shape).as_list()
          ????????shape[-1]?=?self.output_dim
          ????????return?tf.TensorShape(shape)

          ????def?get_config(self):
          ????????base_config?=?super(MyLayer,?self).get_config()
          ????????base_config['output_dim']?=?self.output_dim
          ????????return?base_config

          ????@classmethod
          ????def?from_config(cls,?config):
          ????????return?cls(**config)

          model?=?tf.keras.Sequential(
          [
          ????MyLayer(10),
          ????layers.Activation('softmax')
          ])


          model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),
          ?????????????loss=tf.keras.losses.categorical_crossentropy,
          ?????????????metrics=['accuracy'])

          model.fit(train_x,?train_y,?batch_size=16,?epochs=5)


          4.4 回調(diào)


          callbacks?=?[
          ????tf.keras.callbacks.EarlyStopping(patience=2,?monitor='val_loss'),
          ????tf.keras.callbacks.TensorBoard(log_dir='./logs')
          ]
          model.fit(train_x,?train_y,?batch_size=16,?epochs=5,
          ?????????callbacks=callbacks,?validation_data=(val_x,?val_y))


          5 保持和恢復(fù)


          5.1 權(quán)重保存


          model?=?tf.keras.Sequential([
          layers.Dense(64,?activation='relu'),
          layers.Dense(10,?activation='softmax')])

          model.compile(optimizer=tf.keras.optimizers.Adam(0.001),
          ??????????????loss='categorical_crossentropy',
          ??????????????metrics=['accuracy'])

          model.save_weights('./weights/model')
          model.load_weights('./weights/model')
          model.save_weights('./model.h5')
          model.load_weights('./model.h5')


          5.2 保存網(wǎng)絡(luò)結(jié)構(gòu)


          #?序列化成json
          import?json
          import?pprint
          json_str?=?model.to_json()
          pprint.pprint(json.loads(json_str))
          fresh_model?=?tf.keras.models.model_from_json(json_str)
          #?保持為yaml格式??#需要提前安裝pyyaml

          yaml_str?=?model.to_yaml()
          print(yaml_str)
          fresh_model?=?tf.keras.models.model_from_yaml(yaml_str)


          5.3 保存整個(gè)模型


          model?=?tf.keras.Sequential([
          ??layers.Dense(10,?activation='softmax',?input_shape=(72,)),
          ??layers.Dense(10,?activation='softmax')
          ])
          model.compile(optimizer='rmsprop',
          ??????????????loss='categorical_crossentropy',
          ??????????????metrics=['accuracy'])
          model.fit(train_x,?train_y,?batch_size=32,?epochs=5)
          model.save('all_model.h5')
          model?=?tf.keras.models.load_model('all_model.h5')


          6. 將 keras 用于 Estimator


          Estimator API 用于針對分布式環(huán)境訓(xùn)練模型。它適用于一些行業(yè)使用場景,例如用大型數(shù)據(jù)集進(jìn)行分布式訓(xùn)練并導(dǎo)出模型以用于生產(chǎn)


          model?=?tf.keras.Sequential([layers.Dense(10,activation='softmax'),
          ??????????????????????????layers.Dense(10,activation='softmax')])

          model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),
          ??????????????loss='categorical_crossentropy',
          ??????????????metrics=['accuracy'])

          estimator?=?tf.keras.estimator.model_to_estimator(model)



          往期精彩:

          【原創(chuàng)首發(fā)】機(jī)器學(xué)習(xí)公式推導(dǎo)與代碼實(shí)現(xiàn)30講.pdf

          【原創(chuàng)首發(fā)】深度學(xué)習(xí)語義分割理論與實(shí)戰(zhàn)指南.pdf

          ?談中小企業(yè)算法崗面試

          ?算法工程師研發(fā)技能表

          ?真正想做算法的,不要害怕內(nèi)卷

          ?技術(shù)學(xué)習(xí)不能眼高手低

          ?技術(shù)人要學(xué)會(huì)自我營銷

          ?做人不能過擬合

          求個(gè)在看

          瀏覽 57
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報(bào)
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  一本道无码在线免费 | 国产偷人免费视频 | www.久久精品 | 中文字幕在线播放av | 国产又黄又粗视频 |