英文教程看不下去?這里有一份TensorFlow2.0中文教程
TensorFlow
轉(zhuǎn)自:機(jī)器之心

雖然,自TensorFlow 2.0 發(fā)布以來,我們總是能夠聽到「TensorFlow 2.0 就是 keras」、「說的很好,但我用 PyTorch」類似的吐槽。但毋庸置疑,TensorFlow 依然是當(dāng)前最主流的深度學(xué)習(xí)框架。
整體而言,為了吸引用戶,TensorFlow 2.0 從簡單、強(qiáng)大、可擴(kuò)展三個(gè)層面進(jìn)行了重新設(shè)計(jì)。特別是在簡單化方面,TensorFlow 2.0 提供更簡化的 API、注重 Keras、結(jié)合了 Eager execution。
過去一段時(shí)間,機(jī)器之心為大家編譯介紹了部分英文教程,例如:
此文章中,機(jī)器之心為大家推薦一個(gè)持續(xù)更新的中文教程,方便大家更系統(tǒng)的學(xué)習(xí)、使用 TensorFlow 2.0 :
知乎專欄地址:https://zhuanlan.zhihu.com/c_1091021863043624960
Github 項(xiàng)目地址:https://github.com/czy36mengfei/tensorflow2_tutorials_chinese
該教程是 NLP 愛好者 Doit 在知乎上開的一個(gè)專欄,由作者從 TensorFlow2.0 官方教程的個(gè)人學(xué)習(xí)復(fù)現(xiàn)筆記整理而來。作者將此教程分為了三類:TensorFlow 2.0 基礎(chǔ)教程、TensorFlow 2.0 深度學(xué)習(xí)實(shí)踐、TensorFlow 2.0 基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)。
以基礎(chǔ)教程為例,作者整理了 Keras 快速入門教程、eager 模式、Autograph 等。目前為止,該中文教程已經(jīng)包含 20 多篇文章,作者還在持續(xù)更新中,感興趣的讀者可以 follow。


該中文教程當(dāng)前目錄
以下是作者整理的「Keras 快速入門」教程內(nèi)容。
Keras 快速入門
Keras 是一個(gè)用于構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的高階 API。它可用于快速設(shè)計(jì)原型、高級研究和生產(chǎn)。
keras 的 3 個(gè)優(yōu)點(diǎn):方便用戶使用、模塊化和可組合、易于擴(kuò)展
1. 導(dǎo)入 tf.keras
tensorflow2 推薦使用 keras 構(gòu)建網(wǎng)絡(luò),常見的神經(jīng)網(wǎng)絡(luò)都包含在 keras.layer 中 (最新的 tf.keras 的版本可能和 keras 不同)
import?tensorflow?as?tf
from?tensorflow.keras?import?layers
print(tf.__version__)
print(tf.keras.__version__)
2. 構(gòu)建簡單模型
2.1 模型堆疊
最常見的模型類型是層的堆疊:tf.keras.Sequential 模型
model?=?tf.keras.Sequential()
model.add(layers.Dense(32,?activation='relu'))
model.add(layers.Dense(32,?activation='relu'))
model.add(layers.Dense(10,?activation='softmax'))
2.2 網(wǎng)絡(luò)配置
tf.keras.layers 中網(wǎng)絡(luò)配置:
activation:設(shè)置層的激活函數(shù)。此參數(shù)由內(nèi)置函數(shù)的名稱指定,或指定為可調(diào)用對象。默認(rèn)情況下,系統(tǒng)不會(huì)應(yīng)用任何激活函數(shù)。
kernel_initializer 和 bias_initializer:創(chuàng)建層權(quán)重(核和偏差)的初始化方案。此參數(shù)是一個(gè)名稱或可調(diào)用對象,默認(rèn)為 "Glorot uniform" 初始化器。
kernel_regularizer 和 bias_regularizer:應(yīng)用層權(quán)重(核和偏差)的正則化方案,例如 L1 或 L2 正則化。默認(rèn)情況下,系統(tǒng)不會(huì)應(yīng)用正則化函數(shù)。
layers.Dense(32,?activation='sigmoid')
layers.Dense(32,?activation=tf.sigmoid)
layers.Dense(32,?kernel_initializer='orthogonal')
layers.Dense(32,?kernel_initializer=tf.keras.initializers.glorot_normal)
layers.Dense(32,?kernel_regularizer=tf.keras.regularizers.l2(0.01))
layers.Dense(32,?kernel_regularizer=tf.keras.regularizers.l1(0.01))
3. 訓(xùn)練和評估
3.1 設(shè)置訓(xùn)練流程
構(gòu)建好模型后,通過調(diào)用 compile 方法配置該模型的學(xué)習(xí)流程:
model?=?tf.keras.Sequential()
model.add(layers.Dense(32,?activation='relu'))
model.add(layers.Dense(32,?activation='relu'))
model.add(layers.Dense(10,?activation='softmax'))
model.compile(optimizer=tf.keras.optimizers.Adam(0.001),
?????????????loss=tf.keras.losses.categorical_crossentropy,
?????????????metrics=[tf.keras.metrics.categorical_accuracy])
3.2 輸入 Numpy 數(shù)據(jù)
import?numpy?as?np
train_x?=?np.random.random((1000,?72))
train_y?=?np.random.random((1000,?10))
val_x?=?np.random.random((200,?72))
val_y?=?np.random.random((200,?10))
model.fit(train_x,?train_y,?epochs=10,?batch_size=100,
??????????validation_data=(val_x,?val_y))
3.3tf.data 輸入數(shù)據(jù)
dataset?=?tf.data.Dataset.from_tensor_slices((train_x,?train_y))
dataset?=?dataset.batch(32)
dataset?=?dataset.repeat()
val_dataset?=?tf.data.Dataset.from_tensor_slices((val_x,?val_y))
val_dataset?=?val_dataset.batch(32)
val_dataset?=?val_dataset.repeat()
model.fit(dataset,?epochs=10,?steps_per_epoch=30,
??????????validation_data=val_dataset,?validation_steps=3)
3.4 評估與預(yù)測
test_x?=?np.random.random((1000,?72))
test_y?=?np.random.random((1000,?10))
model.evaluate(test_x,?test_y,?batch_size=32)
test_data?=?tf.data.Dataset.from_tensor_slices((test_x,?test_y))
test_data?=?test_data.batch(32).repeat()
model.evaluate(test_data,?steps=30)
#?predict
result?=?model.predict(test_x,?batch_size=32)
print(result)
4. 構(gòu)建高級模型
4.1 函數(shù)式 api
tf.keras.Sequential 模型是層的簡單堆疊,無法表示任意模型。使用 Keras 函數(shù)式 API 可以構(gòu)建復(fù)雜的模型拓?fù)?,例如?/span>
多輸入模型,
多輸出模型,
具有共享層的模型(同一層被調(diào)用多次),
具有非序列數(shù)據(jù)流的模型(例如,殘差連接)。
使用函數(shù)式 API 構(gòu)建的模型具有以下特征:
層實(shí)例可調(diào)用并返回張量。
輸入張量和輸出張量用于定義 tf.keras.Model 實(shí)例。
此模型的訓(xùn)練方式和 Sequential 模型一樣。
input_x?=?tf.keras.Input(shape=(72,))
hidden1?=?layers.Dense(32,?activation='relu')(input_x)
hidden2?=?layers.Dense(16,?activation='relu')(hidden1)
pred?=?layers.Dense(10,?activation='softmax')(hidden2)
model?=?tf.keras.Model(inputs=input_x,?outputs=pred)
model.compile(optimizer=tf.keras.optimizers.Adam(0.001),
?????????????loss=tf.keras.losses.categorical_crossentropy,
?????????????metrics=['accuracy'])
model.fit(train_x,?train_y,?batch_size=32,?epochs=5)
4.2 模型子類化
通過對 tf.keras.Model 進(jìn)行子類化并定義您自己的前向傳播來構(gòu)建完全可自定義的模型。在 init 方法中創(chuàng)建層并將它們設(shè)置為類實(shí)例的屬性。在 call 方法中定義前向傳播
class?MyModel(tf.keras.Model):
????def?__init__(self,?num_classes=10):
????????super(MyModel,?self).__init__(name='my_model')
????????self.num_classes?=?num_classes
????????self.layer1?=?layers.Dense(32,?activation='relu')
????????self.layer2?=?layers.Dense(num_classes,?activation='softmax')
????def?call(self,?inputs):
????????h1?=?self.layer1(inputs)
????????out?=?self.layer2(h1)
????????return?out
????def?compute_output_shape(self,?input_shape):
????????shape?=?tf.TensorShapej(input_shape).as_list()
????????shape[-1]?=?self.num_classes
????????return?tf.TensorShape(shape)
model?=?MyModel(num_classes=10)
model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),
?????????????loss=tf.keras.losses.categorical_crossentropy,
?????????????metrics=['accuracy'])
model.fit(train_x,?train_y,?batch_size=16,?epochs=5)
4.3 自定義層
通過對 tf.keras.layers.Layer 進(jìn)行子類化并實(shí)現(xiàn)以下方法來創(chuàng)建自定義層:
build:創(chuàng)建層的權(quán)重。使用 add_weight 方法添加權(quán)重。
call:定義前向傳播。
compute_output_shape:指定在給定輸入形狀的情況下如何計(jì)算層的輸出形狀?;蛘?,可以通過實(shí)現(xiàn) get_config 方法和 from_config 類方法序列化層。
class?MyLayer(layers.Layer):
????def?__init__(self,?output_dim,?**kwargs):
????????self.output_dim?=?output_dim
????????super(MyLayer,?self).__init__(**kwargs)
????def?build(self,?input_shape):
????????shape?=?tf.TensorShape((input_shape[1],?self.output_dim))
????????self.kernel?=?self.add_weight(name='kernel1',?shape=shape,
???????????????????????????????????initializer='uniform',?trainable=True)
????????super(MyLayer,?self).build(input_shape)
????def?call(self,?inputs):
????????return?tf.matmul(inputs,?self.kernel)
????def?compute_output_shape(self,?input_shape):
????????shape?=?tf.TensorShape(input_shape).as_list()
????????shape[-1]?=?self.output_dim
????????return?tf.TensorShape(shape)
????def?get_config(self):
????????base_config?=?super(MyLayer,?self).get_config()
????????base_config['output_dim']?=?self.output_dim
????????return?base_config
????@classmethod
????def?from_config(cls,?config):
????????return?cls(**config)
model?=?tf.keras.Sequential(
[
????MyLayer(10),
????layers.Activation('softmax')
])
model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),
?????????????loss=tf.keras.losses.categorical_crossentropy,
?????????????metrics=['accuracy'])
model.fit(train_x,?train_y,?batch_size=16,?epochs=5)
4.4 回調(diào)
callbacks?=?[
????tf.keras.callbacks.EarlyStopping(patience=2,?monitor='val_loss'),
????tf.keras.callbacks.TensorBoard(log_dir='./logs')
]
model.fit(train_x,?train_y,?batch_size=16,?epochs=5,
?????????callbacks=callbacks,?validation_data=(val_x,?val_y))
5 保持和恢復(fù)
5.1 權(quán)重保存
model?=?tf.keras.Sequential([
layers.Dense(64,?activation='relu'),
layers.Dense(10,?activation='softmax')])
model.compile(optimizer=tf.keras.optimizers.Adam(0.001),
??????????????loss='categorical_crossentropy',
??????????????metrics=['accuracy'])
model.save_weights('./weights/model')
model.load_weights('./weights/model')
model.save_weights('./model.h5')
model.load_weights('./model.h5')
5.2 保存網(wǎng)絡(luò)結(jié)構(gòu)
#?序列化成json
import?json
import?pprint
json_str?=?model.to_json()
pprint.pprint(json.loads(json_str))
fresh_model?=?tf.keras.models.model_from_json(json_str)
#?保持為yaml格式??#需要提前安裝pyyaml
yaml_str?=?model.to_yaml()
print(yaml_str)
fresh_model?=?tf.keras.models.model_from_yaml(yaml_str)
5.3 保存整個(gè)模型
model?=?tf.keras.Sequential([
??layers.Dense(10,?activation='softmax',?input_shape=(72,)),
??layers.Dense(10,?activation='softmax')
])
model.compile(optimizer='rmsprop',
??????????????loss='categorical_crossentropy',
??????????????metrics=['accuracy'])
model.fit(train_x,?train_y,?batch_size=32,?epochs=5)
model.save('all_model.h5')
model?=?tf.keras.models.load_model('all_model.h5')
6. 將 keras 用于 Estimator
Estimator API 用于針對分布式環(huán)境訓(xùn)練模型。它適用于一些行業(yè)使用場景,例如用大型數(shù)據(jù)集進(jìn)行分布式訓(xùn)練并導(dǎo)出模型以用于生產(chǎn)
model?=?tf.keras.Sequential([layers.Dense(10,activation='softmax'),
??????????????????????????layers.Dense(10,activation='softmax')])
model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),
??????????????loss='categorical_crossentropy',
??????????????metrics=['accuracy'])
estimator?=?tf.keras.estimator.model_to_estimator(model)
往期精彩:
【原創(chuàng)首發(fā)】機(jī)器學(xué)習(xí)公式推導(dǎo)與代碼實(shí)現(xiàn)30講.pdf
【原創(chuàng)首發(fā)】深度學(xué)習(xí)語義分割理論與實(shí)戰(zhàn)指南.pdf
