深度學(xué)習(xí)的學(xué)習(xí)率調(diào)節(jié)實(shí)踐
正如我們所期望的,隨著學(xué)習(xí)率的提高,最初的損失逐漸減少,但過了一段時(shí)間,學(xué)習(xí)率太大,導(dǎo)致?lián)p失反彈:最佳學(xué)習(xí)率將略低于損失開始攀升的點(diǎn)(通常比轉(zhuǎn)折點(diǎn)低10倍左右)。我們現(xiàn)在可以重新初始化我們的模型,并使用良好的學(xué)習(xí)率對其進(jìn)行正常訓(xùn)練。還有更多的學(xué)習(xí)率技巧,包括創(chuàng)建學(xué)習(xí)進(jìn)度表,我希望在以后的調(diào)查中介紹,但對如何手動(dòng)選擇好的學(xué)習(xí)率有一個(gè)直觀的理解同樣重要。我們的損失在3e-1左右開始反彈,所以讓我們嘗試使用2e-1作為我們的學(xué)習(xí)率:keras.backend.clear_session()np.random.seed(42)tf.random.set_seed(42)model = keras.models.Sequential([ keras.layers.Flatten(input_shape=[28, 28]), keras.layers.Dense(300, activation="relu"), keras.layers.Dense(100, activation="relu"), keras.layers.Dense(10, activation="softmax")])model.compile(loss="sparse_categorical_crossentropy", optimizer=keras.optimizers.SGD(lr=2e-1), metrics=["accuracy"])使用TensorBoard進(jìn)行可視化TensorBoard是一個(gè)很好的交互式可視化工具,你可以使用它查看訓(xùn)練期間的學(xué)習(xí)曲線、比較學(xué)習(xí)曲線、可視化計(jì)算圖、分析訓(xùn)練統(tǒng)計(jì)數(shù)據(jù)、查看模型生成的圖像,可視化復(fù)雜的多維數(shù)據(jù)投影到三維和自動(dòng)聚類,等等!這個(gè)工具是在安裝TensorFlow時(shí)自動(dòng)安裝的,所以你應(yīng)該已經(jīng)安裝了。讓我們首先定義將用于TensorBoard日志的根日志目錄,再加上一個(gè)小函數(shù),該函數(shù)將根據(jù)當(dāng)前時(shí)間生成一個(gè)子目錄路徑,以便每次運(yùn)行時(shí)它都是不同的。你可能需要在日志目錄名稱中包含額外的信息,例如正在測試的超參數(shù)值,以便更容易地了解你在TensorBoard中查看的內(nèi)容:root_logdir = os.path.join(os.curdir, "my_logs")
def get_run_logdir(): import time run_id = time.strftime("run_%Y_%m_%d-%H_%M_%S") return os.path.join(root_logdir, run_id)
run_logdir = get_run_logdir() # 例如, './my_logs/run_2020_07_31-15_15_22'Keras api提供了一個(gè)TensorBoard()回調(diào)函數(shù)。TensorBoard()回調(diào)函數(shù)負(fù)責(zé)創(chuàng)建日志目錄,并在訓(xùn)練時(shí)創(chuàng)建事件文件和編寫摘要(摘要是一種二進(jìn)制數(shù)據(jù)記錄,用于創(chuàng)建可視化TensorBoard)。每次運(yùn)行有一個(gè)目錄,每個(gè)目錄包含一個(gè)子目錄,分別用于記錄訓(xùn)練日志和驗(yàn)證日志,兩者都包含事件文件,但訓(xùn)練日志也包含分析跟蹤:這使TensorBoard能夠準(zhǔn)確地顯示模型在模型的每個(gè)部分(跨越所有設(shè)備)上花費(fèi)了多少時(shí)間,這對于查找性能瓶頸非常有用。early_stopping_cb = keras.callbacks.EarlyStopping(patience=20)checkpoint_cb = keras.callbacks.ModelCheckpoint("my_fashion_mnist_model.h5", save_best_only=True)tensorboard_cb = keras.callbacks.TensorBoard(run_logdir)
history = model.fit(X_train, y_train, epochs=100, validation_data=(X_valid, y_valid), callbacks=[early_stopping_cb, checkpoint_cb, tensorboard_cb])接下來,我們需要啟動(dòng)TensorBoard服務(wù)器。我們可以通過運(yùn)行以下命令在Jupyter中直接執(zhí)行此操作。第一行加載TensorBoard擴(kuò)展,第二行啟動(dòng)端口6004上的TensorBoard服務(wù)器,并連接到它:%load_ext tensorboard %tensorboard — logdir=./my_logs — port=6004現(xiàn)在你應(yīng)該可以看到TensorBoard的web界面。單擊“scaler”選項(xiàng)卡以查看學(xué)習(xí)曲線。在左下角,選擇要可視化的日志(例如,第一次運(yùn)行的訓(xùn)練日志),然后單擊epoch_loss scaler。請注意,在我們的訓(xùn)練過程中,訓(xùn)練損失下降得很順利。
你還可以可視化整個(gè)圖形、學(xué)習(xí)的權(quán)重(投影到3D)或分析軌跡。TensorBoard()回調(diào)函數(shù)也有記錄額外數(shù)據(jù)的選項(xiàng),例如NLP數(shù)據(jù)集的嵌入。這實(shí)際上是一個(gè)非常有用的可視化工具。結(jié)論在這里我們得到了88%的準(zhǔn)確率,這是我們可以達(dá)到的最好的深度MLP。如果我們想進(jìn)一步提高性能,我們可以嘗試卷積神經(jīng)網(wǎng)絡(luò)(CNN),它對圖像數(shù)據(jù)非常有效。
就我們的目的而言,這就足夠了。我們學(xué)會(huì)了如何:使用Keras的Sequential API構(gòu)建深度mlp。通過按指數(shù)增長學(xué)習(xí)率,繪制損失圖,并找到損失重新出現(xiàn)的點(diǎn),來找到最佳學(xué)習(xí)率。構(gòu)建深度學(xué)習(xí)模型時(shí)的最佳實(shí)踐,包括使用回調(diào)和使用TensorBoard可視化學(xué)習(xí)曲線。如果你想在這里看到ppt或jupyterNotebook中完整的代碼和說明,請隨時(shí)查看Github存儲(chǔ)庫:https://github.com/lukenew2/learning_rates_and_best_practices。

發(fā)表評(píng)論
請輸入評(píng)論內(nèi)容...
請輸入評(píng)論/評(píng)論長度6~500個(gè)字
最新活動(dòng)更多
-
7月8日立即報(bào)名>> 【在線會(huì)議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯(lián)
-
7月22-29日立即報(bào)名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會(huì)
-
7.30-8.1火熱報(bào)名中>> 全數(shù)會(huì)2025(第六屆)機(jī)器人及智能工廠展
-
7月31日免費(fèi)預(yù)約>> OFweek 2025具身智能機(jī)器人產(chǎn)業(yè)技術(shù)創(chuàng)新應(yīng)用論壇
-
免費(fèi)參會(huì)立即報(bào)名>> 7月30日- 8月1日 2025全數(shù)會(huì)工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍(lán)皮書》
推薦專題
- 1 AI 眼鏡讓百萬 APP「集體失業(yè)」?
- 2 豆包前負(fù)責(zé)人喬木出軌BP后續(xù):均被辭退
- 3 一文看懂視覺語言動(dòng)作模型(VLA)及其應(yīng)用
- 4 “支付+”時(shí)代,支付即生態(tài) | 2025中國跨境支付十大趨勢
- 5 中國最具實(shí)力AI公司TOP10
- 6 特斯拉Robotaxi上路,馬斯克端上畫了十年的餅
- 7 國家數(shù)據(jù)局局長劉烈宏調(diào)研格創(chuàng)東智
- 8 張勇等人退出阿里合伙人
- 9 AI的夏天:第四范式VS云從科技VS地平線機(jī)器人
- 10 AI視頻,攪動(dòng)1.5萬億市場