diff --git a/experiment_4/4-Natural_Language_Processing.md b/experiment_4/4-Natural_Language_Processing.md index 8082f52f591ce282790b3033b57a8f20e4dd632b..fc5af5dc4d5aea6d8e7240cd278f517e9661a245 100644 --- a/experiment_4/4-Natural_Language_Processing.md +++ b/experiment_4/4-Natural_Language_Processing.md @@ -261,7 +261,7 @@ mox.file.copy_parallel(src_url='bert_classfication-3_3335.ckpt', 1. 点击提交以开始训练; 2. 在训练作业列表里可以看到刚创建的训练作业,在训练作业页面可以看到版本管理; 3. 点击运行中的训练作业,在展开的窗口中可以查看作业配置信息,以及训练过程中的日志,日志会不断刷新,等训练作业完成后也可以下载日志到本地进行查看; -4. 在训练日志中可以看到`epoch: 10 step: 10, loss is 10.741777`等字段,即预训练过程的loss数据。 +4. 在训练日志中可以看到`epoch: 10, outputs are:([10.741777], False)`等字段,即预训练过程的loss数据。 ### 微调BERT