2021-06-15 记事docker边测试边开发

Published on Aug. 22, 2023, 12:07 p.m.

2021-06-15 记事

docker测试效果

docker run --rm -it --entrypoint bash <image-name-or-id>
<h1>示例</h1>
docker run --rm  -p 8097:80 -it benchmark  bash

<p><code>docker exec -it <container-name-or-id> bash</code></p>
<h2>微调 #Bart 做 #知识提取</h2>
<p>学习率貌似真的不能够很大,不然很容易走向不归路。</p>
<p><img alt=”” src=”img/W&B%20Chart%202021_6_15%20下午9_39_32%201.svg” /></p>
<p>自动寻找学习率靠谱吗?
话说每次出来的 #学习率 差距都很大怎么选?</p>
<p>9e-6是不是太小了,不过好像表现最好。</p>
<p>腾讯 #uer 家的 #预训练 还是不错的。
<a href=”https://huggingface.co/uer">https://huggingface.co/uer</a></p>
<h1>huggingface bart 训练参考</h1>
<p><a href=”https://huggingface.co/transformers/model_doc/bart.html”>https://huggingface.co/transformers/model_doc/bart.html</a></p>
<p>训练cnn_dailymail示例;</p>
<p><a href="https://github.com/huggingface/transformers/tree/master/examples/pytorch/summarization">https://github.com/huggingface/transformers/tree/master/examples/pytorch/summarization</a></p>
<p><a href=”https://github.com/ohmeow/ohmeow_website/blob/master/_notebooks/2020-05-23-text-generation-with-blurr.ipynb”>https://github.com/ohmeow/ohmeow_website/blob/master/_notebooks/2020-05-23-text-generation-with-blurr.ipynb</a></p>
<p>代码
<a href=”https://github.com/huggingface/transformers/blob/master/examples/pytorch/summarization/run_summarization.py”>https://github.com/huggingface/transformers/blob/master/examples/pytorch/summarization/run_summarization.py</a>

<h1>这里需要关注</h1>
from transformers import (</p>

AutoConfig,

AutoModelForSeq2SeqLM,

AutoTokenizer,

DataCollatorForSeq2Seq,

HfArgumentParser,

Seq2SeqTrainer,

Seq2SeqTrainingArguments,

set\_seed,

)

还是使用 #pytorch-lightning 重写下比较好,条理会更加清晰。

Git LFS


每个使用 Git Large File Storage 的帐户都会获得 1 GB 的免费存储空间和一个月的免费带宽 1 GB。 如果带宽和存储配额不够,您可以选择为 Git LFS 购买额外配额。

https://docs.github.com/cn/github/managing-large-files/versioning-large-files/about-storage-and-bandwidth-usage

对于大文件是不是有点鸡肋了?

Transformers #Notebooks


这里绝对的宝藏 #nlp
https://huggingface.co/transformers/v3.0.2/notebooks.html
Pipelines 绝对需要关注下
=================

How to use Pipelines

pytorch-lightning-bolts


这个需要关注下

pip install pytorch-lightning-bolts

Pretrained SOTA Deep Learning models, callbacks and more for research and production with PyTorch Lightning and PyTorch

集成了好多模型,直接拿来就ok,另外自己定制也可以参考或者作为基础都可以。

https://github.com/PyTorchLightning/lightning-bolts

https://pytorch-lightning-bolts.readthedocs.io/

线性预热 #余弦退火 #学习率 调度器

https://pytorch-lightning-bolts.readthedocs.io/en/latest/learning_rate_schedulers.html

各种建议

https://pytorch-lightning-bolts.readthedocs.io/en/latest/models.html

创建## Create a Callback #pytorch_lightning

https://pytorch-lightning-bolts.readthedocs.io/en/latest/callbacks.html

线性回归 和 #逻辑回归


线性回归和逻辑回归是机器学习中基础又比较常用的内容。线性回归主要用来解决连续值预测的问题,而逻辑回归用来解决 #分类的问题 ,输出的属于某个类别的概率。

Neptune.AI


调参数

Neptune.AI 提供关于机器学习建模、超参数优化、模型评估、数据探索、生成模型、机器学习工具等的相关教程。Neptune.AI 还提供了一个框架,可以更容易地跟踪您的jupiter笔记本的版本,帮助管理您的实验过程,并集成到您的团队的工作流程。

pytorchlightning+NeptuneLogger

https://www.pytorchlightning.ai/blog/neptune-pytorch-lightning-integration

Tags: