2021-06-14 记事训练seq2seq
Published on Aug. 22, 2023, 12:06 p.m.
2021-06-14 记事
使用 #transformers 的各种模型训练 #seq2seq ,参考这里:
摘要生成核心
AutoConfig,
AutoModelForSeq2SeqLM,
AutoTokenizer,
DataCollatorForSeq2Seq,
HfArgumentParser,
Seq2SeqTrainer,
Seq2SeqTrainingArguments,
AutoModelForSeq2SeqLM只要传入labels就可以直接返回loss,之后的训练就变得非常简单了。
seq2seq训练类
<h1>https://github.com/huggingface/transformers/blob/783b0dd5891174922ff6bc9874350063bd9a0135/examples/legacy/seq2seq/seq2seq_trainer.py#L174</h1>
<h1>lprobs = torch.nn.functional.log_softmax(logits, dim=-1)</h1>
<h1>loss, _ = self.loss_fn(lprobs, labels, self.args.label_smoothing, ignore_index=self.config.pad_token_id)</h1>
另外fairseq也是个不错的项目 一大堆可以参考的示例
https://github.com/pytorch/fairseq/tree/master/examples
对了 #mlm-pytorch 模块也不错,如果做mlm任务可以借鉴使用