学习人工智能的必经之路——读代码。目前阅读的代码来自于github数据增强项目DAGA,这个项目的原论文可以从这里获取。
这个项目主要将标记的句子线性化,然后在线性化数据上训练语言模型(LM),并用于生成合成标记数据,统一了句子生成和使用LM标记的过程。使用该方法,可以有效为序列标记任务生成高质量的合成数据,在低资源条件下,有效提升序列标记模型的性能。
语言模型部分 代码文件如图所示
def main():"""Main workflow"""##### 运行参数读取 #####args = utils.build_args(argparse.ArgumentParser())##### 从模型文件中读取日志 #####utils.init_logger(args.model_file)##### 调用gpu训练 #####assert torch.cuda.is_available()torch.cuda.set_device(args.gpuid)##### 确定随机种子 #####utils.init_random(args.seed)##### 设置训练参数 #####utils.set_params(args)logger.info("Config:\n%s", pformat(vars(args)))##### field初始化 #####fields = utils.build_fields()logger.info("Fields: %s", fields.keys())##### 训练数据读入 #####logger.info("Load %s", args.train_file)train_data = LMDataset(fields, args.train_file, args.sent_length_trunc)logger.info("Training sentences: %d", len(train_data))logger.info("Load %s", args.valid_file)##### 测试数据读入 #####val_data = LMDataset(fields, args.valid_file, args.sent_length_trunc)logger.info("Validation sentences: %d", len(val_data))##### 将数据以数值方式存储 #####fields["sent"].build_vocab(train_data)##### 迭代器 #####train_iter = utils.build_dataset_iter(train_data, args)val_iter = utils.build_dataset_iter(val_data, args, train=False)##### 读取训练断点继续训练 #####if args.resume and os.path.isfile(args.checkpoint_file):logger.info("Resume training")logger.info("Load checkpoint %s", args.checkpoint_file)checkpoint = torch.load(args.checkpoint_file, map_location=lambda storage, loc: storage)es_stats = checkpoint["es_stats"]args = utils.set_args(args, checkpoint)else:checkpoint = Nonees_stats = ESStatistics(args)##### 模型建立 #####model = utils.build_model(fields, args, checkpoint)logger.info("Model:\n%s", model)##### 优化器 #####optimizer = utils.build_optimizer(model, args, checkpoint)##### 训练效果输出 #####try_train_val(fields, model, optimizer, train_iter, val_iter, es_stats, args)
下面按照main函数中的执行顺序,选择主要代码进行分析
def set_params(args):"""Set some params."""args.checkpoint_file = "{}.checkpoint".format(args.model_file)##### encoder层和decoder层的层数设置 #####if args.num_layers != -1:args.num_enc_layers = args.num_layersargs.num_dec_layers = args.num_layerslogger.info("Set number of encoder/decoder layers uniformly to %d", args.num_layers)##### 校验encoder层和decoder层合法性 #####if args.num_enc_layers < args.num_dec_layers:raise RuntimeError("Expected num_enc_layers >= num_dec_layers")##### z维输入确认 #####if args.num_z_samples == 0:args.z_dim = 0args.z_cat = Falseargs.warmup = 0args.beta = 1.0 if args.warmup == 0 else 0.0args.device = "cuda" if args.gpuid > -1 else "cpu"
def build_fields():"""Build fields."""fields = {}fields["sent"] = torchtext.data.Field(##### 规定example数据的句首标记、句尾标记、填充标记 #####init_token=BOS_WORD, eos_token=EOS_WORD, pad_token=PAD_WORD)return fields
##### 这个文件主要用于读入文本数据 #####
"""Language modeling dataset"""
import io
import torchtext##### 使用的是torchtext.data中的Dataset结构来储存数据 #####
class LMDataset(torchtext.data.Dataset):"""Define a dataset class."""##### 构造函数,传参fields对象,文件名,限制句子长度 #####def __init__(self, fields, filename, truncate=0):sents = []with io.open(filename, "r", encoding="utf-8", errors="ignore") as f:for line in f:line = line.strip().split(" ")if truncate:line = line[:truncate]sents += [line]##### fields和examples在下方说明 #####fields = [(k, fields[k]) for k in fields]examples = [torchtext.data.Example.fromlist([sent], fields) for sent in sents]super(LMDataset, self).__init__(examples, fields)##### 定义排序键:句子长度 #####def sort_key(self, ex):"""Sort by sentence length."""return len(ex.sent)
这段代码中比较抽象的部分是torchtext的dataset中有两个变量:fields和examples
examples即torchtext中的example对象构造的列表,而example就是对数据集中一条数据的抽象
fields即torchtext中的field对象构造的列表,field对象可以理解为数据表中的列标题,其定义了列数据的处理形式
TorchText使用一个声明式的方法来加载数据:你可以告诉TorchText你想要的数据类型,它会根据声明处理数据。这一方式是通过 声明那个一个Field对象来实现的。Field就是你定义的数据处理形式。
下面使用样例代码直观了解field和example这两个类
##### 对field对象的参数进行设置,后续处理数据时会按照设置的形式对数据进行处理 #####
TEXT = Field(sequential=True, tokenize=tokenize, lower=True)
LABEL = Field(sequential=False, use_vocab=False)def get_dataset(csv_data, text_field, label_field, test=False):fields = [('id', None), ('comment_text', text_field), ('toxic', label_field)]examples = []if test:for text in tqdm(csv_data['comment_text']):examples.append(data.Example.fromlist([None, text, None], fields))else:for text, label in tqdm(zip(csv_data['comment_text'], csv_data['toxic'])):examples.append(data.Example.fromlist([None, text, label], fields))return examples, fieldstrain_examples, train_fields = get_dataset(train_data, TEXT, LABEL)
valid_examples, valid_fields = get_dataset(valid_data, TEXT, LABEL)
test_examples, test_fields = get_dataset(test_data, TEXT, None, True)train = data.Dataset(train_examples, train_fields)
valid = data.Dataset(valid_examples, valid_fields)
test = data.Dataset(test_examples, test_fields)
def build_model(fields, args, checkpoint=None):"""Build model."""##### 具体模型建立过程在下一篇学习笔记中分析 #####model = LMModel(fields, args)if checkpoint is not None:logger.info("Set model using saved checkpoint")model.load_state_dict(checkpoint["model"])return model.to(args.device)、
def build_optimizer(model, args, checkpoint=None):"""Build optimizer."""params = [p for p in model.parameters() if p.requires_grad]n_params = sum([p.nelement() for p in params])logger.info("Trainable parameters: %d", n_params)##### 优化器定义两种方法,SGD和Adam #####method = {"sgd": torch.optim.SGD, "adam": torch.optim.Adam}optimizer = method[args.optim](params, lr=args.lr)logger.info("Use %s with lr %f", args.optim, args.lr)##### 保存点optimizer参数读取 #####if checkpoint is not None:logger.info("Set optimizer states using saved checkpoint")optimizer.load_state_dict(checkpoint["optimizer"])for state in optimizer.state.values():for k, v in state.items():if isinstance(v, torch.Tensor):state[k] = v.to(args.device)return optimizer