用transformer在诗歌集上训练出的模型
import os
os.environ["KERAS_BACKEND"] = "tensorflow" # @param ["tensorflow", "jax", "torch"]
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com'
这是在500批次内训练的,我遵循从数据集的一部分到越来越大的训练方式
上面是各种生成方式的结果
这是在1500个批次上训练,每个批次64个诗歌样本
上面是贪婪搜索,topk等搜索得到的生成结果
下面是整个数据集,一共20多万样本,因为我过滤掉长度超过80的诗词,训练两个轮次后