本文介绍: ShapeNetV2, 所有55个categories来train GPT;但在chair,table,bench和lamp这四个类别上finetune。AutoEncoder用了2 A100, 2 days。transformer用了4 A100, 5 days。
概述
Learning Quantized Triangle Embeddings (一个auto encoder)
mesh generation with transformers
像文字接龙的语言模型一样,自回归地训练transformer:
得到mesh:
训练时间
训练时间:
AutoEncoder用了2 A100, 2 days
transformer用了4 A100, 5 days
数据集:
ShapeNetV2, 所有55个categories来train GPT; 但在chair,table,bench和lamp这四个类别上finetune。
消融实验
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。