而预训练则是一种强大的方法,它可以利用大量无标签数据来学习时间序列数据的内在表示。预训练的 LLM 已展示出跨任务和跨领域的泛化能力。最终,最佳方法的选择取决于具体的数据集和任务要求。对于大规模、异构时序数据,预训练可能是首选;对于较小、同质数据,离散化或文本对齐可能更合适。
而预训练则是一种强大的方法,它可以利用大量无标签数据来学习时间序列数据的内在表示。预训练的 LLM 已展示出跨任务和跨领域的泛化能力。最终,最佳方法的选择取决于具体的数据集和任务要求。对于大规模、异构时序数据,预训练可能是首选;对于较小、同质数据,离散化或文本对齐可能更合适。