人気ポスト
LLMのpre-trainingは知識の学習でfine-tuningは学習済みの知識を活用できるようにするという違いがあり、fine-tuningで新しい知識を教えようとするとhallucinationが増える = LLM利用者としてRAGは必要ということ? arxiv.org/abs/2405.05904
メニューを開くLLMのpre-trainingは知識の学習でfine-tuningは学習済みの知識を活用できるようにするという違いがあり、fine-tuningで新しい知識を教えようとするとhallucinationが増える = LLM利用者としてRAGは必要ということ? arxiv.org/abs/2405.05904
メニューを開く