Artikel,

Knowledge-Augmented Reasoning Distillation for Small Language Models in Knowledge-Intensive Tasks.

, , , , und .
CoRR, (2023)

Metadaten

Tags

Nutzer

  • @dblp

Kommentare und Rezensionen