ポスト

ShiftAddLLM: Accelerating Pretrained LLMs via Post-Training Multiplication-Less Reparameterization 80% memory and energy reductions over the original LLMs https://t.co/ktCdUyDnkd https://t.co/4u9iXnaSiP

メニューを開く

Aran Komatsuzaki@arankomatsuzaki

人気ポスト

もっと見る
Yahoo!リアルタイム検索アプリ