ポスト

LLMを作る意義(東工大 岡崎直観、ELYZA 曽根岡侑也、ストックマーク 近江崇宏) (生成AI Conf) ・Swallow - 英語主体もモデルに日本語を継続事前学習することにより、日本語の能力も向上 ->継続事前学習は、特定のドメインに強いLLMをつくるのにも役立つ

メニューを開く

村山 理@sam_murayama

みんなのコメント

メニューを開く

・A news, A strategy(ストックマーク) - AIを用いて業務に必要な情報を提供 ・最近のLLMの学習は5億円かかるが、どのような性能になるかは作ってみないとわからないが、事後学習に特化すれば1千万円でできる youtube.com/watch?v=21SiFZ…

村山 理@sam_murayama

人気ポスト

もっと見る
Yahoo!リアルタイム検索アプリ