ポスト
Cursorは高速修正モデルをデプロイしたよとのこと。 おそらくロジック変更としては今までLLMに全てのコードを出させるようにしていたのを変更箇所のみ説明するようにした。 ということか。 すぐ使ってみたい
メニューを開くCursor@cursor_ai
We've deployed a much faster apply model for files under 400 lines. It beats GPT4 and GPT4-o for short files on internal evals (but lags behind Opus). (top is newer model, bottom is old)