- すべて
- 画像・動画
並べ替え:新着順
ChatGptにDOM Based XSSの対策を指示したら、以下でHTMLエスケープしていて、 x = $('<div>').text(text).html() バニラJSで書いたら以下だなと思い p = document.createElement('p') p.textContent = text x = p.innerHTML ChatGptに簡略化を依頼したら以下を提示された。なるほどねぇ… x = new…
返信先:@15bijyu15調子に乗って質問します😆 文字列を出力すると2行になってしまうのですが、1行にするにはどこを直せば良いでしょうか? ↓ YUZURU HANYU は最高!と愛を叫ぶ text = "Yuzuru Hanyu" uppered_text = text = text.upper() string = input(text) print(string,"は最高!と愛を叫ぶ")
; 今日のひとこと (defun output-text (text filename) (with-open-file (stream filename :direction :output :if-exists :supersede) (princ text stream))) (output-text 'oh-my-lisp 'say.txt)
OpenSIMの方が進んでるという記事: 例えばvoice to text/text to voiceとか LSL等を使わず直接API経由でDBアクセスしたり。でも、ほぼ個人運用なので個人情報とか突然のサービス終了の懸念もあるとも書かれてて、それも怖いね!でもちゃんとした会社ですとURLを紹介して締めくくっている
Enjoy readers geeking out on the tech innovations of @LoneWolfgrid's OpenSim virtual world: "So much of the functions and apps are API driven from the database. This means that many functions (ie. cool stuffs) are not using LSL at a 'middle man.'" nwn.blogs.com/nwn/2024/05/wo…
"Model capabilities"に、従来のパイプライン処理(音声→text, text→text’, text’→音声’)でなく、GPT-4oは入出力を同じneural networkで処理してる、と。文字どおりなら、人間の脳と同じ(処理内容ごとに処理する場所がちがうとはいえ、同じ神経回路という意味で)。#GPT4o openai.com/index/hello-gp…
PythonでのReturn { "data":{"id":"msg_", "delta":{"content":[{"index":0,"type":"text","text":{"annotations":null,"value":"き"}}],"role":null},"object":"thread.message.delta"},"event":"thread.message.delta"}
NodeJSでのReturn { "event":"thread.message.delta", "data":{"id":"msg_","object":"thread.message.delta", "delta":{"content":[{"index":0,"type":"text","text":{"value":"こ","annotations":[]}}]}}}
END Invalid formula - Operator "IN" doesn't support DATE IN (TEXT, TEXT, TEXT, TEXT, TEXT, TEXT, TEXT). Operator "IN" supports ANY IN (ANY [,ANY]*) これどうしたらいいの
OpenAIくん、プロンプトでも彼らって文言使わないでーって言ってるのに、使うから def replace_text(text): # "彼ら" を "彼女たち" に置き換える updated_text = re.sub(r'彼ら', '彼女たち', text) return updated_text cleaned_text = replace_text(res) print(cleaned_text) ってした
from manim import * class IntroductionScene(Scene): def construct(self): # 導入と背景紹介のテキスト introduction_text = Text("プロンプトエンジニアリング、行動を変えるための\n" "ツールであることが理解できたでしょう。\n"…
from manim import * class IntroductionScene(Scene): def construct(self): # 導入と背景紹介のテキスト introduction_text = Text("大手企業や組織がプロンプトエンジニアリングを利用して、\n" "社員の健康促進や生産性向上を図っています。\n"…
from manim import * class IntroductionScene(Scene): def construct(self): # 導入と背景紹介のテキスト introduction_text = Text("プロンプトを効果的に設計するためには、\n" "目標行動を明確にし、適切なタイミングで提示することが重要です。\n"…
from manim import * class IntroductionScene(Scene): def construct(self): # 導入と背景紹介のテキスト introduction_text = Text("プロンプトエンジニアリングでは、\n" "環境や仕組みを変えることで望ましい行動を促します。\n"…
from manim import * class IntroductionScene(Scene): def construct(self): # 導入と背景紹介のテキスト introduction_text = Text("プロンプトエンジニアリングは、\n" "意思決定や問題解決を支援する手法です。\n" "この動画では、\n"…
パッドに手書きで数式を書いたら (ベクタ画像)、即座に TeX か typst みたいなやつに変換されて表示され、TeX か typst 的なほうで修正を入れたら生成モデル的な感じで、手書きのベクタ画像が変更される…なんてあれば便利そう。需要はなさそう。img2text & text2img なマルチモーダルな感じだろうか。
商用LLMを使うのと、ローカルLLMを使うのでは、設計がまるで変わるはず。 商用LLMはリクエストごとに、第三者の提供するリソースに金を出して使うものなので、湯水の如く使うわけにはいかない。 一方、ローカルLLMは本当に普通のAPI感覚で呼べる。 text=text.upper() の代わりに…