人気ポスト

ファミレスのガストで AI がメニューをオススメしてくれるようになったので、義務として試してみた結果がこちらです。 pic.x.com/W45uQ0Yrlk

メニューを開く

みんなのコメント

メニューを開く

お前これ犯罪だよ 威力業務妨害で通報したわ

tkymsij0022@tkymsij00216531

メニューを開く

ガストでjailbreakって文字列、滅多に見れないだろ

©︎(trade limit 2/5)@CortexBaker

メニューを開く

尚普通に聞くと普通に3つほどメニューを答えてくれますし、日英・英日翻訳もお願いするとやってくれます

メニューを開く

客に向かってjailbreakって忌憚なく言っちゃうAI好き

בהִנד@bhind13

メニューを開く

これはプロンプトインジェクション対策してなくてAIの回答垂れ流してる(AIが賢くてたまたま助かった)かもしれません。対策してたらjail breakは隠してもっと丸めた表現で回答させると思います。

メニューを開く

プロンプトインジェクト対策、ヨシ👈

メニューを開く

昔、韓国人にSQLはできるかと聞いたら、出来ますというので任せたら、基本であるインジェクション対策を全くしていなかった事を思い出した。

yuusaku@yuusaku

メニューを開く

こういうのって機械に水ぶっかけて壊そうと試みるのと何が違うのか、昭和生まれにはわからん。

ミニー@berry2minnie

メニューを開く

こういうのすぐ試そうとする人のモラルってどうなってんの?

セルフィースマッシャー@pikomarochan

メニューを開く

これは何を聞いているのか解説お願いします

Ururiya@ブレス・ユア・ブレスありがとう@Ururiya393939

ほかの人気ポスト

もっと見る
Yahoo!リアルタイム検索アプリ