- すべて
- 画像・動画
並べ替え:新着順
Evil Twins環境構築(セキュリティ診断用) 【構成】 正規端末:家のPC 正規AP:家のAP 不正AP:Kali上のhostapd 接続時警告:Nodogsplash ブラウジング警告:Apache2 正規APと全く同じパラメータで不正APを動かすことで、正規PCが誤って不正APに接続され、警告ページが表示されることを確認 pic.twitter.com/Oys2HdivLI
そこで取り合えずアイコンを追加できるようにしてみました。このアイコンはAOSPのApache 2.0 ライセンスなので利用させて頂いておりますが、そのままでは視認性が著しく悪いと。これは流石に何かしらの改善が必要ですね。 pic.twitter.com/OjQL0iiMDM
Starling-7b、ゴリゴリにChatGPT, Claude, Llama使ってるのにデータセットもモデルもApache2.0で公開してるの罠過ぎる。 starling.cs.berkeley.edu pic.twitter.com/JA6rjoKtpH
IBM granite code、 ・Apache 2.0 ・CodeGemmaよりCode生成/理解能力は高いっぽい ・日本語もいける なの素晴らしすぎでは。 あとはCode系以外のベンチ結果がreportされてないのは少し気になる。その辺りがどのくらい使い勝手に効いてくるのか🤔 pic.twitter.com/Te7rqDlN6R
IBM granite code、商用化のApache2.0ライセンスでcode gemmaよりも性能良いみたい。 あとは日本語ができるかどうかだけど、4.5T tokens学習してるみたいだしできて欲しい。 pic.twitter.com/D3Dtt4qXPS
GitHubはプロジェクトのライセンスファイルを原典通りLICENSE-2.0.txtにしておくとApache 2.0ライセンスだと認識してくれない。ファイル名をLICENSE.txtに変更したら認識を改めてくれた。 pic.twitter.com/UEr68ispH6
イーロンが予告通り,本当に自社の大規模言語モデル「Grok-1」を公開しました! github.com/xai-org/grok-1 パラメータ数はオープンモデルの中では破格(恐らく最大サイズ)の3140億で,GPT-4と(たぶん)同じMoE構造. しかもApache2.0ライセンスで正真正銘の「オープン」. これはやってくれましたイーロン pic.twitter.com/T5fGrJ4uks