- すべて
- 画像・動画
並べ替え:新着順
サイバーエージェントが、75億パラメータの日本語VLM(視覚言語モデル)を公開。商用利用可能なApache 2.0ライセンス。 / “独自の日本語LLM「CyberAgentLM2」に視覚を付与したVLM(大規模視覚言語モデル)を一般公開 ―商用利用可能な画像チャットモデルを提供―” htn.to/4arfYoGBWk
(あとは詳しい人向け) いろいろと改善点のあるPoCだし、ご自由にご改造ください。RGB空間と主観的な色空間は違うとか、手法を詰めてないとか、そもそもノートブックは使いにくいとか。 一応ノートブック自体はCCBY or Apache2.0ライセンスとしておきますが、コードの処理部分は権利放棄します。
返信先:@Holy_fox_LLMそのライセンスなのは72Bだけだとおもう 7Bとかはhuggingfaceで apache2.0ついてるし大丈夫かと huggingface.co/Qwen/Qwen2-7B-…
ローカル界隈でも、AIの人工合成データを新たなモデルの訓練に使用する、というループが回り始めつつあるので、 apache2.0,MIT系以外のライセンスモデルは、相対的に価値が下がってきた印象です。(開発目線)
わーお、Qwen2が来た!0.5B、1.5B、7B、57B-A14B、72Bの5種類!1.5から性能バキバキに上げてきた!全体的にLlama3超え!これまでのQwenと違って日本語に中国語混ざる問題も解決したらしい!さらに72Bは今までと同じライセンスだけど、他のモデルはApacheライセンスに変更!ありがたい!どうせなら72B…
Qwen2、72B以外はApache 2.0になったのか 合成データセット作成で使えるかも > While Qwen2-72B as well as its instruction-tuned models still uses the original Qianwen License, all other models, including Qwen2-0.5B, Qwen2-1.5B, Qwen2-7B, and Qwen2-57B-A14B, turn to adopt Apache 2.0!
なんだろう、これもひとつ脳の縮図と言えそうな。 Nomic-Embed-Vision ・CC-BY-NC-4.0 ライセンス ・今後モデルをリリースする際、カタログ内の比較的新しいモデルには Apache-2.0 ライセンスを適用する予定 ・モデルはhuggingfaceからダウンロード可 nomic.ai… pic.twitter.com/WJ3oNdrKgW
Today, every Nomic-Embed-Text embedding becomes multimodal. Introducing Nomic-Embed-Vision: - a high quality, unified embedding space for image, text, and multimodal tasks - outperforms both OpenAI CLIP and text-embedding-3-small - open weights and code to enable indie…
むむ、今までのApache 2.0ライセンス+調査権が良いのでは??🧐 ソースコード全開のSSPLになったらヤバそう… 僕よくわからないので、gpt4oに聞いた… 諸先輩方はスルーで… ⚠️Apache…
Dify is a leading platform in the LLMOps space, and we know many users love our product. However, we've recently encountered several cases of infringement (even though we've been very lenient) and have issued legal notices to the developers involved. We need to find a balance…
むむ、今までのApache 2.0ライセンス+調査権が良いのでは??🧐 ソースコード全開のSSPLになったら、どうなんだ。ヤバいんかな??勉強不足で分からん📚 僕よくわからないので、gpt4oに聞いた… 諸先輩方はスルーで… ⚠️Apache…
Dify is a leading platform in the LLMOps space, and we know many users love our product. However, we've recently encountered several cases of infringement (even though we've been very lenient) and have issued legal notices to the developers involved. We need to find a balance…
Apache 2.0ライセンスだった。あとで自分用にnpmに上げとくか。 READMEにnpm関連の記述があったり、package.jsonにGitHubのリンク(今はリンク切れしてる)があったりするから、以前は普通に公開されてたっぽい。
周知となったこれらの #Google の文書は、Apache 2.0ライセンスのもとに出ている。API文書には2,596 モジュールと14,014 の属性(features)が示されてる。話のポイントは後半だけど…。 Google accidentally published internal Search documentation to GitHub arstechnica.com/gadgets/2024/0…
Google Search algorithm leaked today. It outlines 2,596 modules with 14,014 ranking features related to various Google services. Here's what (13 things) we found:
Style2PaintsやControlNetを手掛けたイリヤスフィールさんが、プロンプトと方向を指示して画像のライティングを操作する「IC-Light」の実装( github.com/lllyasviel/IC-… )をApache License 2.0で公開されていて印象に。
ライセンスApache2.0じゃん
リアルタイムマルチモーダル対話システムツールキットRemdisを公開しました🚀 github.com/remdis/remdis テキスト・音声・マルチモーダル情報のリアルタイム処理が可能なシステムをPythonで実装できます. NTT千葉さん,名工大李先生@LeeAkinobu,名大東中先生 @RHigashinaka,私の4人で開発しました!
K2-65B •650億パラメータLLM •1.4T学習 •言語: 英語 •性能はLlama-2-70B以上 •ライセンス: Apache 2.0
Please welcome K2-65B🏔️, the most performant fully-open LLM released to date. As a blueprint for open-source AGI, we release all model checkpoints, code, logs, and data. About K2: 🧠65 billion parameters 🪟Fully transparent & reproducible 🔓Apache 2.0 📈Outperforms Llama 2 70B
> the internal version of documentation for the deprecated Document AI Warehouse was accidentally published publicly to a code repository for the client library. > but because all the code in that repository was published under the Apache 2.0 license, かわいそう
Grok-1オープンソースで公開されてる! あとで時間作ってソース読んでみよう🤔 ・xAI社が開発 ・マルチモーダルの生成AI ・MathvistaとRealWorldQAが得意 ・Apache2.0ライセンス itmedia.co.jp/news/spv/2403/…
商用可能なApache License 2.0を設定していたとしても、OSSのリポジトリ内にあるソースコード以外のコンテンツ (画像とか) を勝手に使ってはいけない… はず。ただApache Licenseの文章だけ見るとソースコード以外には適用されないってわかりづらいし間違える人がいてもしょうがない気もするんよな。
ープンソースのドライバーと比較して、スイッチオーバーとフェイルオーバーにかかる時間が数十秒から 1 桁秒に短縮されます。AWS Advanced Python Wrapper ドライバーは、Apache 2.0 ライセンスの下でオープンソースプロジェ...(6/7)
Mistral 7Bの Instructと Baseの Version 0.3 が深夜にリリースされてました。今回はTorrentではなくHuggingFaceでの公開です ・語彙が更に増えた ・関数呼び出しをサポート ・Apache 2.0 license との事ですが、性能情報は特に公開されておらず、公式にもまだ情報あまりないですね
Made a free Colab for Mistral v3! You can QLoRA finetune 2x faster, use 70% less VRAM with no accuracy degradations with @UnslothAI! You can export to vLLM, GGUF, HF inference is 2x faster & we support 4x longer context windows than FA2 (24GB= 56K vs 14K) colab.research.google.com/drive/15F1xyn8…
そこで取り合えずアイコンを追加できるようにしてみました。このアイコンはAOSPのApache 2.0 ライセンスなので利用させて頂いておりますが、そのままでは視認性が著しく悪いと。これは流石に何かしらの改善が必要ですね。 pic.twitter.com/OjQL0iiMDM
Apache License 2.0 だから商用可能 comfyにはよ
This week, grounding DINO 1.5 was released It is a new model that uses text prompts to detect objects from videos and images in real-time Examples & demo to try below:
返信先:@Aratako_LMありがとうございます!私もライセンス読んでみました。確かに使えそうですね。 懸念としては、(e) "Model Derivatives"に当たりそうというところでしょうか。以降のモデルはGemma License、Gemma Prohibited Use Policyに縛られそうなので、Apache2.0やMITよりも若干使いづらいなと思いました。
日本語 x pythonの合成データセットを作成しました。 Mixtral 8x22Bによって作成したのでライセンスはApache2.0です。 コード生成だけではなく、修正、説明など幅広いタスクを含みます。 今後追加していき、10k recordsほどを目指す予定です。 huggingface.co/datasets/Hachi…
前期のチームでの取り組みがやっと公開になりました...! GPT-4oをはじめとして強いVLMは沢山出ていますが、軽量に画像・テキストをベクトル化できる日本語CLIPは実サービスにおいても色んな場面で使えると思います しかもApache 2.0ライセンス!
LINEヤフー Tech Blogにて「高性能な日本語マルチモーダル基盤モデル「clip-japanese-base」を公開しました」を公開しました。 我々が開発した日本語マルチモーダル基盤モデル「clip-japanese-base」について紹介します。どなたでも使えますので、ぜひ試してみてください。 techblog.lycorp.co.jp/ja/20240514b
人気ポスト
知り合いだと、思うけど 声かけた方が良いかな?
なんで😷を外す様に指導しないの? 看護師も外さないと😩 もう阿呆ばっかり😞
横浜の"アレ"、ここエレベーターじゃないことに驚きを隠せない
泣きながら「ミセスが本当に好きで」って言ってた女の子よ。あなたのおかげで大森さんの最高の笑顔が見れたよ。ありがとう。 #jamsより愛を込めて
【東京ディズニーランド】 本日より手荷物検査を超えた先のエントランスに自動販売機が設置されました。2箇所あるのでご紹介します!御手洗もご一緒に載せておきます。 キリン、コカコーラ共に同じ場所に2台ならんでいます。(画像では1つのマークに2台あります) #TDR__now
今までが細すぎたメンバーの卒業してふっくらした二の腕が個人的に好き 白西飛ですらこれだからアイドル時代の節制と運動量のエグさが感じられる
←スタッフさんの想定 現実→
本日ご予約の刺身盛り合わせ、ありがとうございます🤗
これは大森元貴さん、話し声と目からして完全に涙してるかと。 感極まるよね……本当に、ありがとう。 #ミセス #青と夏 #Mステ
ほんまそれな。
電車遅延
読み込みに失敗しました
再読み込み