- すべて
- 画像・動画
並べ替え:新着順
"サイバーエージェントは6月13日、日本語LLMに画像認識機能を追加した大規模視覚言語モデル(VLM)「llava-calm2-siglip(huggingface.co/cyberagent/lla… )」を公開。Apache-2.0ライセンスが適用され、商用利用やチューンナップに対応。研究用途であれば高性能版のデモも使用可能。" news.yahoo.co.jp/articles/5de1c…
サイバーエージェントが、75億パラメータの日本語VLM(視覚言語モデル)を公開。商用利用可能なApache 2.0ライセンス。 / “独自の日本語LLM「CyberAgentLM2」に視覚を付与したVLM(大規模視覚言語モデル)を一般公開 ―商用利用可能な画像チャットモデルを提供―” htn.to/4arfYoGBWk
(あとは詳しい人向け) いろいろと改善点のあるPoCだし、ご自由にご改造ください。RGB空間と主観的な色空間は違うとか、手法を詰めてないとか、そもそもノートブックは使いにくいとか。 一応ノートブック自体はCCBY or Apache2.0ライセンスとしておきますが、コードの処理部分は権利放棄します。
返信先:@Holy_fox_LLMそのライセンスなのは72Bだけだとおもう 7Bとかはhuggingfaceで apache2.0ついてるし大丈夫かと huggingface.co/Qwen/Qwen2-7B-…
Qwen2、72B以外はApache 2.0になったのか 合成データセット作成で使えるかも > While Qwen2-72B as well as its instruction-tuned models still uses the original Qianwen License, all other models, including Qwen2-0.5B, Qwen2-1.5B, Qwen2-7B, and Qwen2-57B-A14B, turn to adopt Apache 2.0!
なんだろう、これもひとつ脳の縮図と言えそうな。 Nomic-Embed-Vision ・CC-BY-NC-4.0 ライセンス ・今後モデルをリリースする際、カタログ内の比較的新しいモデルには Apache-2.0 ライセンスを適用する予定 ・モデルはhuggingfaceからダウンロード可 nomic.ai… pic.twitter.com/WJ3oNdrKgW
Today, every Nomic-Embed-Text embedding becomes multimodal. Introducing Nomic-Embed-Vision: - a high quality, unified embedding space for image, text, and multimodal tasks - outperforms both OpenAI CLIP and text-embedding-3-small - open weights and code to enable indie…
むむ、今までのApache 2.0ライセンス+調査権が良いのでは??🧐 ソースコード全開のSSPLになったらヤバそう… 僕よくわからないので、gpt4oに聞いた… 諸先輩方はスルーで… ⚠️Apache…
Dify is a leading platform in the LLMOps space, and we know many users love our product. However, we've recently encountered several cases of infringement (even though we've been very lenient) and have issued legal notices to the developers involved. We need to find a balance…
むむ、今までのApache 2.0ライセンス+調査権が良いのでは??🧐 ソースコード全開のSSPLになったら、どうなんだ。ヤバいんかな??勉強不足で分からん📚 僕よくわからないので、gpt4oに聞いた… 諸先輩方はスルーで… ⚠️Apache…
Dify is a leading platform in the LLMOps space, and we know many users love our product. However, we've recently encountered several cases of infringement (even though we've been very lenient) and have issued legal notices to the developers involved. We need to find a balance…
Apache 2.0ライセンスだった。あとで自分用にnpmに上げとくか。 READMEにnpm関連の記述があったり、package.jsonにGitHubのリンク(今はリンク切れしてる)があったりするから、以前は普通に公開されてたっぽい。
周知となったこれらの #Google の文書は、Apache 2.0ライセンスのもとに出ている。API文書には2,596 モジュールと14,014 の属性(features)が示されてる。話のポイントは後半だけど…。 Google accidentally published internal Search documentation to GitHub arstechnica.com/gadgets/2024/0…
Google Search algorithm leaked today. It outlines 2,596 modules with 14,014 ranking features related to various Google services. Here's what (13 things) we found:
Style2PaintsやControlNetを手掛けたイリヤスフィールさんが、プロンプトと方向を指示して画像のライティングを操作する「IC-Light」の実装( github.com/lllyasviel/IC-… )をApache License 2.0で公開されていて印象に。
K2-65B •650億パラメータLLM •1.4T学習 •言語: 英語 •性能はLlama-2-70B以上 •ライセンス: Apache 2.0
Please welcome K2-65B🏔️, the most performant fully-open LLM released to date. As a blueprint for open-source AGI, we release all model checkpoints, code, logs, and data. About K2: 🧠65 billion parameters 🪟Fully transparent & reproducible 🔓Apache 2.0 📈Outperforms Llama 2 70B
> the internal version of documentation for the deprecated Document AI Warehouse was accidentally published publicly to a code repository for the client library. > but because all the code in that repository was published under the Apache 2.0 license, かわいそう
Grok-1オープンソースで公開されてる! あとで時間作ってソース読んでみよう🤔 ・xAI社が開発 ・マルチモーダルの生成AI ・MathvistaとRealWorldQAが得意 ・Apache2.0ライセンス itmedia.co.jp/news/spv/2403/…
商用可能なApache License 2.0を設定していたとしても、OSSのリポジトリ内にあるソースコード以外のコンテンツ (画像とか) を勝手に使ってはいけない… はず。ただApache Licenseの文章だけ見るとソースコード以外には適用されないってわかりづらいし間違える人がいてもしょうがない気もするんよな。
ープンソースのドライバーと比較して、スイッチオーバーとフェイルオーバーにかかる時間が数十秒から 1 桁秒に短縮されます。AWS Advanced Python Wrapper ドライバーは、Apache 2.0 ライセンスの下でオープンソースプロジェ...(6/7)
Mistral 7Bの Instructと Baseの Version 0.3 が深夜にリリースされてました。今回はTorrentではなくHuggingFaceでの公開です ・語彙が更に増えた ・関数呼び出しをサポート ・Apache 2.0 license との事ですが、性能情報は特に公開されておらず、公式にもまだ情報あまりないですね
Made a free Colab for Mistral v3! You can QLoRA finetune 2x faster, use 70% less VRAM with no accuracy degradations with @UnslothAI! You can export to vLLM, GGUF, HF inference is 2x faster & we support 4x longer context windows than FA2 (24GB= 56K vs 14K) colab.research.google.com/drive/15F1xyn8…
そこで取り合えずアイコンを追加できるようにしてみました。このアイコンはAOSPのApache 2.0 ライセンスなので利用させて頂いておりますが、そのままでは視認性が著しく悪いと。これは流石に何かしらの改善が必要ですね。 pic.twitter.com/OjQL0iiMDM
返信先:@Aratako_LMありがとうございます!私もライセンス読んでみました。確かに使えそうですね。 懸念としては、(e) "Model Derivatives"に当たりそうというところでしょうか。以降のモデルはGemma License、Gemma Prohibited Use Policyに縛られそうなので、Apache2.0やMITよりも若干使いづらいなと思いました。
日本語 x pythonの合成データセットを作成しました。 Mixtral 8x22Bによって作成したのでライセンスはApache2.0です。 コード生成だけではなく、修正、説明など幅広いタスクを含みます。 今後追加していき、10k recordsほどを目指す予定です。 huggingface.co/datasets/Hachi…
前期のチームでの取り組みがやっと公開になりました...! GPT-4oをはじめとして強いVLMは沢山出ていますが、軽量に画像・テキストをベクトル化できる日本語CLIPは実サービスにおいても色んな場面で使えると思います しかもApache 2.0ライセンス!
LINEヤフー Tech Blogにて「高性能な日本語マルチモーダル基盤モデル「clip-japanese-base」を公開しました」を公開しました。 我々が開発した日本語マルチモーダル基盤モデル「clip-japanese-base」について紹介します。どなたでも使えますので、ぜひ試してみてください。 techblog.lycorp.co.jp/ja/20240514b