ポスト
話がめっちゃループしてますが、要するに貴方の主張を(方式論ベースで)纏めると「LoRAを潰すために、既存AIモデル全体に、実効性は怪しい取締りの法改正をしろ」になるのですが。 それ、たぶん誰も受け入れませんよ。それこそ事業者からしたら無茶だし、現在のLoRA被害者への影響はあまり無いので。
メニューを開くみんなのコメント
メニューを開く![](https://rts-pctr.c.yimg.jp/BgIFgYJGVIVv8u0nVJvw8B2FauAYMF4jOP5zFJAV4i5e72TLbER0xQeK1l8ZZ0OLGnGdO5pTGjWlNs2zAr0v31Sz7K-IoM9Dcee0gz779-QeCbePYySGnlH9757r8ByhFPqlf-HtD73QQv8q5RagnDgR8XjkbwIfw8pCkRTc9s3jS17mPtKhQcdH2VkZqB79_vtBumuW6hDYJwUoRtrJCYyRZEA4AkWD5TlFN-Dy_d8=)
現実的に「特定のデータがAIモデルに学習されたか」なんて、後から検証できないんですよ。 その状態で(しかも国内だけ)規制しても、マトモに運用できません。そもそも誰に、どんな立証責任を負わせるつもりですか。 その辺の技術的な部分や、法務(特に実務)の知見、もしかしてお持ちではない?