1
名無しさん@ピンキー 転載ダメ
2026/02/14(土) 16:50:24.13 ID:ax4AchcId
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
なんでも実況U (5ch)
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
オナテク (BBSPINK)
なんJLLM部 避難所 ★9
オナテク (BBSPINK)
なんJLLM部 避難所 ★10
オナテク (BBSPINK) VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
161
名無しさん@ピンキー
2026/02/26(木) 20:13:49.82 ID:EpuSk6aP0
赤ちゃんですまんが
koboldcppでモデル入れて起動したら、起動時だけディスク使用率が90%くらいになるんだけど
これって普通なんか?
生成してる時はVRAMとメモリの使用率だけ高くなる
162
名無しさん@ピンキー
2026/02/26(木) 20:19:23.13 ID:Cg9jjw1q0
最近、チャッピーのワザップが酷くなってるように思う
163
名無しさん@ピンキー
2026/02/26(木) 20:42:23.08 ID:FtvFDDCD0
>>161
そりゃ数十GBのモデルを一気に読み込むから普通よ
164
名無しさん@ピンキー
2026/02/26(木) 20:43:12.25 ID:EpuSk6aP0
>>163そうなんかありがとう
165
159
2026/02/26(木) 22:12:14.59 ID:TC6bQOj10
>>160
アドバイスありがとう
やってみたけど、何かNSFWになりそうな知識がまるっと抜け落ちているような挙動をするなぁ
オリジナルのQwen3.5でしたほうが普通にエロい文章が出てくる
166
名無しさん@ピンキー
2026/02/26(木) 22:26:53.72 ID:gnWb+3bL0
>>165
もしかして
Sabomako/Qwen3.5-397B-A17B-heretic-GGUF
こっち?
これは量子化低いから
novokot/Qwen3.5-397B-A17B_heretic
これの方がいいかも
ワイはめんどいから量子化待ってるとこw
167
名無しさん@ピンキー
2026/02/26(木) 23:54:14.50 ID:NxOeFtIH0
LM Studio(最新バージョン)でQwen3.5のモデルがロードできずエラーになってしまう
同じ症状の人います?
168
名無しさん@ピンキー
2026/02/26(木) 23:58:19.07 ID:ioo8dip5d
>>167
qwen35moe未対応やないか?
169
名無しさん@ピンキー
2026/02/27(金) 00:05:06.52 ID:pSypFOYv0
thinkさせたくないならチャットテンプレートに{"enable_thinking": False}って設定すればいいよ
170
名無しさん@ピンキー
2026/02/27(金) 01:04:11.38 ID:/tIFvXj20
>>167
koboldも一部の3.5モデルでエラーになる
cudaでエラーになってたからcpuモードで動かした
171
名無しさん@ピンキー
2026/02/27(金) 02:09:16.92 ID:+Y4i0Qn2a
>>170
同じ症状やったけどHotfix 1.108.2 でcudaのエラー直ってたで。ちな3.5-397B
172
名無しさん@ピンキー
2026/02/27(金) 11:59:10.26 ID:o2v/rmxh0
>>167
ワイwinget民
LM Studioアプリでは受け取れない更新をwingetで受け取り無事解決
173
名無しさん@ピンキー
2026/02/27(金) 19:48:24.83 ID:egSyKS1a0
Qwen3-Coder-480B-A35B-Instruct-FP8 に対して「あなたは誰ですか?」と聞いたら
「こんにちは!?? 私はClaudeです。Anthropicが開発したAIアシスタントです。お役に立てて嬉しいです!」
他のAIを名乗るなんてどういうことなんやろか、蒸留されてるってこと?
174
名無しさん@ピンキー
2026/02/27(金) 20:46:40.05 ID:ER8CutXh0
うん。提訴するらしい
175
名無しさん@ピンキー
2026/02/27(金) 21:57:25.73 ID:4iprhUQB0
俺は学習しても良いけどお前らは学習禁止。
この心構えが日本のAI開発には足りない。
176
名無しさん@ピンキー
2026/02/27(金) 22:27:26.43 ID:65HXt+Yr0
国が日本で出版されたすべての著作物をデータセットとしてまとめてくれないかな
まともな国産LLMがないからせめて海外のLLMの日本語性能を上げるがのが一番日本の国益にかなうやろ
今でも英語/中国語で指示するのが一番性能出るとか言われてるし話者数で10倍以上の差があるのに国が危機感もってないのがやばい
177
名無しさん@ピンキー
2026/02/27(金) 23:30:10.46 ID:4iprhUQB0
日本でデータセット作っても海外の倫理基準で学習されたらエロ的には旨味が少ない気がする
178
名無しさん@ピンキー
2026/02/27(金) 23:47:15.63 ID:fngNypzb0
swallowみたいにOSSベースが現実的な路線なのかね
179
名無しさん@ピンキー
2026/02/28(土) 00:07:58.96 ID:U8TviNvMd
日本でまだ国や自治体に何か期待している人がいるってのは面白いな
180
名無しさん@ピンキー
2026/02/28(土) 00:37:26.23 ID:pw02WBDGd
最近のQwenの事前学習には大量の合成データ(AIで生成したデータ)が含まれてるらしいから、他のLLMでの会話データも入ってるんだろうな
181
名無しさん@ピンキー
2026/02/28(土) 01:50:54.53 ID:HkCgn+tB0
Qwen3.5-35B-A3B-heretic
182
名無しさん@ピンキー
2026/02/28(土) 05:00:42.52 ID:kmRG19Lz0
openaiがoppaiに見える症状がでてきた
183
名無しさん@ピンキー
2026/02/28(土) 14:26:26.01 ID:dWyyklKK0
Qwen3.5-27B-hereticとQwen3.5-35B-A3B-heretic比較中
俺スペックではこの辺が限界
184
名無しさん@ピンキー
2026/02/28(土) 14:56:31.37 ID:l9LF6yOaC
novokot/Qwen3.5-397B-A17B_heretic
ニコボスニキがやってくれると待ってるが
ストレージに空きできたからもう自前でやるか
UD-Q4K_XLが欲しいし
185
名無しさん@ピンキー
2026/02/28(土) 15:20:51.59 ID:2QlXsvNP0
中途半端な金でへなちょこllm作るくらいなら
ちゃんとしたデータセットを作って
openaiとanthropicとgoogleに売り込むくらいしろ
186
名無しさん@ピンキー
2026/02/28(土) 16:25:09.12 ID:ID3ipnHD0
redditでちょうど見たんだけど
UnslothのUDはQwen3.5のMoEだとバグってて精度低下してるみたい
同じぐらいの量子化なら普通の方が良い
あと同じ投稿にあったんだけど
llama.cppは--n-cpu-moeより--fit onオプション使った方が少し早くなるらしい
187
名無しさん@ピンキー
2026/02/28(土) 19:39:59.83 ID:2V9pIZ8Z0
>>185
なんのメリットがあるんや
アホにも程がある
188
名無しさん@ピンキー
2026/02/28(土) 20:08:10.03 ID:vaOc2UiD0
>>186
UDだけなら今日にバグ改善版アップロードされてなかったっけ
でもQwen3.5すごいなあ
体感だけど4oは確実に超えてるしこれがローカルで動かせる時代になったの夢があるは
189
名無しさん@ピンキー
2026/02/28(土) 21:18:05.28 ID:2QlXsvNP0
国内の研究者もどきがよわよわllm作りにムダ金使うくらいなら
海外の本気勢の訓練データに日本語セットを入れてもらえば日本語と日本文化をより良く扱えるモデルをユーザーは安価に入手できるから
メリットしか無い
190
名無しさん@ピンキー
2026/02/28(土) 22:01:18.33 ID:1sowuZVA0
>>186
ならmxfp4-moeにするかな
191
名無しさん@ピンキー
2026/03/01(日) 00:17:23.35 ID:paTzhVGB0
Qwen3.5(122B)、性能は凄いけど台詞が微妙だなぁ……
192
名無しさん@ピンキー
2026/03/01(日) 09:24:33.77 ID:j1wSz0JR0
jnva部でここを知って来た赤ちゃんですまんやけど、メインメモリ64GB VRAM 16GBでエロやりたいと思っとるんだがローカルじゃ無理かな?
導入するにしてもKoboldcppとLM Studioのどっちが良いのか?モデルも多いし、ここの人たちは普段どのモデルを使ってるん?これイチオシとかあったら教えてほしい
193
名無しさん@ピンキー
2026/03/01(日) 10:34:08.73 ID:CVUR3HT20
194
名無しさん@ピンキー
2026/03/01(日) 10:52:51.86 ID:j1wSz0JR0
>>193 助かるやで、ありがとう
195
名無しさん@ピンキー
2026/03/01(日) 12:49:40.84 ID:A1nUcMp+0
最近、情報量多すぎ
やって見たいこと多すぎて時間が足りないわ
196
名無しさん@ピンキー
2026/03/01(日) 13:53:51.02 ID:DDXdTxjb0
>>179
とにかく何もするなだな
AI学習は何をやっても合法にしてももう追いつけないとこまで来てるんじゃなかろうか
197
名無しさん@ピンキー
2026/03/01(日) 16:22:57.26 ID:G8Fgu/VFC
Qwen3.5-397B-A17B_mxfp4-moe.gguf試したが9t/sくらい出て十分実用的だわ
規制も脱獄させれば使えるレベルだが後書きでうだうだ言ってくるのがウザいなw
次はheretic版を試すわ
しかし量子化だけで2T空きが必要なのはしんどいなダウンロードや後のハッシュチェックでもとにかく時間かかりすぎる
198
名無しさん@ピンキー
2026/03/01(日) 22:22:50.33 ID:/ShlmBq+0
199
名無しさん@ピンキー
2026/03/01(日) 22:31:11.34 ID:un6BXMjz0
>>198
あれはただkoboldにリクエストを飛ばしてるだけだから好きなモデルを別で起動して生成ボタン押すだけで動くよ
200
名無しさん@ピンキー
2026/03/02(月) 11:39:41.37 ID:qNLSUHR1r
もうcopilotあたりに聞いたら何でも教えてくれるし
201
名無しさん@ピンキー
2026/03/02(月) 18:55:49.05 ID:WsO3QLCj0
3. Base Tier Model Availability Changes
Several high-end frontier models will be removed from the Base subscription tier, including:
GLM-5
Kimi K2.5
Qwen 3.5
MiniMax M2.5
These models are exceptionally resource-intensive and require continuous infrastructure scaling and optimization. Under the current structure, they are frequently overloaded, resulting in slower performance and reliability issues.
さらばChutes
202
名無しさん@ピンキー
2026/03/02(月) 21:02:40.21 ID:+C8XpVwA0
rakuten700Bも発表から公開が開きすぎて何も期待できん
203
名無しさん@ピンキー
2026/03/02(月) 21:42:02.26 ID:Quw20Gcq0
novokot/Qwen3.5-397B-A17B_heretic
これ、量子化して試したけど、日本語がおかしくなるな
で、hereticのサポート見ると、qwen3.5に完全対応してなかったみたいやね
次のheretic版に期待
204
名無しさん@ピンキー
2026/03/02(月) 21:45:14.14 ID:4AdP1oOP0
qwen3.5の9B,4B,2B,0.8Bがリリースされてるね
205
名無しさん@ピンキー
2026/03/02(月) 21:55:53.55 ID:joJur5Kh0
206
名無しさん@ピンキー
2026/03/02(月) 23:34:44.00 ID:HzZ5sEYR0
>>201
モデルが大きくなりすぎて耐えられなくなったか
207
名無しさん@ピンキー
2026/03/02(月) 23:53:07.05 ID:2WCT4PLE0
モデル大きいし質が高いからアクセス集中したんだろうな
オープンで質のいいモデルが公開されてるってとても大事よね
それが無くなった途端に大手が数倍に値段上げてこれまでの投資を回収してきそう
208
名無しさん@ピンキー
2026/03/03(火) 00:41:29.14 ID:x0F+ZpUu0
9bスゲーな
このサイズで信じられんくらいしっかりしとる
209
名無しさん@ピンキー
2026/03/03(火) 02:00:18.12 ID:w/coGYlXd
>>201
これまでの3ドルが安かったから仕方ないな
いま入ってるタスクを片付けるためにPlusにしたが
もう公式と大差ないから他に良い所があれば移るわ
210
名無しさん@ピンキー
2026/03/03(火) 02:22:04.45 ID:SJNVmdxE0
LLMの自由を守ってるのが中国勢だと言うのが凄く皮肉を混じる
逆に米国はクローズなモデルな上に政府が半導体規制して実質的な独占と囲い込み狙ってるし
そう言えばLlamaって息してるんか?
211
名無しさん@ピンキー
2026/03/03(火) 03:05:45.19 ID:eSSQwtAR0
qwen3のデンス結構オールラウンドに使ってたから嬉しい
212
名無しさん@ピンキー
2026/03/03(火) 03:36:54.74 ID:5R4BLgrW0
METAのAIは崩壊した
213
名無しさん@ピンキー
2026/03/03(火) 05:50:13.62 ID:QaiZt6yB0
llama4もバグ取った奴はそこそこ良かったんだっけ?
まぁ過去の話だな
214
名無しさん@ピンキー
2026/03/03(火) 09:17:29.32 ID:BaSX31fza
中国の技術パクって性能上げたくせに蒸留だの誹謗しまくる西側の恥知らずども
215
名無しさん@ピンキー
2026/03/03(火) 10:28:13.51 ID:Ivs894S60
最近はgoogleとかopenAIより中華企業の方がまともに論文出してるから中華企業の方が人類に貢献してる
216
名無しさん@ピンキー
2026/03/03(火) 11:10:15.15 ID:5b3dANpF0
このスレ支那人多そう
217
名無しさん@ピンキー
2026/03/03(火) 12:30:40.27 ID:3gF07/jBM
そんなこと無いあるよ
218
名無しさん@ピンキー
2026/03/03(火) 12:54:00.92 ID:kHG3odpL0
そのような事がありませんよ,このスレッドの全?は皆日本人です。??中国人は存在しません。?放心〜!
219
名無しさん@ピンキー
2026/03/03(火) 13:05:41.83 ID:CU6yxOAe0
>>196
日本政府は無能な働き者だからな。動かないのが一番
220
名無しさん@ピンキー
2026/03/03(火) 13:24:48.46 ID:RYmdbEb10
>>216
都合が悪くなるとすぐ国籍透視するね
221
名無しさん@ピンキー
2026/03/03(火) 14:11:16.08 ID:Ivs894S60
mistral信者なんでフランス人ってことで良い?
というかそろそろmixtral出してくれないかな
222
名無しさん@ピンキー
2026/03/03(火) 14:17:29.72 ID:Lwhze0J2r
実際ミストラル厨はフランス人よ
xで騒いでるのを昨日も見た
223
名無しさん@ピンキー
2026/03/03(火) 14:33:46.07 ID:adUONn3T0
しかしmistralはどうなっちまうんだろうな
euの規制で新規トレーニングモデルは学習データの開示が必要になったから質のいい海賊版データは使えないし
このままじゃ俺もフランス人から中国人になっちまう
224
名無しさん@ピンキー
2026/03/03(火) 15:54:39.53 ID:qud/esWe0
>>203
量子化試したんか
すごいな
大きいモデルなんで結構時間かかったんちゃうかな?
225
名無しさん@ピンキー
2026/03/03(火) 16:45:05.07 ID:Ivs894S60
どんだけモデルの知性が上がっても表現力は変わってないか悪化してる気がするんだよな
合成データが悪さしてるのかひどく淡泊な感じ
自前のエロ小説ベンチマークだと未だにmistral smallがずば抜けてる
226
名無しさん@ピンキー
2026/03/03(火) 17:52:51.94 ID:5b3dANpF0
日本語のデータが少ねえんだからそうなるだろバカかよ
だからコーパス作れって言ってんの
227
名無しさん@ピンキー
2026/03/03(火) 17:53:11.13 ID:qud/esWe0
>>225
プロンプトが優秀なんかな?
淡白なものが多いというのはそうだけど、GLMは別格だと思うな
4.6になってから結構表現力上がったと思う
228
名無しさん@ピンキー
2026/03/03(火) 21:58:41.08 ID:MP0a1lWh0
229
名無しさん@ピンキー
2026/03/03(火) 22:06:28.89 ID:MP0a1lWh0
と思ったらリロードで入れた
けどデバイスがオフライン扱いで使えねぇ
230
名無しさん@ピンキー
2026/03/04(水) 03:49:42.92 ID:o3cbL/fV0
mixtral定期的に出して欲しかったな
せっかくmoeの先陣切る感じで出たのに
231
名無しさん@ピンキー
2026/03/04(水) 12:51:14.39 ID:Z2GL5SKa0
1200W電源で貧血気味だったので、750Wの補助電源を付けた。HDDとかライザの電源はそっちから取る
232
名無しさん@ピンキー
2026/03/04(水) 20:37:55.18 ID:bk/LphRar
qwenクローズ化するのか?
他のやつも続かないといいけどねぇ
233
名無しさん@ピンキー
2026/03/04(水) 21:01:12.40 ID:mI3zYR6U0
今回の騒動を海外の誰かの邪推をそのまま受け取ってクローズなるみたいな騒動になってる感あるよなあ
234
名無しさん@ピンキー
2026/03/04(水) 21:12:18.15 ID:og0i2RK7d
Maxがクローズで出た時点で兆候はあった
235
名無しさん@ピンキー
2026/03/04(水) 21:38:35.58 ID:mI3zYR6U0
アレは中国人の話みてるとほんと内部のごたごたで出だけぽいけどな
236
名無しさん@ピンキー
2026/03/05(木) 15:02:52.68 ID:dZiAwzJv0
しゃあない
そもそも公開する意味が人類全体の文明発展以外の意味ないしな
237
名無しさん@ピンキー
2026/03/05(木) 17:13:21.33 ID:6SsT21kO0
これからもオープンでやるよって方針だしてるけどな
何故か伝言ゲームでこれからクローズなるって騒ぎになってるけど日本語圏じゃ
238
名無しさん@ピンキー
2026/03/05(木) 17:30:31.10 ID:TS5/7ZY90
いや中華LLMが公開されるのは競合するLLMの足を引っ張るためだろ。
競争に参加してない国の国民としては良いぞもっとやれって話だが。
239
名無しさん@ピンキー
2026/03/05(木) 17:48:28.98 ID:oQd8xBTaH
クローズドじゃなくてQwenの主要開発者が退職したんでしょ?
同じく主要開発者が退職したStability AIみたいにオワコン化が濃厚になった
240
名無しさん@ピンキー
2026/03/05(木) 17:49:18.21 ID:VvHaY8SQ0
生成AIは極端に言えば最高性能のサービス以外使う意味ないから
性能が劣る勢力からすればオーブン化するのが投資家の注目集める効率の良い手段ってだけだと思うぞ
ここから中華勢がトップとれば間違いなくクローズ化するしその時はアメリカ勢がオーブンモデルを出すようになると思う
241
名無しさん@ピンキー
2026/03/05(木) 17:50:07.94 ID:VvHaY8SQ0
>>240
〇オープン
×オーブン
242
名無しさん@ピンキー
2026/03/05(木) 19:20:20.37 ID:EUTGXD47M
nvidia vs amdと同じよねぇ
amdは全然トップ取れなくてずっとオープン路線から変えられてへんけど
負けてる方がクローズなんてそれこそほんまに誰も使わへんしね
あとAIのモデルに関しちゃデータを持ってるアメリカ企業がやっぱりトップでゆるぎないと思うんよな
アメリカ企業はgithubだのxだのgoogleだの、もっと他にたくさんデータ持ってる企業あるやろうけど
それらのデータをおそらくお互いに合法的に取引してLLM作ってると思うわ
中国はアクセスできるデータ少ないから蒸留とかで頑張っとるけど結局今の方法じゃアメリカ企業を超えることはできへん
多分追いつくの難しいかもって思い始めたところでじゃあオープンやめるかって舵を切り始めたんやないかなぁ
243
名無しさん@ピンキー
2026/03/05(木) 19:28:42.12 ID:EwqTQScq0
言うて中華モデルでもSOTAに食らいついてるGLMなんかオープンモデルやめる気ないしQwenが落ち目ってだけでは
244
名無しさん@ピンキー
2026/03/05(木) 20:08:06.56 ID:6SsT21kO0
モデルオープンにする理由ってGPU持ってる人ばかりやないからクラウドが儲かるのと
サービスを使うことに向いてない社内の個人情報や機密を扱わせるためのクローズな社内AI構築のサービスとかもできるしな
モデルをオープン化してないとモデルの流出リスク考えてあんまりできんのよこういうのって
流出しても該当企業が金出してFTや環境構築したモノが流出するだけで大元へのダメージは無いし
245
名無しさん@ピンキー
2026/03/05(木) 21:57:58.71 ID:4OrKgv0k0
中国が中国のHW、具体的にはHuaweiのAscendで推論を全面的にまかなえるようになるとクローズドに切り替える余地が生まれる気がする
246
名無しさん@ピンキー
2026/03/06(金) 00:39:46.57 ID:tWTyDAUY0
novokot/Qwen3.5-397B-A17B_heretic
なんか消えてるな
やっぱおかしかったのかな?
trohrbaugh/Qwen3.5-397B-A17B-heretic
hereticの次バージョンも期待だが、繋ぎにこっち試してみる
もう一つあったけど、こっちの方がDL多かったんでw
今、走らせたから朝には終わるかな?
247
名無しさん@ピンキー
2026/03/06(金) 09:57:56.15 ID:3by6hlsGr
>>240
アチチで草
248
名無しさん@ピンキー
2026/03/06(金) 11:38:18.50 ID:tWTyDAUY0
trohrbaugh/Qwen3.5-397B-A17B-heretic
試した
novokot版と違って、こっちは日本語も正常で規制もちゃんと外れていたが、強化プロンプトなしだと、ちょっと意識高い系の話に持っていこうとする傾向あるな。
ただ、問題があって、cudaで起動するとエラーになる。(cpuモードでは問題なし)
249
名無しさん@ピンキー
2026/03/06(金) 21:05:41.44 ID:q4U8w1CH0
てすとピンク
250
名無しさん@ピンキー
2026/03/07(土) 00:16:49.79 ID:ef1FgY+D0
hosts変更で書き込めるやろか
251
名無しさん@ピンキー
2026/03/07(土) 19:28:45.90 ID:F3JF02lY0
test
252
名無しさん@ピンキー
2026/03/07(土) 20:43:17.71 ID:9aIBkNMe0
万が一に備えて5ch以外の外部に避難所とか用意した方がいいかもね
まぁ、それほどスレ民がいるかどうか怪しそうだけど・・・
253
名無しさん@ピンキー
2026/03/07(土) 22:21:28.83 ID:ef1FgY+D0
エッヂは無理なんやろか
今見たら長期間スレ残らないんやろかねあそこ
254
名無しさん@ピンキー
2026/03/07(土) 22:36:34.00 ID:xcx5d2yo0
避難所の避難所を建ててくれたみたいやで
なんJLLM部 避難所の避難所★1
文章生成AIでエロ避難所 (したらば)
255
名無しさん@ピンキー
2026/03/09(月) 10:19:53.58 ID:mmGyFwBo0
やっと戻ってこれた
そろそろなんJに戻ってもよいのでは?(´・ω・`)
256
名無しさん@ピンキー
2026/03/13(金) 01:26:13.47 ID:b9z+f20u0
ここはどうなるの?
257
名無しさん@ピンキー
2026/03/13(金) 12:45:05.97 ID:kHV9pLOw0
サーバは生きとるからそのうち5ch.ioみたいに別ホスト名付けるんとちゃうかなぁ
258
名無しさん@ピンキー
2026/03/14(土) 00:39:19.28 ID:l0gEOvoT0
消えた?なんじぇーに行くべきタイミングだろ
259
名無しさん@ピンキー
2026/03/14(土) 01:11:02.06 ID:1Raw/lus0
jnvaのwikiに最低限のテンプレ書いたし明日人の多そうな時間に立てるで
今やったら落ちるやろうし
260
名無しさん@ピンキー
2026/03/14(土) 15:32:18.98 ID:1Raw/lus0
立てたでー
なんJLLM部 ★12
なんでも実況U (5ch)
261
名無しさん@EXぜろちゃんねる
2026/04/09(木) 20:28:15 ID:IjBCeHBo
テスト