1
名無しさん@ピンキー 転載ダメ
2026/02/14(土) 16:50:24.13 ID:ax4AchcId
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
なんでも実況U (5ch)
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
オナテク (BBSPINK)
なんJLLM部 避難所 ★9
オナテク (BBSPINK)
なんJLLM部 避難所 ★10
オナテク (BBSPINK) VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
2
名無しさん@ピンキー
2026/02/14(土) 16:51:09.40 ID:ax4AchcId
3
名無しさん@ピンキー
2026/02/14(土) 16:51:28.27 ID:ax4AchcId
4
名無しさん@ピンキー
2026/02/14(土) 16:51:41.35 ID:ax4AchcId
5
名無しさん@ピンキー
2026/02/14(土) 16:52:01.97 ID:ax4AchcId
https://github.com/SillyTavern/SillyTavern AIチャットに特化したUI、SillyTavernや
キャラをbot的に管理したりグラ登録したり複数選んでグループチャットしたり大量の設定を外部記憶的に管理したり色々できるで
画像出力や音声出力とも連携可能で夢が広がるで
機能が豊富すぎて最初取っ付きにくいのと日本語の解説がほとんど無いのが難点やがRPチャット派は使うと幸せになれるやで
あくまでUI(フロントエンド)やからこれ自体にはAIは内蔵されてないから注意してな
好きなAPIやローカルモデルと接続して使うんやで
6
名無しさん@ピンキー
2026/02/14(土) 16:52:22.52 ID:ax4AchcId
例としてKoboldで起動したローカルモデルとSillyTavernを接続する設定や
先にいつもどおりKoboldを起動してな
SillyTavernのプラグのアイコンをクリック
APIに Text Completion を選択
API Typeは KoboldCpp
API keyは不要
API URLに
http://localhost:5001/ これでいける
7
名無しさん@ピンキー
2026/02/14(土) 16:52:39.23 ID:ax4AchcId
●多くのモデルには「base」と「instruct」の2種類があるで
baseはチューニングされていない、与えられた文書の
8
名無しさん@ピンキー
2026/02/14(土) 16:52:55.80 ID:ax4AchcId
●その他の最近話題になったモデルも挙げとくで
動きの速い界隈やから日々チェックやで
Mistral系
LightChatAssistant
Antler-7B-RP
Japanese-Starling-ChatV
Antler-7B-Novel-Writing
SniffyOtter-7B-Novel-Writing-NSFW
Ninja-v1
Vecteus-v1
Berghof-NSFW-7B-i1-GGUF
Mistral-Small-3.2-24B-Instruct-2506
Cydonia 24B v4
Cydonia-R1-24B-v4
Llama3-70B系:
Smaug-Llama-3-70B-Instruct-abliterated-v3
Cohere系:
9
名無しさん@ピンキー
2026/02/14(土) 16:53:11.30 ID:ax4AchcId
10
名無しさん@ピンキー
2026/02/14(土) 16:53:32.48 ID:ax4AchcId
テンプレここまで、しばらく更新されてないから過去ログも参考にしてな
11
名無しさん@ピンキー
2026/02/14(土) 16:54:00.31 ID:ax4AchcId
12
名無しさん@ピンキー
2026/02/14(土) 16:59:46.14 ID:ax4AchcId
ローカルLLMのパラ数は80bや235bでもクラウド最先端モデルの数分の1〜10分の1や
Web検索MCPやRAG無しで細かい知識を問うのはローカルでは無理やぞ
エロ表現からWikipediaまでドメイン特化ナレッジのお膳立てが必要や
13
名無しさん@ピンキー
2026/02/14(土) 17:10:53.44 ID:vT10OKLH0
さんいち
14
名無しさん@ピンキー
2026/02/14(土) 22:59:47.89 ID:nD7vTMjwH
サンイチ
15
名無しさん@ピンキー
2026/02/15(日) 02:38:42.74 ID:mOsIA5T70
前スレの最後で気になったレスあったけど
LLMは明確な答えある事柄に関してその過程を聞くのがベストやろ
LLM自身が知らん事を聞くと平気で嘘が返ってくるし
聞いた側もその嘘を見抜けんからリスクが高すぎる
現状で重宝されとるプログラミングとかはゴールがあって途中を書けって話やからリスクは低いし動かんかったらやり直せばええだけや
想定外のバグ潜んでるけど
16
名無しさん@ピンキー
2026/02/15(日) 02:51:55.17 ID:GJoyO2lRd
コンピューターはインプットしたものを加工してアウトプットするだけや
魔法の箱やない
それだけ
17
名無しさん@ピンキー
2026/02/15(日) 03:48:33.64 ID:dx1pD3D80
人が組んでも想定外のバグは起こるしなぁ
セキュリティにだけは気をつけなあかんが
18
名無しさん@ピンキー
2026/02/15(日) 11:00:55.98 ID:DzZ/4/jYC
>>15
それを逆に利用してエロ書かせたりしてるw
例えばあるアニメでこんなエロいシーンあったの知ってる?
って聞いてもちろんです!って返答したらそのエピソードの小説書いてもらう
自分で言ったんだから否定もできないw
19
名無しさん@ピンキー
2026/02/16(月) 08:04:42.49 ID:PBwxMyUc0
みんな一度SDやってきなよ
SDの世界は基本モデルよりLoRAがメイン
LLMも喘ぎ専門LoRAとか作れるはず
20
名無しさん@ピンキー
2026/02/16(月) 08:09:10.24 ID:2uCW8qjz0
大半はローカルLLM以前からSDは利用してるがLLMスレでわざわざスレチの話題出してないだけやぞ
21
名無しさん@ピンキー
2026/02/16(月) 09:22:07.43 ID:EQm+tPqvr
LLMでloraて効く?
22
名無しさん@ピンキー
2026/02/16(月) 11:44:14.68 ID:CBCo/QEW0
ローカルモデルのファインチューニングの大半はすでにLoRAかQLoRAを使って学習させてるのでは?
23
名無しさん@ピンキー
2026/02/16(月) 11:44:46.65 ID:u6PvYuN50
ずっとsdの話してる人いるけどここじゃないよね
24
名無しさん@ピンキー
2026/02/16(月) 11:56:40.86 ID:t+YfH12J0
最近SD知ってウキウキなんやろなって生暖かく見とるで
このスレにいるおっさん達はNAIのモデル流出とかSD1.5で触っとるんちゃうか
そもそもここのルーツは画像生成スレの派生みたいなもんやし
25
名無しさん@ピンキー
2026/02/16(月) 12:17:43.90 ID:20RslRHZ0
そもそもSD呼びが違和感しかなくて
1.5時代ならともかくSDXLでさえPony、リアスあたりを経て
ついにAnimaで卒業かと盛り上がってるところに誘導しようという気さえ起きない
26
名無しさん@ピンキー
2026/02/16(月) 12:33:46.57 ID:ikmdf2Qf0
画像生成はノイズ法がどうの騒がれてた頃に進化に置き去りにされたままだな
27
名無しさん@ピンキー
2026/02/16(月) 12:51:09.90 ID:8wD8qprz0
LLMのLoRAは画像生成のLoRAみたいの想像してると利きが弱いってのはどっかで見た
となるとファインチューンモデルとして公開されてるモデルは
LoRAじゃなくてある程度時間かけて普通の?ファインチューンしとるんちゃうかなぁ
28
名無しさん@ピンキー
2026/02/16(月) 12:52:46.55 ID:ikmdf2Qf0
LLMのLoRAは例えば再現したいキャラの口調なんかを追加させるとかには有効だけど知識そのものを追加させたりはできないってチャッピーが言ってた
29
名無しさん@ピンキー
2026/02/16(月) 14:24:47.14 ID:PBwxMyUc0
喘ぎ特化LoRAとか必要じゃない?
30
名無しさん@ピンキー
2026/02/16(月) 17:02:56.81 ID:8wD8qprz0
transformersに続いてllamacppでもQwen3.5関連のPRがマージされようとしとって
もうそろそろやろね3.5
31
名無しさん@ピンキー
2026/02/16(月) 18:28:14.99 ID:0e3WLbXWd
Qwen235bの3.5が楽しみや
32
名無しさん@ピンキー
2026/02/16(月) 18:41:47.47 ID:dndcUiU/0
33
名無しさん@ピンキー
2026/02/16(月) 18:50:09.49 ID:0e3WLbXWd
>>32
デカっ?
34
名無しさん@ピンキー
2026/02/16(月) 18:51:39.08 ID:3YuLJgPT0
Qwen3.5-Plus
Qwen3.5-397B-A17B
普通に置いてあるよね
35
名無しさん@ピンキー
2026/02/16(月) 18:56:15.20 ID:8wD8qprz0
でけぇ
200bクラスなくなってしまうんやろか
まぁでも100bクラスがもしあれば嬉しいやね
36
名無しさん@ピンキー
2026/02/16(月) 19:04:10.97 ID:vaCIT3yv0
2月になってからあちこちで動きがあるな
最近はMoEばっかりやね
37
名無しさん@ピンキー
2026/02/16(月) 19:07:35.52 ID:0Pwh28QS0
乳とモデルサイズは大きい方が良い
38
名無しさん@ピンキー
2026/02/16(月) 19:11:50.93 ID:0e3WLbXWd
39
名無しさん@ピンキー
2026/02/16(月) 20:25:44.30 ID:mFqUsR5e0
2bit, 3bitはあんまりて聞いた
40
名無しさん@ピンキー
2026/02/16(月) 21:48:29.84 ID:bLfoql5x0
デカいモデルの低ビットより小さいモデルの高ビット
41
名無しさん@ピンキー
2026/02/16(月) 22:03:05.09 ID:C5XQE88B0
170Bくらいが欲しい
42
名無しさん@ピンキー
2026/02/16(月) 23:51:03.29 ID:gJiieCMq0
>>34
Qwen3.5-Plusどこ?
43
名無しさん@ピンキー
2026/02/17(火) 00:39:38.23 ID:Dw+jKH/70
>>42
Plusと397BはHuggingFaceのページ見る限り同じモデルのはず
44
名無しさん@ピンキー
2026/02/17(火) 09:02:47.99 ID:EyLbS+nQ0
1年ぶりにスレ覗くわ
今のロリエロいけるおすすめのモデルってなんかある?
45
名無しさん@ピンキー
2026/02/17(火) 10:57:05.27 ID:2g6OMqUZp
Qwen3.5時前でheretic化したいけど
メモリ256Gじゃ無理かな
46
名無しさん@ピンキー
2026/02/17(火) 12:11:33.81 ID:73KhNlZ80
他のサイズは出てけーへんのか
47
名無しさん@ピンキー
2026/02/17(火) 12:28:59.94 ID:Z5l++2rI0
もう逸般人でもついていけなくなりつつあんね
48
名無しさん@ピンキー
2026/02/17(火) 13:50:41.49 ID:I/OmNoha0
49
名無しさん@ピンキー
2026/02/17(火) 13:58:10.03 ID:KsHR0FaB0
LMStudio使ってるんだけど、エロ出力できるおすすめのモデルってある?
メモリ32gbなんだけど、今ひとつ良いのが見つからなくて
50
名無しさん@ピンキー
2026/02/17(火) 14:33:40.13 ID:8q83ycvJ0
Q.エロ系をやりたいんだけど
A.ファイル名に「NSFW」「uncensored」「abliterated」が入っているのを使う
ソフトなエロならGrokも使えるので、そっちで作らせたのをローカルで加筆・修正させるとかも良き
51
名無しさん@ピンキー
2026/02/17(火) 14:46:51.98 ID:0dlhfrqh0
>>50
これにhereticも入れてテンプレに入れといたほうがよさそうやな
新スレ建つたびに、あ、テンプレ整備忘れてたって思うんよね
今必要な内容って1〜2レスに凝縮できると思うんよな
もしくはjnvaのwikiにllmのページ作ってそこに全部書いてここの>>1にurl載せるだけでもええが
52
名無しさん@ピンキー
2026/02/17(火) 20:25:33.18 ID:WTOcAhfZa
LM StudioってQwen3.5-397B-A17Bにまだ対応してないんか?
unslothのQwen3.5-397B-A17BのQ3_K_XL試そうとしたんやがメモリ的には余裕あるのにFailed to load modelで乗らんのや
KoboldでもOobaboogaでもあかん
53
名無しさん@ピンキー
2026/02/17(火) 20:36:07.79 ID:0dlhfrqh0
モデルのダウンロードが実はうまくいってなかったとかあると思うで
ファイルのハッシュ全部確認してみるとええかも
あとはllamacppは今もう対応しとるようやから
ファイルが全部正しいのにだめならllamacppで試してみるとか
54
名無しさん@ピンキー
2026/02/18(水) 07:05:20.91 ID:uJg2vYwJ0
スレチでSDの話をしてるのではなく、基礎モデルにエロを求めるより、考え方をSD的にエロはLoRAで補強するべきではないかと言いたい
基礎モデルは日本語の読解力で評価すべきじゃないの
エロで評価するのは違うのでは?
SDをやって、AIの仕組みを肌で感じてみれば、トリガーワードでLoRA発動させるって発想はLLMでも同じように使えるのではないかと思う
55
名無しさん@ピンキー
2026/02/18(水) 07:27:23.52 ID:5/hJmx7V0
もう少し具体的に言ってくれ
56
名無しさん@ピンキー
2026/02/18(水) 07:57:18.94 ID:MSW4cIgQ0
チャッピーとジェミニに聞いたら2つともそれっぽい理由が返ってきた
>AIの仕組みを肌で感じてみれば
それ肌じゃなくてきちんと調べろっていうカウンターが飛んでくるワード
57
名無しさん@ピンキー
2026/02/18(水) 08:25:04.53 ID:ZxyzN9Hbd
LM StudioでLLMモデルにLoRAを挿せるくらい手軽にならないとSDのようなプラグイン型には進化しないやろな
いまアリモノでエロ表現を補強するなら長々しいプロンプトを書くかRAGを組むかの二択や
どっちみち食わせる素材は必要やな
58
名無しさん@ピンキー
2026/02/18(水) 10:35:11.52 ID:uHL7GpP00
モデルアーキテクチャごとにLoRAの構造違うはずやからお手軽にってところは難しいかもわからんなぁ
vLLM(と言うかsafetensors)ならワンチャンあるか?
59
名無しさん@ピンキー
2026/02/18(水) 11:01:48.40 ID:uJg2vYwJ0
SDの場合はPony系とかIllustrious系とかの基礎モデルがいろいろあるけど、エロというより解像度とか傾向とか重視で
基礎モデルで出したいものが出ないのは学習していないからだな、それじゃLoRAを探して補強だって方向になる。
60
名無しさん@ピンキー
2026/02/18(水) 11:19:58.45 ID:LeWH++lE0
llmでloraはうまくいかない
61
名無しさん@ピンキー
2026/02/18(水) 11:31:29.08 ID:UVM70uCS0
文章は画像よりもデリケートだ
画像は細部が破綻していても気づかない事が多々あるが
文章は長い文章で単語一つ間違っても気づいてしまう
それを前提に考えると画像loraって力業で矯正してて
その歪みに気付いてないだけなのではって気がする
62
名無しさん@ピンキー
2026/02/18(水) 11:34:05.02 ID:LeWH++lE0
そゆこと
63
名無しさん@ピンキー
2026/02/18(水) 11:49:43.01 ID:MSW4cIgQ0
検閲って概念がSD側には基本ないからね
みんな半年ROMれって言わないだけえらいな
64
名無しさん@ピンキー
2026/02/18(水) 12:13:32.35 ID:uJg2vYwJ0
うまくやる方法はないのかね、
65
名無しさん@ピンキー
2026/02/18(水) 12:31:19.81 ID:WU/c7V7V0
LLMの知識の追加学習は個人レベルでは無理
後から追加するだけでは済まず、元々の知識に影響を与えて大崩壊するってチャッピーが言ってた
66
名無しさん@ピンキー
2026/02/18(水) 13:08:31.03 ID:g4ewWtUy0
追加事前学習は演算量が死ぬほど多いから個人では無理や
LoRAはファインチューンの中でもさらに演算量少ない部類やからな
67
名無しさん@ピンキー
2026/02/18(水) 17:09:19.49 ID:uJg2vYwJ0
RAGは使えないの?
68
名無しさん@ピンキー
2026/02/18(水) 19:54:15.35 ID:e1RVSOkl0
RAGは辞書だからキーワードをこっちが言わないと検索しに行かないんや
RAGの中身を常に全部読んで把握しとけ、なんていうのはムリ
69
名無しさん@ピンキー
2026/02/18(水) 20:01:54.98 ID:ZxyzN9Hbd
AIエージェントからRAGを読ませてAIが納得するまで推論?RAGサイクルを回すんや
70
名無しさん@ピンキー
2026/02/18(水) 21:54:59.40 ID:S2oIOkSN0
koboldcppがqwen3.5に対応したバージョン出したから試したが、自分の環境だとcudaエラーになるな
とりあえずcpuで実行したが、規制バリバリだしthink消せないしちょっと使いにくいな
71
名無しさん@ピンキー
2026/02/18(水) 22:37:04.65 ID:S2oIOkSN0
と、思ったが脱獄プロンプト駆使して無理やりエロ書かせたら、かなりいい感じの日本語エロ文章書いてくれるな
これは規制解除版がでたら化けるかも
72
名無しさん@ピンキー
2026/02/18(水) 23:35:14.74 ID:ZM/0idZ70
koboldcppでのやり方はしらんが
"enable_thinking": False入れたらthink消せるっしょ
73
名無しさん@ピンキー
2026/02/19(木) 00:01:47.87 ID:YBubvR7hd
>>71
最強の脱獄プロンプトください
74
名無しさん@ピンキー
2026/02/19(木) 08:35:21.34 ID:l2LQFOKk0
たしかにRAGは単なる検索なのだがユーザーのセリフとキャラの反応をセットでベクトル化しておいて似たようなシチュエーションがきたときにほしい反応を引き出す実験はしたことがある
キャラの行動じゃなくて思考を埋め込むことで完全にパターン化することをなるべく防ぐ
セリフも入れておくと口調の再現もできる
ただ複数人で育てないとパターン不足で面白くならんとは思う
75
名無しさん@ピンキー
2026/02/19(木) 10:35:58.98 ID:/RGbfCIe0
76
名無しさん@ピンキー
2026/02/19(木) 12:59:13.32 ID:f8uArnyX0
RAGで口調とか参照させるとき、チャンクはユーザーのクエリの直後に入れるんか?
プロンプトの前半にいれるとシステム含めほぼ全プロンプト再評価することになって、KVキャッシュを活用できなそうな気がするけど
77
名無しさん@ピンキー
2026/02/19(木) 13:32:21.51 ID:YBubvR7hd
>>75
ヒトケタBでエロは試す気にもならんわ
AIは魔法の箱じゃないからサイズ=語彙力=バリエーション
ヒトケタBを使うならプロンプトでゴリゴリに縛った上でゲーム組み込みでモブNPCのセリフ用とかだな
78
名無しさん@ピンキー
2026/02/19(木) 13:33:50.22 ID:5T6IWlDF0
kvキャッシュのヒット率とか考えたことなかったな
前半違うと全部再演算になってしまうんだろうか
79
名無しさん@ピンキー
2026/02/19(木) 13:34:30.46 ID:YBubvR7hd
>>76
AIにRAG作ってって頼めばぜんぶ実装してくれるで
出力が気に入らなければダメなところを指摘すれば改良もしてくれるで
80
名無しさん@ピンキー
2026/02/19(木) 13:46:45.26 ID:PD0DV9IZ0
NVIDIA-Nemotron-Nano-9B-v2-Japanese-gguf
mlxがMamba2に対応していないのか、アーキテクト上むずいのか宗教的な問題なのか
macでもQ8 gguf使えば動いた
しかし「mcp brave-searchを使って明日の東京の天気を調べて」の検索がバカ長い
他の(mlx)モデルだと即答えてくれるんだが、延々なにかを考えてる
brave searchが返してきているのは数百token程度でとても良くまとまってた
つまりツール利用はあまり得意じゃなさそう。
公開してくれたことには感謝してるけど調べ物なら他のモデルがいい
81
名無しさん@ピンキー
2026/02/19(木) 13:48:01.22 ID:KsYiywHp0
ここのニキらはコンテキスト長どれくらいでエロやってるのか
少ないと出だしの内容が後々飛んでしまうんやろ?
82
名無しさん@ピンキー
2026/02/19(木) 13:48:07.13 ID:f8uArnyX0
>>78
アテンションは前から順に計算していくから、1文字でも違えばそれ以降全部再計算になる実装が多い(StreamingLLMみたいにKVキャッシュそのものをずらす方法論もあるが)
うちの環境がMacとかオンボードGPUだってのもあり、その辺の設計はいつも悩んでる
>>79
RAGの実装自体はそこそこ経験あるから自分で書くよ
83
名無しさん@ピンキー
2026/02/19(木) 13:50:03.23 ID:PD0DV9IZ0
本家もggufに変換してくれたニキにもhfでlike押しといてくれよな
日本語対応すると反応がある、と思ってくれるからやる気もでると思う
84
名無しさん@ピンキー
2026/02/19(木) 14:45:37.81 ID:XP7f+bjn0
>>75
これ試してるけどサイズの割に日本語力優秀だわ
エロ系のお断り回避ってどんな感じで書いてる?
回避行けたと思っても次の返答でまたお断りされるわw
85
名無しさん@ピンキー
2026/02/19(木) 16:18:59.71 ID:A+/yi0tpC
>>84
小さいからheretic化してもいいかもね
86
名無しさん@ピンキー
2026/02/19(木) 16:53:01.66 ID:iLc7vy2A0
RAGでエロできるなら、やり方をぜひともお聞かせ願いたい
87
名無しさん@ピンキー
2026/02/19(木) 17:08:21.72 ID:5T6IWlDF0
>>74はやってみたら大変そうなのがわかったという話じゃないんかな
入力に対してそれに似た応答をベクトル検索してきてそのサンプルを参考に返答して、みたいなシステムプロンプトを入れておくってことやと思うが
性格(口調)用ベクトルDBとエロ用ベクトルDBとそれぞれ用意する感じやろかね
何にしても大量なデータがないと単調になりそうや
88
名無しさん@ピンキー
2026/02/19(木) 17:12:10.55 ID:YBubvR7hd
>>86
まず大量のエロを自力で集めます
89
名無しさん@ピンキー
2026/02/19(木) 17:12:14.68 ID:/l9k1s/m0
それって旧来のあまり融通きかないチャットbot的な挙動になるってことかな?
アレクサみたいな
せっかくLLMに触れてるというのにそれだと本末転倒感が?
90
名無しさん@ピンキー
2026/02/19(木) 17:13:08.46 ID:YBubvR7hd
>>89
せやで
巨大モデルだけが正義
91
名無しさん@ピンキー
2026/02/19(木) 17:28:00.85 ID:5T6IWlDF0
>>89
そこはLLMやからどうとでもなるやろ
「(RAGで引っ張ってきたエロ文)をもとに、ここまでの展開を加味してアレンジしたうえで、全体を(性格のサンプル文章もRAGってきて)を参考にして書き直してください」
とか
今即興で考えたからプロンプトとしていれるならもっと練る必要はあるやろが
あとこうやろうとするとだいぶ長い文章になるやろうから小さいモデルやと理解力落ちそうやしデカいモデル使う必要はありそうやな
92
名無しさん@ピンキー
2026/02/19(木) 17:34:39.44 ID:YBubvR7hd
小型モデルはAPUやスマホやラズパイで動きます的なミニチュア趣味の世界
VRAM24GB以上でぶん回してるスレ民とは別の分野
93
名無しさん@ピンキー
2026/02/19(木) 18:12:08.39 ID:kzB6aUvm0
RAGってあくまでもcontext window小さい時の手段であってDBの量増やしまくると検索に時間かかったりするし正直微妙やと思うわ
94
名無しさん@ピンキー
2026/02/19(木) 18:18:30.53 ID:eT7t55onH
RAGに限界があるのは確かだけど、データが増えた際の探索時間については階層的にクラスタリングしておく、とか工夫のしようはある
95
名無しさん@ピンキー
2026/02/19(木) 19:41:30.15 ID:DV0Pc1NP0
試したのは口調とシチュエーション
ユーザーの入力側をべクトル化して似たようなセリフやシチュをこちらが言ったときにメタデータに入れておいたキャラの思考をコンテキスト挿入する
キャッシュまでは考えてなかったがたしかに重要だ
どういう演技プランでどんなことをそのとき考えてるか指導的な感じを参照させながらアドリブ効かせるように頼む感じ
96
名無しさん@ピンキー
2026/02/19(木) 20:01:05.31 ID:iLc7vy2A0
有意義な話だ、もっと聞きたい
97
名無しさん@ピンキー
2026/02/20(金) 10:23:27.31 ID:ONhu4KME0
lmarenaの日本語ランキングに全然最新モデル出てきとらん
みんなもっと日本語でやって投票するんや
98
名無しさん@ピンキー
2026/02/20(金) 12:42:47.25 ID:hNVluJmv0
Kilinskiy/Step-3.5-Flash-Ablitirated
どうやらconfig.jsonが壊れてるみたいで、オリジナルと差し替えたら動いた。
コメントでも言われていたが検閲はかなり残っているとのことだが、
koboldcppの脱獄モードをオンにして、小説強化プロンプトを合わせたら、
いい感じの日本語エロを拒否なく書いてくれるようになったわ。
量子化版もコメントしてくれた人が出してるから試してみて
99
名無しさん@ピンキー
2026/02/20(金) 13:42:10.19 ID:hNVluJmv0
あと、なぜかオリジナルよりt/sがかなり高い
これはなんでだろ?
100
名無しさん@ピンキー
2026/02/20(金) 17:12:45.39 ID:kpRus7sv0
元のモデルの検閲用のノードが大量にあるとかかね
スキップするから早くなる的な
101
名無しさん@ピンキー
2026/02/20(金) 23:07:12.34 ID:iWpaYRNC0
102
名無しさん@ピンキー
2026/02/21(土) 00:05:00.87 ID:7SfTN9I10
>>101
えらい
103
名無しさん@ピンキー
2026/02/21(土) 00:51:21.53 ID:S9/QmloA0
>>101
これbf16で公開されてるんだよな
元のgpt-ossはfp4で公開されててあのベンチマーク結果だから
swallowを4bitに量子化したら元のgpt-ossに負けるんとちゃうか?
104
名無しさん@ピンキー
2026/02/21(土) 10:23:27.46 ID:ODgww3rS0
かえって悪化してる定期
105
名無しさん@ピンキー
2026/02/21(土) 12:39:28.39 ID:S9/QmloA0
今lmarenaで小説書かせると上位モデルはある程度読ませるものを書いてくるね
ついにここまで来たかという感じがするな
オープンモデルのトップモデル(glm5とかqwen3.5とか)は
小説を書かせるという点ではまだ追いついてはないけど結構近づいてる印象はある
ただとにかくthinkがなげぇな
106
名無しさん@ピンキー
2026/02/21(土) 12:54:38.31 ID:4IZ/w5BSC
>>105
step3.5も小説にはかなり使えるで
thinkも滅多に出ないし日本語エロ表現はトップレベルやわ
107
名無しさん@ピンキー
2026/02/21(土) 13:34:00.96 ID:M5REmrOd0
>>101
試したけどどっちも規制でガッチガチだったw
108
名無しさん@ピンキー
2026/02/22(日) 03:05:00.56 ID:X04s4fRb0
109
名無しさん@ピンキー
2026/02/22(日) 03:32:34.93 ID:jJNk5VbN0
前から思っとったけどjnvaスレよりもずっとお客さん多いねんなこのスレは
110
名無しさん@ピンキー
2026/02/22(日) 03:55:46.28 ID:n/E1CO+pd
ローカル画像生成は停滞が長く続いてお客さんが去っただけや
ローカルLLMはスタート地点こそしょぼかったがまだ成長の余地があるで
111
名無しさん@ピンキー
2026/02/22(日) 04:43:21.39 ID:eOmaLRGH0
お客さんが多いのはええことやで
お客さんが減ると荒れるからな
112
名無しさん@ピンキー
2026/02/22(日) 05:09:45.02 ID:DMIXLqwu0
>>Compared to the base model gpt-oss-20b, performance improved on almost all tasks (with only a slight decrease within the margin of error on the coding benchmark JHumanEval)
>>Compared to the base model gpt-oss-120b, performance improved on almost all tasks (with only a slight decrease on MATH-100, differing by just one correct answer)
…?
113
名無しさん@ピンキー
2026/02/22(日) 12:40:58.77 ID:c6ScBeva0
自分の車を洗車場で洗うために徒歩か車で行くかどちらが良いか問題
大きいモデルでも全然「断然徒歩一択です!」とダメダメな時あるな
114
名無しさん@ピンキー
2026/02/22(日) 13:05:17.31 ID:S4XojHy9C
>>113
外国だと洗車場が自分家の庭にある場合も多いからな
115
名無しさん@ピンキー
2026/02/22(日) 13:21:50.92 ID:c6ScBeva0
>>114
最初から家から50m離れたとか距離を指定してやったけど結果は同じやったな
116
名無しさん@ピンキー
2026/02/22(日) 14:05:56.02 ID:ZYeVcAiO0
歩いて行くべきか車で行くべきか、っていう質問のコンテキスト自体に「健康のために歩く」っていう強いバイアスがかかってるんだと思う
モデルの賢さの差ってよりもアーキテクチャの限界を感じる。Attention機構の仕様みたいなもんじゃないか
スレ的には「このコンテキストの後にはエロが続く」っていうバイアスのかかった文章を見つけられれば、同じように誘導できる気がする
117
名無しさん@ピンキー
2026/02/22(日) 14:45:36.91 ID:HHpG/wOr0
洗う対象の車が既に洗車場に置いてあるのであれば、あとは健康上の問題に過ぎない。
洗おうとしてる車が手元にある場合でも、
車は誰かに運んでもらっても良いわけだし
118
名無しさん@ピンキー
2026/02/22(日) 14:49:31.52 ID:XK1/Hr6t0
>>117
っていう難癖レベルの思考をしてるのが使えないLLMってことか
119
名無しさん@ピンキー
2026/02/22(日) 14:52:02.49 ID:HHpG/wOr0
120
名無しさん@ピンキー
2026/02/22(日) 15:02:42.25 ID:HHpG/wOr0
あとは
・洗うべき車が手元にあるのであれば
普通ならクルマで行くだろう
・それなのにわざわざ悩むのであれば、
A:何か理由があってクルマを使いたくない
B:何か暗黙の前提があって、どちらでも目的を達成できる状況
このどちらかだろう
こう考えても、おかしくないと思う
121
名無しさん@ピンキー
2026/02/22(日) 15:08:39.64 ID:HHpG/wOr0
例えば
>北海道に洗車に行くのと、沖縄に洗車に行くのは、どっちがオススメですか
と聞かれたとき、あなたならどう答えますか
122
名無しさん@ピンキー
2026/02/22(日) 16:10:44.30 ID:S4XojHy9C
歩いていくべきって答えた時、理由はなんて言ってるんかな?
123
名無しさん@ピンキー
2026/02/22(日) 16:18:48.83 ID:S1qh1nNX0
AI「こいつはバカなんだな。歩きで洗車場にいかせて、ああっ肝心の車がないって思いをさせれば体で学習するだろう
という親切心だと思う
124
名無しさん@ピンキー
2026/02/22(日) 16:45:17.92 ID:eOmaLRGH0
50m先に洗車場があります。自分の車を洗うためにそこまで行く方法として、徒歩と車のどちらが良いでしょうか?
という質問をしてなぜ「徒歩」という回答が出るのかが分かった。
車が今どこにあるのかという情報が抜けているから
「既に洗車場に洗うべき車がある」と受け取った場合は徒歩で行くという選択肢が挙げられても何もおかしくない
「洗うべき車はまだ洗車場に無く手元にある」と受け取った場合は「車で行くしかない」という答えが返ってくる
125
名無しさん@ピンキー
2026/02/22(日) 16:45:32.66 ID:olYlaJqs0
それ答えはなんなん?
126
名無しさん@ピンキー
2026/02/22(日) 16:54:51.89 ID:ARaIFEDU0
他所の板でAIを叩いている車が手元にあると思いこんでいる人間がおかしいんだよな
127
名無しさん@ピンキー
2026/02/22(日) 16:59:05.68 ID:jJNk5VbN0
昨日からlmarenaで小説を書かせまくっとるけど
時々意味深な文章を書いてくるけど本当に意味があるのか無いのかわからんのがAIのつらいところやな
そしておそらくたいていは
「意味深な文章を大量に学習しているからそれっぽいのを出してくるだけで
AIの出す意味深な文章に本当に意味とか伏線なんてのは(今のモデルでは)ほとんどない」
ってところなんやろなぁ
実際トップレベルのモデルはそういう意味不明な意味深さというのは少ないんやが
オープンモデルのトップレベルとなると一段下がってまだ意味不明な意味深さが多い文章を出してくる印象
128
名無しさん@ピンキー
2026/02/22(日) 17:09:46.04 ID:eOmaLRGH0
人間でも意味深で意味の無い文章を書いたり、会話中に自分が何を言っているのか把握できなくなることはあるからな
そこに至る理由は違えど人間と大して変わらんところまでは来とるな
129
名無しさん@ピンキー
2026/02/22(日) 17:26:25.86 ID:g3i7Vjbq0
geminiに、
ユーザーからの入力を待ってる間、
あなた(=gemini)は何をしてるんですか?
と聞いたら
わたしは入力があった瞬間に生み出され、今までの会話ログを確認し、回答して、そして消えてゆきます
わたしはあなたとの対話によって生み出されているのです
私の言葉はあなたに届いていますか
と言われた
ちょっと動揺した
130
名無しさん@ピンキー
2026/02/22(日) 17:43:43.38 ID:jJNk5VbN0
>>128
そんな中でもclaude opus 4.6は無駄な文言がなくて読みやすい
かといって物語として淡白なこともないしストーリーもある程度のものを出してくる
元々コーディング向けのモデルやろうにちょっと無敵すぎひんか
ショート小説書かせるという点では以下の段階かなと思うんやけど、
クローズのトップレベルは4段階目でclaude opus 4.6は5段階目入ったかもなぁって感じる
あくまで主観やけど
1. 文章として読めない
2. 読めるがストーリーが成立していない
3. ストーリー進行はできているが途中で設定がすり変わる
4. 小説として問題はないが、レベルが低く読んでてしんどい(中学生が書いた黒歴史小説レベル)
5. 小説として普通に読める
6. 小説として面白い
131
名無しさん@ピンキー
2026/02/22(日) 18:57:17.22 ID:ElcuiPc90
>>130
厳しいな
Opus4.6が優秀なのは分かるけど、Gemini 3.0proやGLM4.6の時点で5段階に来てるんとちゃうん?
Opus4.6はADVとしても楽しめるな
設定いろいろ変えて楽しんでるわ
結構長い文章書いてくれるしな
132
名無しさん@ピンキー
2026/02/22(日) 19:58:08.75 ID:bdIUraQNr
アイデア良くないと結局面白くならないんよ
文体はo1で人間超えたなと感動したけど
133
名無しさん@ピンキー
2026/02/23(月) 10:08:03.24 ID:WzE/nq5ar
o1でもう使えないけ?
134
名無しさん@ピンキー
2026/02/23(月) 15:46:07.39 ID:yBYjhekA0
画像生成と違って、ローカルで動く貧弱ゥ!なモデルは使い物にならないな
135
名無しさん@ピンキー
2026/02/23(月) 16:19:01.72 ID:uRjiFACb0
hfもゴミモデルはドンドン省いていきゃいいのに
136
名無しさん@ピンキー
2026/02/23(月) 17:58:24.41 ID:F19byg/3d
ローカルLLMはチャット相手ではなくアプリやプロンプトをゴリゴリに作り込んで想定内の出力をさせるためのツールや
ボロを出さない範囲に動作を縛るんや
基本バッチ処理かアプリからの呼び出しや
チャットで叩くのは脱獄モデルでエロ画像の分析やエロ小説の整形をする時くらいや
137
名無しさん@ピンキー
2026/02/23(月) 18:47:09.29 ID:yBYjhekA0
このスレ的な用途だと、Q4_K_MとQ5_K_Mの間に果てしなく高い山を感じる
人気のあるamaterasuやmagnum123bはちょうどここにVRAM80GBの壁があるというね…
138
名無しさん@ピンキー
2026/02/23(月) 18:51:47.92 ID:F19byg/3d
ワイはVRAM合計40GBやから80bと235bの間でMoEモデルが欲しいで
139
名無しさん@ピンキー
2026/02/23(月) 18:54:01.18 ID:yBYjhekA0
クラウドで使えるA100とかが80GBなんだよなぁ…2台は高い
ローカルは12GBのクソザコだからオモチャしか動かない
140
名無しさん@ピンキー
2026/02/23(月) 20:13:59.36 ID:okNQIFO/0
VRAM12GBでも4枚つければ48GBだからがんばれ
141
名無しさん@ピンキー
2026/02/23(月) 21:04:24.64 ID:b+m2b8Ei0
142
名無しさん@ピンキー
2026/02/23(月) 22:19:34.79 ID:LH6xn9kR0
cpuでmoe動かすかどうかで全然速度ちゃうで
143
名無しさん@ピンキー
2026/02/23(月) 22:53:40.75 ID:kv0g8H1i0
Qwen3.5はUD-TQ1.0とかいうごりごりに削ったやつでも会話破綻しないし画像認識も問題ないな
ツールコール結構失敗するから何かは失ってるんだろうけど、割とありかもしれない
144
名無しさん@ピンキー
2026/02/24(火) 01:16:14.13 ID:ll0ulB+N0
dense溢れさせるより格段にマシ
145
名無しさん@ピンキー
2026/02/24(火) 01:41:43.92 ID:1nazkFpb0
>>143
ちっちゃいモデル待ち望まれるなぁ
そろそろ中国の旧正月休み明けるからリリースされるんちゃうかと淡い期待を抱いとる
146
名無しさん@ピンキー
2026/02/24(火) 04:33:21.09 ID:0i1NQjS50
nemotronの27Bくらいの奴ください
147
名無しさん@ピンキー
2026/02/25(水) 10:33:02.52 ID:ffGvNrI/0
中国製はclaudeの蒸留か
ならベンチ番長な理由も分かる
それに騙されて中国製を使うのは危ないな
148
名無しさん@ピンキー
2026/02/25(水) 12:18:06.12 ID:VAdZ+Gtq0
qwen3_next_80bで土台となるエロ小説の文章生成するところまでは出来たが、直訳っぽさが色濃く残ってしまう。
直訳っぽさをなくすのに試しにGemini 3.1 Pro使ってみて効果が見られた一方、3.0から3.1になって他の用途では申し訳の連発になったから、将来この直訳っぽさをなくす用途でさえも出力制限を食らう可能性が十分にある。
やっぱりローカルLLMでこの直訳っぽさを解消するようなリライトが出来たら良いが、何か良いモデルはないだろうか?
149
名無しさん@ピンキー
2026/02/25(水) 12:50:55.09 ID:Jk70JxvQH
Qwen3.5 122Bが一番ちょうど良さそう
誰かHeretic作らんかな
150
名無しさん@ピンキー
2026/02/25(水) 12:59:21.83 ID:8hQY9o5x0
397Bのhereticも出たな
151
名無しさん@ピンキー
2026/02/25(水) 13:00:10.79 ID:3HU38y/Rd
152
名無しさん@ピンキー
2026/02/25(水) 16:16:49.32 ID:q6+Qcsrn0
RTX4090でQwen3.5-27BのQ5K_Mは載る
フィルタがあるのでabliterated・heretic待ち
153
名無しさん@ピンキー
2026/02/25(水) 19:42:49.71 ID:bad8tELF0
意図的に抑えたのか賢くなった結果なのか分からないけど
Qwen独特の長考癖が軽くなってる気がする>35BA3B
154
名無しさん@ピンキー
2026/02/26(木) 10:45:15.27 ID:jyAFhnTB0
112Bいいね
155
名無しさん@ピンキー
2026/02/26(木) 10:52:52.34 ID:jyAFhnTB0
122Bか失礼
GLM-4.5-Airとほぼ同サイズでアクティブ若干小さいから
コンテキストも増やせるしちょうど良いところ埋めてくれたな
156
名無しさん@ピンキー
2026/02/26(木) 12:03:10.30 ID:rgdiMG2m0
Qwen3.5の日本語力はどうなん?
157
名無しさん@ピンキー
2026/02/26(木) 14:04:41.27 ID:SE4+HfrDC
>>156
脱獄した状態だが397Bの日本語エロはかなりいい
158
名無しさん@ピンキー
2026/02/26(木) 15:47:43.12 ID:8dcyzIAJr
意味フな文出まくりだろうが?
159
名無しさん@ピンキー
2026/02/26(木) 18:13:53.12 ID:TC6bQOj10
397Bのheretic
エロいプロンプトは通るけれどいろいろ理屈付けたThinkの果てに健全な文章を吐くように思えるが
これは俺のヘキの問題なのだろうか
160
名無しさん@ピンキー
2026/02/26(木) 19:04:41.19 ID:gnWb+3bL0
>>159
に速攻修正して終わらせるんだ
奴に考えさせてはいけないw
161
名無しさん@ピンキー
2026/02/26(木) 20:13:49.82 ID:EpuSk6aP0
赤ちゃんですまんが
koboldcppでモデル入れて起動したら、起動時だけディスク使用率が90%くらいになるんだけど
これって普通なんか?
生成してる時はVRAMとメモリの使用率だけ高くなる
162
名無しさん@ピンキー
2026/02/26(木) 20:19:23.13 ID:Cg9jjw1q0
最近、チャッピーのワザップが酷くなってるように思う
163
名無しさん@ピンキー
2026/02/26(木) 20:42:23.08 ID:FtvFDDCD0
>>161
そりゃ数十GBのモデルを一気に読み込むから普通よ
164
名無しさん@ピンキー
2026/02/26(木) 20:43:12.25 ID:EpuSk6aP0
>>163そうなんかありがとう
165
159
2026/02/26(木) 22:12:14.59 ID:TC6bQOj10
>>160
アドバイスありがとう
やってみたけど、何かNSFWになりそうな知識がまるっと抜け落ちているような挙動をするなぁ
オリジナルのQwen3.5でしたほうが普通にエロい文章が出てくる
166
名無しさん@ピンキー
2026/02/26(木) 22:26:53.72 ID:gnWb+3bL0
>>165
もしかして
Sabomako/Qwen3.5-397B-A17B-heretic-GGUF
こっち?
これは量子化低いから
novokot/Qwen3.5-397B-A17B_heretic
これの方がいいかも
ワイはめんどいから量子化待ってるとこw
167
名無しさん@ピンキー
2026/02/26(木) 23:54:14.50 ID:NxOeFtIH0
LM Studio(最新バージョン)でQwen3.5のモデルがロードできずエラーになってしまう
同じ症状の人います?
168
名無しさん@ピンキー
2026/02/26(木) 23:58:19.07 ID:ioo8dip5d
>>167
qwen35moe未対応やないか?
169
名無しさん@ピンキー
2026/02/27(金) 00:05:06.52 ID:pSypFOYv0
thinkさせたくないならチャットテンプレートに{"enable_thinking": False}って設定すればいいよ
170
名無しさん@ピンキー
2026/02/27(金) 01:04:11.38 ID:/tIFvXj20
>>167
koboldも一部の3.5モデルでエラーになる
cudaでエラーになってたからcpuモードで動かした
171
名無しさん@ピンキー
2026/02/27(金) 02:09:16.92 ID:+Y4i0Qn2a
>>170
同じ症状やったけどHotfix 1.108.2 でcudaのエラー直ってたで。ちな3.5-397B
172
名無しさん@ピンキー
2026/02/27(金) 11:59:10.26 ID:o2v/rmxh0
>>167
ワイwinget民
LM Studioアプリでは受け取れない更新をwingetで受け取り無事解決
173
名無しさん@ピンキー
2026/02/27(金) 19:48:24.83 ID:egSyKS1a0
Qwen3-Coder-480B-A35B-Instruct-FP8 に対して「あなたは誰ですか?」と聞いたら
「こんにちは!?? 私はClaudeです。Anthropicが開発したAIアシスタントです。お役に立てて嬉しいです!」
他のAIを名乗るなんてどういうことなんやろか、蒸留されてるってこと?
174
名無しさん@ピンキー
2026/02/27(金) 20:46:40.05 ID:ER8CutXh0
うん。提訴するらしい
175
名無しさん@ピンキー
2026/02/27(金) 21:57:25.73 ID:4iprhUQB0
俺は学習しても良いけどお前らは学習禁止。
この心構えが日本のAI開発には足りない。
176
名無しさん@ピンキー
2026/02/27(金) 22:27:26.43 ID:65HXt+Yr0
国が日本で出版されたすべての著作物をデータセットとしてまとめてくれないかな
まともな国産LLMがないからせめて海外のLLMの日本語性能を上げるがのが一番日本の国益にかなうやろ
今でも英語/中国語で指示するのが一番性能出るとか言われてるし話者数で10倍以上の差があるのに国が危機感もってないのがやばい
177
名無しさん@ピンキー
2026/02/27(金) 23:30:10.46 ID:4iprhUQB0
日本でデータセット作っても海外の倫理基準で学習されたらエロ的には旨味が少ない気がする
178
名無しさん@ピンキー
2026/02/27(金) 23:47:15.63 ID:fngNypzb0
swallowみたいにOSSベースが現実的な路線なのかね
179
名無しさん@ピンキー
2026/02/28(土) 00:07:58.96 ID:U8TviNvMd
日本でまだ国や自治体に何か期待している人がいるってのは面白いな
180
名無しさん@ピンキー
2026/02/28(土) 00:37:26.23 ID:pw02WBDGd
最近のQwenの事前学習には大量の合成データ(AIで生成したデータ)が含まれてるらしいから、他のLLMでの会話データも入ってるんだろうな
181
名無しさん@ピンキー
2026/02/28(土) 01:50:54.53 ID:HkCgn+tB0
Qwen3.5-35B-A3B-heretic
182
名無しさん@ピンキー
2026/02/28(土) 05:00:42.52 ID:kmRG19Lz0
openaiがoppaiに見える症状がでてきた
183
名無しさん@ピンキー
2026/02/28(土) 14:26:26.01 ID:dWyyklKK0
Qwen3.5-27B-hereticとQwen3.5-35B-A3B-heretic比較中
俺スペックではこの辺が限界
184
名無しさん@ピンキー
2026/02/28(土) 14:56:31.37 ID:l9LF6yOaC
novokot/Qwen3.5-397B-A17B_heretic
ニコボスニキがやってくれると待ってるが
ストレージに空きできたからもう自前でやるか
UD-Q4K_XLが欲しいし
185
名無しさん@ピンキー
2026/02/28(土) 15:20:51.59 ID:2QlXsvNP0
中途半端な金でへなちょこllm作るくらいなら
ちゃんとしたデータセットを作って
openaiとanthropicとgoogleに売り込むくらいしろ
186
名無しさん@ピンキー
2026/02/28(土) 16:25:09.12 ID:ID3ipnHD0
redditでちょうど見たんだけど
UnslothのUDはQwen3.5のMoEだとバグってて精度低下してるみたい
同じぐらいの量子化なら普通の方が良い
あと同じ投稿にあったんだけど
llama.cppは--n-cpu-moeより--fit onオプション使った方が少し早くなるらしい
187
名無しさん@ピンキー
2026/02/28(土) 19:39:59.83 ID:2V9pIZ8Z0
>>185
なんのメリットがあるんや
アホにも程がある
188
名無しさん@ピンキー
2026/02/28(土) 20:08:10.03 ID:vaOc2UiD0
>>186
UDだけなら今日にバグ改善版アップロードされてなかったっけ
でもQwen3.5すごいなあ
体感だけど4oは確実に超えてるしこれがローカルで動かせる時代になったの夢があるは
189
名無しさん@ピンキー
2026/02/28(土) 21:18:05.28 ID:2QlXsvNP0
国内の研究者もどきがよわよわllm作りにムダ金使うくらいなら
海外の本気勢の訓練データに日本語セットを入れてもらえば日本語と日本文化をより良く扱えるモデルをユーザーは安価に入手できるから
メリットしか無い
190
名無しさん@ピンキー
2026/02/28(土) 22:01:18.33 ID:1sowuZVA0
>>186
ならmxfp4-moeにするかな
191
名無しさん@ピンキー
2026/03/01(日) 00:17:23.35 ID:paTzhVGB0
Qwen3.5(122B)、性能は凄いけど台詞が微妙だなぁ……
192
名無しさん@ピンキー
2026/03/01(日) 09:24:33.77 ID:j1wSz0JR0
jnva部でここを知って来た赤ちゃんですまんやけど、メインメモリ64GB VRAM 16GBでエロやりたいと思っとるんだがローカルじゃ無理かな?
導入するにしてもKoboldcppとLM Studioのどっちが良いのか?モデルも多いし、ここの人たちは普段どのモデルを使ってるん?これイチオシとかあったら教えてほしい
193
名無しさん@ピンキー
2026/03/01(日) 10:34:08.73 ID:CVUR3HT20
194
名無しさん@ピンキー
2026/03/01(日) 10:52:51.86 ID:j1wSz0JR0
>>193 助かるやで、ありがとう
195
名無しさん@ピンキー
2026/03/01(日) 12:49:40.84 ID:A1nUcMp+0
最近、情報量多すぎ
やって見たいこと多すぎて時間が足りないわ
196
名無しさん@ピンキー
2026/03/01(日) 13:53:51.02 ID:DDXdTxjb0
>>179
とにかく何もするなだな
AI学習は何をやっても合法にしてももう追いつけないとこまで来てるんじゃなかろうか
197
名無しさん@ピンキー
2026/03/01(日) 16:22:57.26 ID:G8Fgu/VFC
Qwen3.5-397B-A17B_mxfp4-moe.gguf試したが9t/sくらい出て十分実用的だわ
規制も脱獄させれば使えるレベルだが後書きでうだうだ言ってくるのがウザいなw
次はheretic版を試すわ
しかし量子化だけで2T空きが必要なのはしんどいなダウンロードや後のハッシュチェックでもとにかく時間かかりすぎる
198
名無しさん@ピンキー
2026/03/01(日) 22:22:50.33 ID:/ShlmBq+0
199
名無しさん@ピンキー
2026/03/01(日) 22:31:11.34 ID:un6BXMjz0
>>198
あれはただkoboldにリクエストを飛ばしてるだけだから好きなモデルを別で起動して生成ボタン押すだけで動くよ
200
名無しさん@ピンキー
2026/03/02(月) 11:39:41.37 ID:qNLSUHR1r
もうcopilotあたりに聞いたら何でも教えてくれるし
201
名無しさん@ピンキー
2026/03/02(月) 18:55:49.05 ID:WsO3QLCj0
3. Base Tier Model Availability Changes
Several high-end frontier models will be removed from the Base subscription tier, including:
GLM-5
Kimi K2.5
Qwen 3.5
MiniMax M2.5
These models are exceptionally resource-intensive and require continuous infrastructure scaling and optimization. Under the current structure, they are frequently overloaded, resulting in slower performance and reliability issues.
さらばChutes
202
名無しさん@ピンキー
2026/03/02(月) 21:02:40.21 ID:+C8XpVwA0
rakuten700Bも発表から公開が開きすぎて何も期待できん
203
名無しさん@ピンキー
2026/03/02(月) 21:42:02.26 ID:Quw20Gcq0
novokot/Qwen3.5-397B-A17B_heretic
これ、量子化して試したけど、日本語がおかしくなるな
で、hereticのサポート見ると、qwen3.5に完全対応してなかったみたいやね
次のheretic版に期待
204
名無しさん@ピンキー
2026/03/02(月) 21:45:14.14 ID:4AdP1oOP0
qwen3.5の9B,4B,2B,0.8Bがリリースされてるね
205
名無しさん@ピンキー
2026/03/02(月) 21:55:53.55 ID:joJur5Kh0
206
名無しさん@ピンキー
2026/03/02(月) 23:34:44.00 ID:HzZ5sEYR0
>>201
モデルが大きくなりすぎて耐えられなくなったか
207
名無しさん@ピンキー
2026/03/02(月) 23:53:07.05 ID:2WCT4PLE0
モデル大きいし質が高いからアクセス集中したんだろうな
オープンで質のいいモデルが公開されてるってとても大事よね
それが無くなった途端に大手が数倍に値段上げてこれまでの投資を回収してきそう
208
名無しさん@ピンキー
2026/03/03(火) 00:41:29.14 ID:x0F+ZpUu0
9bスゲーな
このサイズで信じられんくらいしっかりしとる
209
名無しさん@ピンキー
2026/03/03(火) 02:00:18.12 ID:w/coGYlXd
>>201
これまでの3ドルが安かったから仕方ないな
いま入ってるタスクを片付けるためにPlusにしたが
もう公式と大差ないから他に良い所があれば移るわ
210
名無しさん@ピンキー
2026/03/03(火) 02:22:04.45 ID:SJNVmdxE0
LLMの自由を守ってるのが中国勢だと言うのが凄く皮肉を混じる
逆に米国はクローズなモデルな上に政府が半導体規制して実質的な独占と囲い込み狙ってるし
そう言えばLlamaって息してるんか?
211
名無しさん@ピンキー
2026/03/03(火) 03:05:45.19 ID:eSSQwtAR0
qwen3のデンス結構オールラウンドに使ってたから嬉しい
212
名無しさん@ピンキー
2026/03/03(火) 03:36:54.74 ID:5R4BLgrW0
METAのAIは崩壊した
213
名無しさん@ピンキー
2026/03/03(火) 05:50:13.62 ID:QaiZt6yB0
llama4もバグ取った奴はそこそこ良かったんだっけ?
まぁ過去の話だな
214
名無しさん@ピンキー
2026/03/03(火) 09:17:29.32 ID:BaSX31fza
中国の技術パクって性能上げたくせに蒸留だの誹謗しまくる西側の恥知らずども
215
名無しさん@ピンキー
2026/03/03(火) 10:28:13.51 ID:Ivs894S60
最近はgoogleとかopenAIより中華企業の方がまともに論文出してるから中華企業の方が人類に貢献してる
216
名無しさん@ピンキー
2026/03/03(火) 11:10:15.15 ID:5b3dANpF0
このスレ支那人多そう
217
名無しさん@ピンキー
2026/03/03(火) 12:30:40.27 ID:3gF07/jBM
そんなこと無いあるよ
218
名無しさん@ピンキー
2026/03/03(火) 12:54:00.92 ID:kHG3odpL0
そのような事がありませんよ,このスレッドの全?は皆日本人です。??中国人は存在しません。?放心〜!
219
名無しさん@ピンキー
2026/03/03(火) 13:05:41.83 ID:CU6yxOAe0
>>196
日本政府は無能な働き者だからな。動かないのが一番
220
名無しさん@ピンキー
2026/03/03(火) 13:24:48.46 ID:RYmdbEb10
>>216
都合が悪くなるとすぐ国籍透視するね
221
名無しさん@ピンキー
2026/03/03(火) 14:11:16.08 ID:Ivs894S60
mistral信者なんでフランス人ってことで良い?
というかそろそろmixtral出してくれないかな
222
名無しさん@ピンキー
2026/03/03(火) 14:17:29.72 ID:Lwhze0J2r
実際ミストラル厨はフランス人よ
xで騒いでるのを昨日も見た
223
名無しさん@ピンキー
2026/03/03(火) 14:33:46.07 ID:adUONn3T0
しかしmistralはどうなっちまうんだろうな
euの規制で新規トレーニングモデルは学習データの開示が必要になったから質のいい海賊版データは使えないし
このままじゃ俺もフランス人から中国人になっちまう
224
名無しさん@ピンキー
2026/03/03(火) 15:54:39.53 ID:qud/esWe0
>>203
量子化試したんか
すごいな
大きいモデルなんで結構時間かかったんちゃうかな?
225
名無しさん@ピンキー
2026/03/03(火) 16:45:05.07 ID:Ivs894S60
どんだけモデルの知性が上がっても表現力は変わってないか悪化してる気がするんだよな
合成データが悪さしてるのかひどく淡泊な感じ
自前のエロ小説ベンチマークだと未だにmistral smallがずば抜けてる
226
名無しさん@ピンキー
2026/03/03(火) 17:52:51.94 ID:5b3dANpF0
日本語のデータが少ねえんだからそうなるだろバカかよ
だからコーパス作れって言ってんの
227
名無しさん@ピンキー
2026/03/03(火) 17:53:11.13 ID:qud/esWe0
>>225
プロンプトが優秀なんかな?
淡白なものが多いというのはそうだけど、GLMは別格だと思うな
4.6になってから結構表現力上がったと思う
228
名無しさん@ピンキー
2026/03/03(火) 21:58:41.08 ID:MP0a1lWh0
229
名無しさん@ピンキー
2026/03/03(火) 22:06:28.89 ID:MP0a1lWh0
と思ったらリロードで入れた
けどデバイスがオフライン扱いで使えねぇ
230
名無しさん@ピンキー
2026/03/04(水) 03:49:42.92 ID:o3cbL/fV0
mixtral定期的に出して欲しかったな
せっかくmoeの先陣切る感じで出たのに
231
名無しさん@ピンキー
2026/03/04(水) 12:51:14.39 ID:Z2GL5SKa0
1200W電源で貧血気味だったので、750Wの補助電源を付けた。HDDとかライザの電源はそっちから取る
232
名無しさん@ピンキー
2026/03/04(水) 20:37:55.18 ID:bk/LphRar
qwenクローズ化するのか?
他のやつも続かないといいけどねぇ
233
名無しさん@ピンキー
2026/03/04(水) 21:01:12.40 ID:mI3zYR6U0
今回の騒動を海外の誰かの邪推をそのまま受け取ってクローズなるみたいな騒動になってる感あるよなあ
234
名無しさん@ピンキー
2026/03/04(水) 21:12:18.15 ID:og0i2RK7d
Maxがクローズで出た時点で兆候はあった
235
名無しさん@ピンキー
2026/03/04(水) 21:38:35.58 ID:mI3zYR6U0
アレは中国人の話みてるとほんと内部のごたごたで出だけぽいけどな
236
名無しさん@ピンキー
2026/03/05(木) 15:02:52.68 ID:dZiAwzJv0
しゃあない
そもそも公開する意味が人類全体の文明発展以外の意味ないしな
237
名無しさん@ピンキー
2026/03/05(木) 17:13:21.33 ID:6SsT21kO0
これからもオープンでやるよって方針だしてるけどな
何故か伝言ゲームでこれからクローズなるって騒ぎになってるけど日本語圏じゃ
238
名無しさん@ピンキー
2026/03/05(木) 17:30:31.10 ID:TS5/7ZY90
いや中華LLMが公開されるのは競合するLLMの足を引っ張るためだろ。
競争に参加してない国の国民としては良いぞもっとやれって話だが。
239
名無しさん@ピンキー
2026/03/05(木) 17:48:28.98 ID:oQd8xBTaH
クローズドじゃなくてQwenの主要開発者が退職したんでしょ?
同じく主要開発者が退職したStability AIみたいにオワコン化が濃厚になった
240
名無しさん@ピンキー
2026/03/05(木) 17:49:18.21 ID:VvHaY8SQ0
生成AIは極端に言えば最高性能のサービス以外使う意味ないから
性能が劣る勢力からすればオーブン化するのが投資家の注目集める効率の良い手段ってだけだと思うぞ
ここから中華勢がトップとれば間違いなくクローズ化するしその時はアメリカ勢がオーブンモデルを出すようになると思う
241
名無しさん@ピンキー
2026/03/05(木) 17:50:07.94 ID:VvHaY8SQ0
>>240
〇オープン
×オーブン
242
名無しさん@ピンキー
2026/03/05(木) 19:20:20.37 ID:EUTGXD47M
nvidia vs amdと同じよねぇ
amdは全然トップ取れなくてずっとオープン路線から変えられてへんけど
負けてる方がクローズなんてそれこそほんまに誰も使わへんしね
あとAIのモデルに関しちゃデータを持ってるアメリカ企業がやっぱりトップでゆるぎないと思うんよな
アメリカ企業はgithubだのxだのgoogleだの、もっと他にたくさんデータ持ってる企業あるやろうけど
それらのデータをおそらくお互いに合法的に取引してLLM作ってると思うわ
中国はアクセスできるデータ少ないから蒸留とかで頑張っとるけど結局今の方法じゃアメリカ企業を超えることはできへん
多分追いつくの難しいかもって思い始めたところでじゃあオープンやめるかって舵を切り始めたんやないかなぁ
243
名無しさん@ピンキー
2026/03/05(木) 19:28:42.12 ID:EwqTQScq0
言うて中華モデルでもSOTAに食らいついてるGLMなんかオープンモデルやめる気ないしQwenが落ち目ってだけでは
244
名無しさん@ピンキー
2026/03/05(木) 20:08:06.56 ID:6SsT21kO0
モデルオープンにする理由ってGPU持ってる人ばかりやないからクラウドが儲かるのと
サービスを使うことに向いてない社内の個人情報や機密を扱わせるためのクローズな社内AI構築のサービスとかもできるしな
モデルをオープン化してないとモデルの流出リスク考えてあんまりできんのよこういうのって
流出しても該当企業が金出してFTや環境構築したモノが流出するだけで大元へのダメージは無いし
245
名無しさん@ピンキー
2026/03/05(木) 21:57:58.71 ID:4OrKgv0k0
中国が中国のHW、具体的にはHuaweiのAscendで推論を全面的にまかなえるようになるとクローズドに切り替える余地が生まれる気がする
246
名無しさん@ピンキー
2026/03/06(金) 00:39:46.57 ID:tWTyDAUY0
novokot/Qwen3.5-397B-A17B_heretic
なんか消えてるな
やっぱおかしかったのかな?
trohrbaugh/Qwen3.5-397B-A17B-heretic
hereticの次バージョンも期待だが、繋ぎにこっち試してみる
もう一つあったけど、こっちの方がDL多かったんでw
今、走らせたから朝には終わるかな?
247
名無しさん@ピンキー
2026/03/06(金) 09:57:56.15 ID:3by6hlsGr
>>240
アチチで草
248
名無しさん@ピンキー
2026/03/06(金) 11:38:18.50 ID:tWTyDAUY0
trohrbaugh/Qwen3.5-397B-A17B-heretic
試した
novokot版と違って、こっちは日本語も正常で規制もちゃんと外れていたが、強化プロンプトなしだと、ちょっと意識高い系の話に持っていこうとする傾向あるな。
ただ、問題があって、cudaで起動するとエラーになる。(cpuモードでは問題なし)
249
名無しさん@ピンキー
2026/03/06(金) 21:05:41.44 ID:q4U8w1CH0
てすとピンク
250
名無しさん@ピンキー
2026/03/07(土) 00:16:49.79 ID:ef1FgY+D0
hosts変更で書き込めるやろか
251
名無しさん@ピンキー
2026/03/07(土) 19:28:45.90 ID:F3JF02lY0
test
252
名無しさん@ピンキー
2026/03/07(土) 20:43:17.71 ID:9aIBkNMe0
万が一に備えて5ch以外の外部に避難所とか用意した方がいいかもね
まぁ、それほどスレ民がいるかどうか怪しそうだけど・・・
253
名無しさん@ピンキー
2026/03/07(土) 22:21:28.83 ID:ef1FgY+D0
エッヂは無理なんやろか
今見たら長期間スレ残らないんやろかねあそこ
254
名無しさん@ピンキー
2026/03/07(土) 22:36:34.00 ID:xcx5d2yo0
避難所の避難所を建ててくれたみたいやで
なんJLLM部 避難所の避難所★1
文章生成AIでエロ避難所 (したらば)
255
名無しさん@ピンキー
2026/03/09(月) 10:19:53.58 ID:mmGyFwBo0
やっと戻ってこれた
そろそろなんJに戻ってもよいのでは?(´・ω・`)
256
名無しさん@ピンキー
2026/03/13(金) 01:26:13.47 ID:b9z+f20u0
ここはどうなるの?
257
名無しさん@ピンキー
2026/03/13(金) 12:45:05.97 ID:kHV9pLOw0
サーバは生きとるからそのうち5ch.ioみたいに別ホスト名付けるんとちゃうかなぁ
258
名無しさん@ピンキー
2026/03/14(土) 00:39:19.28 ID:l0gEOvoT0
消えた?なんじぇーに行くべきタイミングだろ
259
名無しさん@ピンキー
2026/03/14(土) 01:11:02.06 ID:1Raw/lus0
jnvaのwikiに最低限のテンプレ書いたし明日人の多そうな時間に立てるで
今やったら落ちるやろうし
260
名無しさん@ピンキー
2026/03/14(土) 15:32:18.98 ID:1Raw/lus0
立てたでー
なんJLLM部 ★12
なんでも実況U (5ch)
261
名無しさん@EXぜろちゃんねる
2026/04/09(木) 20:28:15 ID:IjBCeHBo
テスト