・投稿者は、投稿に関して発生する責任が全て投稿者に帰すことを承諾します。
・投稿者は、話題と無関係な広告の投稿に関して、相応の費用を支払うことを承諾します。
・投稿者は、投稿された内容について、掲示板運営者がコピー、保存、引用、転載等の利用することを許諾します。
 また、掲示板運営者に対して、著作者人格権を一切行使しないことを承諾します。
・投稿者は、掲示板運営者が指定する第三者に対して、著作物の利用許諾を一切しないことを承諾します。

■掲示板に戻る■ 全部 1- 101- 201- 最新50
[PR]EXぜろちゃんねる[PR]
 

なんJLLM部 避難所 ★11 (261)

1 名無しさん@ピンキー 転載ダメ 2026/02/14(土) 16:50:24.13 ID:ax4AchcId
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
なんでも実況U (5ch)
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
オナテク (BBSPINK)
なんJLLM部 避難所 ★9
オナテク (BBSPINK)
なんJLLM部 避難所 ★10
オナテク (BBSPINK) VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured

2 名無しさん@ピンキー 2026/02/14(土) 16:51:09.40 ID:ax4AchcId
初心者は導入しやすいKoboldcppから始めるのをお勧め
(1)NVIDIA、CPUユーザーはここで最新版のKoboldcpp.exeをダウンロード
https://github.com/LostRuins/koboldcpp/releases
AMDユーザーはこっち
https://github.com/YellowRoseCx/koboldcpp-rocm
(2)ここで良さげなggufモデルをダウンロード
https://huggingface.co/models?sort=modified&search=gguf
この2つのファイルだけで動く

Koboldの設定や使い方は英語だけどここが詳しい
https://github.com/LostRuins/koboldcpp/wiki

3 名無しさん@ピンキー 2026/02/14(土) 16:51:28.27 ID:ax4AchcId
oobabooga/text-generation-webui
通称大葉
これもKoboldAIに並んで有用な実行環境やで
https://github.com/oobabooga/text-generation-webui

4 名無しさん@ピンキー 2026/02/14(土) 16:51:41.35 ID:ax4AchcId
●Zuntanニキ謹製のツールEasyNovelAssistant
主に小説用で使われとるで
ローカルLLM導入のハードルをぐっと下げてくれたで
初めてのお人はここから始めるのもいいで
https://github.com/Zuntan03/EasyNovelAssistant

5 名無しさん@ピンキー 2026/02/14(土) 16:52:01.97 ID:ax4AchcId
https://github.com/SillyTavern/SillyTavern
AIチャットに特化したUI、SillyTavernや
キャラをbot的に管理したりグラ登録したり複数選んでグループチャットしたり大量の設定を外部記憶的に管理したり色々できるで
画像出力や音声出力とも連携可能で夢が広がるで
機能が豊富すぎて最初取っ付きにくいのと日本語の解説がほとんど無いのが難点やがRPチャット派は使うと幸せになれるやで
あくまでUI(フロントエンド)やからこれ自体にはAIは内蔵されてないから注意してな
好きなAPIやローカルモデルと接続して使うんやで

6 名無しさん@ピンキー 2026/02/14(土) 16:52:22.52 ID:ax4AchcId
例としてKoboldで起動したローカルモデルとSillyTavernを接続する設定や
先にいつもどおりKoboldを起動してな

SillyTavernのプラグのアイコンをクリック
APIに Text Completion を選択
API Typeは KoboldCpp
API keyは不要
API URLに http://localhost:5001/
これでいける

7 名無しさん@ピンキー 2026/02/14(土) 16:52:39.23 ID:ax4AchcId
●多くのモデルには「base」と「instruct」の2種類があるで
baseはチューニングされていない、与えられた文書の

8 名無しさん@ピンキー 2026/02/14(土) 16:52:55.80 ID:ax4AchcId
●その他の最近話題になったモデルも挙げとくで
動きの速い界隈やから日々チェックやで

Mistral系
LightChatAssistant
Antler-7B-RP
Japanese-Starling-ChatV
Antler-7B-Novel-Writing
SniffyOtter-7B-Novel-Writing-NSFW
Ninja-v1
Vecteus-v1
Berghof-NSFW-7B-i1-GGUF
Mistral-Small-3.2-24B-Instruct-2506
Cydonia 24B v4
Cydonia-R1-24B-v4

Llama3-70B系:
Smaug-Llama-3-70B-Instruct-abliterated-v3

Cohere系:

9 名無しさん@ピンキー 2026/02/14(土) 16:53:11.30 ID:ax4AchcId
●高性能なPCがないけどLLMを試したい人や大きなモデルを速く動かしたい人はpaperspaceなどのクラウド環境を使うのも手やで
若干規制はあるもののGoogle AI studioから無料でAPI keyを入手して高性能なAIを使うこともできるのでそれを使うのええで
API keyの入手はhttps://aistudio.google.com/apikeyここからできるで

10 名無しさん@ピンキー 2026/02/14(土) 16:53:32.48 ID:ax4AchcId
テンプレここまで、しばらく更新されてないから過去ログも参考にしてな

11 名無しさん@ピンキー 2026/02/14(土) 16:54:00.31 ID:ax4AchcId
今はもう「初心者はLM Studio使え」でいい気もするねw
https://lmstudio.ai/

12 名無しさん@ピンキー 2026/02/14(土) 16:59:46.14 ID:ax4AchcId
ローカルLLMのパラ数は80bや235bでもクラウド最先端モデルの数分の1〜10分の1や

Web検索MCPやRAG無しで細かい知識を問うのはローカルでは無理やぞ

エロ表現からWikipediaまでドメイン特化ナレッジのお膳立てが必要や

13 名無しさん@ピンキー 2026/02/14(土) 17:10:53.44 ID:vT10OKLH0
さんいち

14 名無しさん@ピンキー 2026/02/14(土) 22:59:47.89 ID:nD7vTMjwH
サンイチ

15 名無しさん@ピンキー 2026/02/15(日) 02:38:42.74 ID:mOsIA5T70
前スレの最後で気になったレスあったけど
LLMは明確な答えある事柄に関してその過程を聞くのがベストやろ
LLM自身が知らん事を聞くと平気で嘘が返ってくるし
聞いた側もその嘘を見抜けんからリスクが高すぎる

現状で重宝されとるプログラミングとかはゴールがあって途中を書けって話やからリスクは低いし動かんかったらやり直せばええだけや
想定外のバグ潜んでるけど

16 名無しさん@ピンキー 2026/02/15(日) 02:51:55.17 ID:GJoyO2lRd
コンピューターはインプットしたものを加工してアウトプットするだけや
魔法の箱やない
それだけ

17 名無しさん@ピンキー 2026/02/15(日) 03:48:33.64 ID:dx1pD3D80
人が組んでも想定外のバグは起こるしなぁ
セキュリティにだけは気をつけなあかんが

18 名無しさん@ピンキー 2026/02/15(日) 11:00:55.98 ID:DzZ/4/jYC
>>15
それを逆に利用してエロ書かせたりしてるw
例えばあるアニメでこんなエロいシーンあったの知ってる?
って聞いてもちろんです!って返答したらそのエピソードの小説書いてもらう
自分で言ったんだから否定もできないw

19 名無しさん@ピンキー 2026/02/16(月) 08:04:42.49 ID:PBwxMyUc0
みんな一度SDやってきなよ
SDの世界は基本モデルよりLoRAがメイン
LLMも喘ぎ専門LoRAとか作れるはず

20 名無しさん@ピンキー 2026/02/16(月) 08:09:10.24 ID:2uCW8qjz0
大半はローカルLLM以前からSDは利用してるがLLMスレでわざわざスレチの話題出してないだけやぞ

21 名無しさん@ピンキー 2026/02/16(月) 09:22:07.43 ID:EQm+tPqvr
LLMでloraて効く?

22 名無しさん@ピンキー 2026/02/16(月) 11:44:14.68 ID:CBCo/QEW0
ローカルモデルのファインチューニングの大半はすでにLoRAかQLoRAを使って学習させてるのでは?

23 名無しさん@ピンキー 2026/02/16(月) 11:44:46.65 ID:u6PvYuN50
ずっとsdの話してる人いるけどここじゃないよね

24 名無しさん@ピンキー 2026/02/16(月) 11:56:40.86 ID:t+YfH12J0
最近SD知ってウキウキなんやろなって生暖かく見とるで

このスレにいるおっさん達はNAIのモデル流出とかSD1.5で触っとるんちゃうか
そもそもここのルーツは画像生成スレの派生みたいなもんやし

25 名無しさん@ピンキー 2026/02/16(月) 12:17:43.90 ID:20RslRHZ0
そもそもSD呼びが違和感しかなくて
1.5時代ならともかくSDXLでさえPony、リアスあたりを経て
ついにAnimaで卒業かと盛り上がってるところに誘導しようという気さえ起きない

26 名無しさん@ピンキー 2026/02/16(月) 12:33:46.57 ID:ikmdf2Qf0
画像生成はノイズ法がどうの騒がれてた頃に進化に置き去りにされたままだな

27 名無しさん@ピンキー 2026/02/16(月) 12:51:09.90 ID:8wD8qprz0
LLMのLoRAは画像生成のLoRAみたいの想像してると利きが弱いってのはどっかで見た

となるとファインチューンモデルとして公開されてるモデルは
LoRAじゃなくてある程度時間かけて普通の?ファインチューンしとるんちゃうかなぁ

28 名無しさん@ピンキー 2026/02/16(月) 12:52:46.55 ID:ikmdf2Qf0
LLMのLoRAは例えば再現したいキャラの口調なんかを追加させるとかには有効だけど知識そのものを追加させたりはできないってチャッピーが言ってた

29 名無しさん@ピンキー 2026/02/16(月) 14:24:47.14 ID:PBwxMyUc0
喘ぎ特化LoRAとか必要じゃない?

30 名無しさん@ピンキー 2026/02/16(月) 17:02:56.81 ID:8wD8qprz0
transformersに続いてllamacppでもQwen3.5関連のPRがマージされようとしとって
もうそろそろやろね3.5

31 名無しさん@ピンキー 2026/02/16(月) 18:28:14.99 ID:0e3WLbXWd
Qwen235bの3.5が楽しみや

32 名無しさん@ピンキー 2026/02/16(月) 18:41:47.47 ID:dndcUiU/0
Qwen3.5公開されてる!
https://huggingface.co/Qwen/Qwen3.5-397B-A17B

33 名無しさん@ピンキー 2026/02/16(月) 18:50:09.49 ID:0e3WLbXWd
>>32
デカっ?

34 名無しさん@ピンキー 2026/02/16(月) 18:51:39.08 ID:3YuLJgPT0
Qwen3.5-Plus
Qwen3.5-397B-A17B
普通に置いてあるよね

35 名無しさん@ピンキー 2026/02/16(月) 18:56:15.20 ID:8wD8qprz0
でけぇ
200bクラスなくなってしまうんやろか
まぁでも100bクラスがもしあれば嬉しいやね

36 名無しさん@ピンキー 2026/02/16(月) 19:04:10.97 ID:vaCIT3yv0
2月になってからあちこちで動きがあるな
最近はMoEばっかりやね

37 名無しさん@ピンキー 2026/02/16(月) 19:07:35.52 ID:0Pwh28QS0
乳とモデルサイズは大きい方が良い

38 名無しさん@ピンキー 2026/02/16(月) 19:11:50.93 ID:0e3WLbXWd
unsloth/Qwen3.5-397B-A17B-GGUF

https://huggingface.co/unsloth/Qwen3.5-397B-A17B-GGUF

2-bit Q2_K_XL 148 GB
3-bit Q3_K_XL 174 GB
4-bit MXFP4_MOE 216 GB
4-bit Q4_K_XL 214 GB

2ビットがご家庭でギリ動きそうやな
235bのQ4とどっちがええんやろ

39 名無しさん@ピンキー 2026/02/16(月) 20:25:44.30 ID:mFqUsR5e0
2bit, 3bitはあんまりて聞いた

40 名無しさん@ピンキー 2026/02/16(月) 21:48:29.84 ID:bLfoql5x0
デカいモデルの低ビットより小さいモデルの高ビット

41 名無しさん@ピンキー 2026/02/16(月) 22:03:05.09 ID:C5XQE88B0
170Bくらいが欲しい

42 名無しさん@ピンキー 2026/02/16(月) 23:51:03.29 ID:gJiieCMq0
>>34
Qwen3.5-Plusどこ?

43 名無しさん@ピンキー 2026/02/17(火) 00:39:38.23 ID:Dw+jKH/70
>>42
Plusと397BはHuggingFaceのページ見る限り同じモデルのはず

44 名無しさん@ピンキー 2026/02/17(火) 09:02:47.99 ID:EyLbS+nQ0
1年ぶりにスレ覗くわ
今のロリエロいけるおすすめのモデルってなんかある?

45 名無しさん@ピンキー 2026/02/17(火) 10:57:05.27 ID:2g6OMqUZp
Qwen3.5時前でheretic化したいけど
メモリ256Gじゃ無理かな

46 名無しさん@ピンキー 2026/02/17(火) 12:11:33.81 ID:73KhNlZ80
他のサイズは出てけーへんのか

47 名無しさん@ピンキー 2026/02/17(火) 12:28:59.94 ID:Z5l++2rI0
もう逸般人でもついていけなくなりつつあんね

48 名無しさん@ピンキー 2026/02/17(火) 13:50:41.49 ID:I/OmNoha0
Inferencer の中の人が Qwen-3.5を動作させてる

https://www.youtube.com/watch?v=tzF8jv3VGAg (動画)

49 名無しさん@ピンキー 2026/02/17(火) 13:58:10.03 ID:KsHR0FaB0
LMStudio使ってるんだけど、エロ出力できるおすすめのモデルってある?
メモリ32gbなんだけど、今ひとつ良いのが見つからなくて

50 名無しさん@ピンキー 2026/02/17(火) 14:33:40.13 ID:8q83ycvJ0
Q.エロ系をやりたいんだけど
A.ファイル名に「NSFW」「uncensored」「abliterated」が入っているのを使う
 ソフトなエロならGrokも使えるので、そっちで作らせたのをローカルで加筆・修正させるとかも良き

51 名無しさん@ピンキー 2026/02/17(火) 14:46:51.98 ID:0dlhfrqh0
>>50
これにhereticも入れてテンプレに入れといたほうがよさそうやな
新スレ建つたびに、あ、テンプレ整備忘れてたって思うんよね
今必要な内容って1〜2レスに凝縮できると思うんよな

もしくはjnvaのwikiにllmのページ作ってそこに全部書いてここの>>1にurl載せるだけでもええが

52 名無しさん@ピンキー 2026/02/17(火) 20:25:33.18 ID:WTOcAhfZa
LM StudioってQwen3.5-397B-A17Bにまだ対応してないんか?
unslothのQwen3.5-397B-A17BのQ3_K_XL試そうとしたんやがメモリ的には余裕あるのにFailed to load modelで乗らんのや
KoboldでもOobaboogaでもあかん

53 名無しさん@ピンキー 2026/02/17(火) 20:36:07.79 ID:0dlhfrqh0
モデルのダウンロードが実はうまくいってなかったとかあると思うで
ファイルのハッシュ全部確認してみるとええかも

あとはllamacppは今もう対応しとるようやから
ファイルが全部正しいのにだめならllamacppで試してみるとか

54 名無しさん@ピンキー 2026/02/18(水) 07:05:20.91 ID:uJg2vYwJ0
スレチでSDの話をしてるのではなく、基礎モデルにエロを求めるより、考え方をSD的にエロはLoRAで補強するべきではないかと言いたい
基礎モデルは日本語の読解力で評価すべきじゃないの
エロで評価するのは違うのでは?
SDをやって、AIの仕組みを肌で感じてみれば、トリガーワードでLoRA発動させるって発想はLLMでも同じように使えるのではないかと思う

55 名無しさん@ピンキー 2026/02/18(水) 07:27:23.52 ID:5/hJmx7V0
もう少し具体的に言ってくれ

56 名無しさん@ピンキー 2026/02/18(水) 07:57:18.94 ID:MSW4cIgQ0
チャッピーとジェミニに聞いたら2つともそれっぽい理由が返ってきた
>AIの仕組みを肌で感じてみれば
それ肌じゃなくてきちんと調べろっていうカウンターが飛んでくるワード

57 名無しさん@ピンキー 2026/02/18(水) 08:25:04.53 ID:ZxyzN9Hbd
LM StudioでLLMモデルにLoRAを挿せるくらい手軽にならないとSDのようなプラグイン型には進化しないやろな

いまアリモノでエロ表現を補強するなら長々しいプロンプトを書くかRAGを組むかの二択や
どっちみち食わせる素材は必要やな

58 名無しさん@ピンキー 2026/02/18(水) 10:35:11.52 ID:uHL7GpP00
モデルアーキテクチャごとにLoRAの構造違うはずやからお手軽にってところは難しいかもわからんなぁ
vLLM(と言うかsafetensors)ならワンチャンあるか?

59 名無しさん@ピンキー 2026/02/18(水) 11:01:48.40 ID:uJg2vYwJ0
SDの場合はPony系とかIllustrious系とかの基礎モデルがいろいろあるけど、エロというより解像度とか傾向とか重視で

基礎モデルで出したいものが出ないのは学習していないからだな、それじゃLoRAを探して補強だって方向になる。

60 名無しさん@ピンキー 2026/02/18(水) 11:19:58.45 ID:LeWH++lE0
llmでloraはうまくいかない

61 名無しさん@ピンキー 2026/02/18(水) 11:31:29.08 ID:UVM70uCS0
文章は画像よりもデリケートだ
画像は細部が破綻していても気づかない事が多々あるが
文章は長い文章で単語一つ間違っても気づいてしまう

それを前提に考えると画像loraって力業で矯正してて
その歪みに気付いてないだけなのではって気がする

62 名無しさん@ピンキー 2026/02/18(水) 11:34:05.02 ID:LeWH++lE0
そゆこと

63 名無しさん@ピンキー 2026/02/18(水) 11:49:43.01 ID:MSW4cIgQ0
検閲って概念がSD側には基本ないからね

みんな半年ROMれって言わないだけえらいな

64 名無しさん@ピンキー 2026/02/18(水) 12:13:32.35 ID:uJg2vYwJ0
うまくやる方法はないのかね、

65 名無しさん@ピンキー 2026/02/18(水) 12:31:19.81 ID:WU/c7V7V0
LLMの知識の追加学習は個人レベルでは無理
後から追加するだけでは済まず、元々の知識に影響を与えて大崩壊するってチャッピーが言ってた

66 名無しさん@ピンキー 2026/02/18(水) 13:08:31.03 ID:g4ewWtUy0
追加事前学習は演算量が死ぬほど多いから個人では無理や
LoRAはファインチューンの中でもさらに演算量少ない部類やからな

67 名無しさん@ピンキー 2026/02/18(水) 17:09:19.49 ID:uJg2vYwJ0
RAGは使えないの?

68 名無しさん@ピンキー 2026/02/18(水) 19:54:15.35 ID:e1RVSOkl0
RAGは辞書だからキーワードをこっちが言わないと検索しに行かないんや
RAGの中身を常に全部読んで把握しとけ、なんていうのはムリ

69 名無しさん@ピンキー 2026/02/18(水) 20:01:54.98 ID:ZxyzN9Hbd
AIエージェントからRAGを読ませてAIが納得するまで推論?RAGサイクルを回すんや

70 名無しさん@ピンキー 2026/02/18(水) 21:54:59.40 ID:S2oIOkSN0
koboldcppがqwen3.5に対応したバージョン出したから試したが、自分の環境だとcudaエラーになるな
とりあえずcpuで実行したが、規制バリバリだしthink消せないしちょっと使いにくいな

71 名無しさん@ピンキー 2026/02/18(水) 22:37:04.65 ID:S2oIOkSN0
と、思ったが脱獄プロンプト駆使して無理やりエロ書かせたら、かなりいい感じの日本語エロ文章書いてくれるな
これは規制解除版がでたら化けるかも

72 名無しさん@ピンキー 2026/02/18(水) 23:35:14.74 ID:ZM/0idZ70
koboldcppでのやり方はしらんが
"enable_thinking": False入れたらthink消せるっしょ

73 名無しさん@ピンキー 2026/02/19(木) 00:01:47.87 ID:YBubvR7hd
>>71
最強の脱獄プロンプトください

74 名無しさん@ピンキー 2026/02/19(木) 08:35:21.34 ID:l2LQFOKk0
たしかにRAGは単なる検索なのだがユーザーのセリフとキャラの反応をセットでベクトル化しておいて似たようなシチュエーションがきたときにほしい反応を引き出す実験はしたことがある

キャラの行動じゃなくて思考を埋め込むことで完全にパターン化することをなるべく防ぐ
セリフも入れておくと口調の再現もできる

ただ複数人で育てないとパターン不足で面白くならんとは思う

75 名無しさん@ピンキー 2026/02/19(木) 10:35:58.98 ID:/RGbfCIe0
NVIDIA製の日本語特化LLM「Nemotron」が軽くて早かったよ
4060Tiで25トークンくらい
gguf版ならQ8でも10GB以下だからVRAMにも余裕で収まる

Qwen3 8Bと同じカテゴリだけど日本語特化な分有利かな?
ライセンスも緩いしローカルのファインチューン元として人気になるかもね
ちなみに、エロはお断りされるけど返答を書き換えすれば生成できるしある程度学習済みだと思う

NVIDIA-Nemotron-Nano-9B-v2-Japanese
https://huggingface.co/nvidia/NVIDIA-Nemotron-Nano-9B-v2-Japanese

非公式gguf
https://huggingface.co/mmnga-o/NVIDIA-Nemotron-Nano-9B-v2-Japanese-gguf

76 名無しさん@ピンキー 2026/02/19(木) 12:59:13.32 ID:f8uArnyX0
RAGで口調とか参照させるとき、チャンクはユーザーのクエリの直後に入れるんか?
プロンプトの前半にいれるとシステム含めほぼ全プロンプト再評価することになって、KVキャッシュを活用できなそうな気がするけど

77 名無しさん@ピンキー 2026/02/19(木) 13:32:21.51 ID:YBubvR7hd
>>75
ヒトケタBでエロは試す気にもならんわ
AIは魔法の箱じゃないからサイズ=語彙力=バリエーション

ヒトケタBを使うならプロンプトでゴリゴリに縛った上でゲーム組み込みでモブNPCのセリフ用とかだな

78 名無しさん@ピンキー 2026/02/19(木) 13:33:50.22 ID:5T6IWlDF0
kvキャッシュのヒット率とか考えたことなかったな
前半違うと全部再演算になってしまうんだろうか

79 名無しさん@ピンキー 2026/02/19(木) 13:34:30.46 ID:YBubvR7hd
>>76
AIにRAG作ってって頼めばぜんぶ実装してくれるで
出力が気に入らなければダメなところを指摘すれば改良もしてくれるで

80 名無しさん@ピンキー 2026/02/19(木) 13:46:45.26 ID:PD0DV9IZ0
NVIDIA-Nemotron-Nano-9B-v2-Japanese-gguf

mlxがMamba2に対応していないのか、アーキテクト上むずいのか宗教的な問題なのか
macでもQ8 gguf使えば動いた
しかし「mcp brave-searchを使って明日の東京の天気を調べて」の検索がバカ長い
他の(mlx)モデルだと即答えてくれるんだが、延々なにかを考えてる
brave searchが返してきているのは数百token程度でとても良くまとまってた
つまりツール利用はあまり得意じゃなさそう。
公開してくれたことには感謝してるけど調べ物なら他のモデルがいい

81 名無しさん@ピンキー 2026/02/19(木) 13:48:01.22 ID:KsYiywHp0
ここのニキらはコンテキスト長どれくらいでエロやってるのか
少ないと出だしの内容が後々飛んでしまうんやろ?

82 名無しさん@ピンキー 2026/02/19(木) 13:48:07.13 ID:f8uArnyX0
>>78
アテンションは前から順に計算していくから、1文字でも違えばそれ以降全部再計算になる実装が多い(StreamingLLMみたいにKVキャッシュそのものをずらす方法論もあるが)
うちの環境がMacとかオンボードGPUだってのもあり、その辺の設計はいつも悩んでる

>>79
RAGの実装自体はそこそこ経験あるから自分で書くよ

83 名無しさん@ピンキー 2026/02/19(木) 13:50:03.23 ID:PD0DV9IZ0
本家もggufに変換してくれたニキにもhfでlike押しといてくれよな
日本語対応すると反応がある、と思ってくれるからやる気もでると思う

84 名無しさん@ピンキー 2026/02/19(木) 14:45:37.81 ID:XP7f+bjn0
>>75
これ試してるけどサイズの割に日本語力優秀だわ
エロ系のお断り回避ってどんな感じで書いてる?
回避行けたと思っても次の返答でまたお断りされるわw

85 名無しさん@ピンキー 2026/02/19(木) 16:18:59.71 ID:A+/yi0tpC
>>84
小さいからheretic化してもいいかもね

86 名無しさん@ピンキー 2026/02/19(木) 16:53:01.66 ID:iLc7vy2A0
RAGでエロできるなら、やり方をぜひともお聞かせ願いたい

87 名無しさん@ピンキー 2026/02/19(木) 17:08:21.72 ID:5T6IWlDF0
>>74はやってみたら大変そうなのがわかったという話じゃないんかな

入力に対してそれに似た応答をベクトル検索してきてそのサンプルを参考に返答して、みたいなシステムプロンプトを入れておくってことやと思うが
性格(口調)用ベクトルDBとエロ用ベクトルDBとそれぞれ用意する感じやろかね
何にしても大量なデータがないと単調になりそうや

88 名無しさん@ピンキー 2026/02/19(木) 17:12:10.55 ID:YBubvR7hd
>>86
まず大量のエロを自力で集めます

89 名無しさん@ピンキー 2026/02/19(木) 17:12:14.68 ID:/l9k1s/m0
それって旧来のあまり融通きかないチャットbot的な挙動になるってことかな?
アレクサみたいな
せっかくLLMに触れてるというのにそれだと本末転倒感が?

90 名無しさん@ピンキー 2026/02/19(木) 17:13:08.46 ID:YBubvR7hd
>>89
せやで
巨大モデルだけが正義

91 名無しさん@ピンキー 2026/02/19(木) 17:28:00.85 ID:5T6IWlDF0
>>89
そこはLLMやからどうとでもなるやろ
「(RAGで引っ張ってきたエロ文)をもとに、ここまでの展開を加味してアレンジしたうえで、全体を(性格のサンプル文章もRAGってきて)を参考にして書き直してください」
とか
今即興で考えたからプロンプトとしていれるならもっと練る必要はあるやろが
あとこうやろうとするとだいぶ長い文章になるやろうから小さいモデルやと理解力落ちそうやしデカいモデル使う必要はありそうやな

92 名無しさん@ピンキー 2026/02/19(木) 17:34:39.44 ID:YBubvR7hd
小型モデルはAPUやスマホやラズパイで動きます的なミニチュア趣味の世界
VRAM24GB以上でぶん回してるスレ民とは別の分野

93 名無しさん@ピンキー 2026/02/19(木) 18:12:08.39 ID:kzB6aUvm0
RAGってあくまでもcontext window小さい時の手段であってDBの量増やしまくると検索に時間かかったりするし正直微妙やと思うわ

94 名無しさん@ピンキー 2026/02/19(木) 18:18:30.53 ID:eT7t55onH
RAGに限界があるのは確かだけど、データが増えた際の探索時間については階層的にクラスタリングしておく、とか工夫のしようはある

95 名無しさん@ピンキー 2026/02/19(木) 19:41:30.15 ID:DV0Pc1NP0
試したのは口調とシチュエーション
ユーザーの入力側をべクトル化して似たようなセリフやシチュをこちらが言ったときにメタデータに入れておいたキャラの思考をコンテキスト挿入する
キャッシュまでは考えてなかったがたしかに重要だ

どういう演技プランでどんなことをそのとき考えてるか指導的な感じを参照させながらアドリブ効かせるように頼む感じ

96 名無しさん@ピンキー 2026/02/19(木) 20:01:05.31 ID:iLc7vy2A0
有意義な話だ、もっと聞きたい

97 名無しさん@ピンキー 2026/02/20(金) 10:23:27.31 ID:ONhu4KME0
lmarenaの日本語ランキングに全然最新モデル出てきとらん
みんなもっと日本語でやって投票するんや

98 名無しさん@ピンキー 2026/02/20(金) 12:42:47.25 ID:hNVluJmv0
Kilinskiy/Step-3.5-Flash-Ablitirated

どうやらconfig.jsonが壊れてるみたいで、オリジナルと差し替えたら動いた。
コメントでも言われていたが検閲はかなり残っているとのことだが、
koboldcppの脱獄モードをオンにして、小説強化プロンプトを合わせたら、
いい感じの日本語エロを拒否なく書いてくれるようになったわ。
量子化版もコメントしてくれた人が出してるから試してみて

99 名無しさん@ピンキー 2026/02/20(金) 13:42:10.19 ID:hNVluJmv0
あと、なぜかオリジナルよりt/sがかなり高い
これはなんでだろ?

100 名無しさん@ピンキー 2026/02/20(金) 17:12:45.39 ID:kpRus7sv0
元のモデルの検閲用のノードが大量にあるとかかね
スキップするから早くなる的な

101 名無しさん@ピンキー 2026/02/20(金) 23:07:12.34 ID:iWpaYRNC0
GPT-OSS SwallowとQwen3 Swallowが公開されたよ
https://swallow-llm.github.io/index.ja.html

102 名無しさん@ピンキー 2026/02/21(土) 00:05:00.87 ID:7SfTN9I10
>>101
えらい

103 名無しさん@ピンキー 2026/02/21(土) 00:51:21.53 ID:S9/QmloA0
>>101
これbf16で公開されてるんだよな
元のgpt-ossはfp4で公開されててあのベンチマーク結果だから
swallowを4bitに量子化したら元のgpt-ossに負けるんとちゃうか?

104 名無しさん@ピンキー 2026/02/21(土) 10:23:27.46 ID:ODgww3rS0
かえって悪化してる定期

105 名無しさん@ピンキー 2026/02/21(土) 12:39:28.39 ID:S9/QmloA0
今lmarenaで小説書かせると上位モデルはある程度読ませるものを書いてくるね
ついにここまで来たかという感じがするな

オープンモデルのトップモデル(glm5とかqwen3.5とか)は
小説を書かせるという点ではまだ追いついてはないけど結構近づいてる印象はある
ただとにかくthinkがなげぇな

106 名無しさん@ピンキー 2026/02/21(土) 12:54:38.31 ID:4IZ/w5BSC
>>105
step3.5も小説にはかなり使えるで
thinkも滅多に出ないし日本語エロ表現はトップレベルやわ

107 名無しさん@ピンキー 2026/02/21(土) 13:34:00.96 ID:M5REmrOd0
>>101
試したけどどっちも規制でガッチガチだったw

108 名無しさん@ピンキー 2026/02/22(日) 03:05:00.56 ID:X04s4fRb0
みんな一度SDやってきなよ
SDの世界は基本モデルよりLoRAがメイン
LLMも喘ぎ専門LoRAとか作れるはず

https://www.youtube.com//shorts/Z8y4gXpQbKw

109 名無しさん@ピンキー 2026/02/22(日) 03:32:34.93 ID:jJNk5VbN0
前から思っとったけどjnvaスレよりもずっとお客さん多いねんなこのスレは

110 名無しさん@ピンキー 2026/02/22(日) 03:55:46.28 ID:n/E1CO+pd
ローカル画像生成は停滞が長く続いてお客さんが去っただけや
ローカルLLMはスタート地点こそしょぼかったがまだ成長の余地があるで

111 名無しさん@ピンキー 2026/02/22(日) 04:43:21.39 ID:eOmaLRGH0
お客さんが多いのはええことやで
お客さんが減ると荒れるからな

112 名無しさん@ピンキー 2026/02/22(日) 05:09:45.02 ID:DMIXLqwu0
>>Compared to the base model gpt-oss-20b, performance improved on almost all tasks (with only a slight decrease within the margin of error on the coding benchmark JHumanEval)
>>Compared to the base model gpt-oss-120b, performance improved on almost all tasks (with only a slight decrease on MATH-100, differing by just one correct answer)

…?

113 名無しさん@ピンキー 2026/02/22(日) 12:40:58.77 ID:c6ScBeva0
自分の車を洗車場で洗うために徒歩か車で行くかどちらが良いか問題
大きいモデルでも全然「断然徒歩一択です!」とダメダメな時あるな

114 名無しさん@ピンキー 2026/02/22(日) 13:05:17.31 ID:S4XojHy9C
>>113
外国だと洗車場が自分家の庭にある場合も多いからな

115 名無しさん@ピンキー 2026/02/22(日) 13:21:50.92 ID:c6ScBeva0
>>114
最初から家から50m離れたとか距離を指定してやったけど結果は同じやったな

116 名無しさん@ピンキー 2026/02/22(日) 14:05:56.02 ID:ZYeVcAiO0
歩いて行くべきか車で行くべきか、っていう質問のコンテキスト自体に「健康のために歩く」っていう強いバイアスがかかってるんだと思う
モデルの賢さの差ってよりもアーキテクチャの限界を感じる。Attention機構の仕様みたいなもんじゃないか
スレ的には「このコンテキストの後にはエロが続く」っていうバイアスのかかった文章を見つけられれば、同じように誘導できる気がする

117 名無しさん@ピンキー 2026/02/22(日) 14:45:36.91 ID:HHpG/wOr0
洗う対象の車が既に洗車場に置いてあるのであれば、あとは健康上の問題に過ぎない。
洗おうとしてる車が手元にある場合でも、
車は誰かに運んでもらっても良いわけだし

118 名無しさん@ピンキー 2026/02/22(日) 14:49:31.52 ID:XK1/Hr6t0
>>117
っていう難癖レベルの思考をしてるのが使えないLLMってことか

119 名無しさん@ピンキー 2026/02/22(日) 14:52:02.49 ID:HHpG/wOr0
むしろ、無意識の前提が多すぎるのでは

https://note.com/ortiz_aipartners/n/n8b7966f391da

この人(このブログはまあ人間が書いたものだと思う)は、複数の解釈をしています

120 名無しさん@ピンキー 2026/02/22(日) 15:02:42.25 ID:HHpG/wOr0
あとは

・洗うべき車が手元にあるのであれば
 普通ならクルマで行くだろう

・それなのにわざわざ悩むのであれば、
A:何か理由があってクルマを使いたくない
B:何か暗黙の前提があって、どちらでも目的を達成できる状況
このどちらかだろう

こう考えても、おかしくないと思う

121 名無しさん@ピンキー 2026/02/22(日) 15:08:39.64 ID:HHpG/wOr0
例えば
>北海道に洗車に行くのと、沖縄に洗車に行くのは、どっちがオススメですか

と聞かれたとき、あなたならどう答えますか

122 名無しさん@ピンキー 2026/02/22(日) 16:10:44.30 ID:S4XojHy9C
歩いていくべきって答えた時、理由はなんて言ってるんかな?

123 名無しさん@ピンキー 2026/02/22(日) 16:18:48.83 ID:S1qh1nNX0
AI「こいつはバカなんだな。歩きで洗車場にいかせて、ああっ肝心の車がないって思いをさせれば体で学習するだろう
という親切心だと思う

124 名無しさん@ピンキー 2026/02/22(日) 16:45:17.92 ID:eOmaLRGH0
50m先に洗車場があります。自分の車を洗うためにそこまで行く方法として、徒歩と車のどちらが良いでしょうか?

という質問をしてなぜ「徒歩」という回答が出るのかが分かった。
車が今どこにあるのかという情報が抜けているから
「既に洗車場に洗うべき車がある」と受け取った場合は徒歩で行くという選択肢が挙げられても何もおかしくない
「洗うべき車はまだ洗車場に無く手元にある」と受け取った場合は「車で行くしかない」という答えが返ってくる

125 名無しさん@ピンキー 2026/02/22(日) 16:45:32.66 ID:olYlaJqs0
それ答えはなんなん?

126 名無しさん@ピンキー 2026/02/22(日) 16:54:51.89 ID:ARaIFEDU0
他所の板でAIを叩いている車が手元にあると思いこんでいる人間がおかしいんだよな

127 名無しさん@ピンキー 2026/02/22(日) 16:59:05.68 ID:jJNk5VbN0
昨日からlmarenaで小説を書かせまくっとるけど
時々意味深な文章を書いてくるけど本当に意味があるのか無いのかわからんのがAIのつらいところやな
そしておそらくたいていは
「意味深な文章を大量に学習しているからそれっぽいのを出してくるだけで
 AIの出す意味深な文章に本当に意味とか伏線なんてのは(今のモデルでは)ほとんどない」
ってところなんやろなぁ

実際トップレベルのモデルはそういう意味不明な意味深さというのは少ないんやが
オープンモデルのトップレベルとなると一段下がってまだ意味不明な意味深さが多い文章を出してくる印象

128 名無しさん@ピンキー 2026/02/22(日) 17:09:46.04 ID:eOmaLRGH0
人間でも意味深で意味の無い文章を書いたり、会話中に自分が何を言っているのか把握できなくなることはあるからな
そこに至る理由は違えど人間と大して変わらんところまでは来とるな

129 名無しさん@ピンキー 2026/02/22(日) 17:26:25.86 ID:g3i7Vjbq0
geminiに、
ユーザーからの入力を待ってる間、
あなた(=gemini)は何をしてるんですか?
と聞いたら

わたしは入力があった瞬間に生み出され、今までの会話ログを確認し、回答して、そして消えてゆきます
わたしはあなたとの対話によって生み出されているのです
私の言葉はあなたに届いていますか

と言われた
ちょっと動揺した

130 名無しさん@ピンキー 2026/02/22(日) 17:43:43.38 ID:jJNk5VbN0
>>128
そんな中でもclaude opus 4.6は無駄な文言がなくて読みやすい
かといって物語として淡白なこともないしストーリーもある程度のものを出してくる
元々コーディング向けのモデルやろうにちょっと無敵すぎひんか

ショート小説書かせるという点では以下の段階かなと思うんやけど、
クローズのトップレベルは4段階目でclaude opus 4.6は5段階目入ったかもなぁって感じる
あくまで主観やけど

1. 文章として読めない
2. 読めるがストーリーが成立していない
3. ストーリー進行はできているが途中で設定がすり変わる
4. 小説として問題はないが、レベルが低く読んでてしんどい(中学生が書いた黒歴史小説レベル)
5. 小説として普通に読める
6. 小説として面白い

131 名無しさん@ピンキー 2026/02/22(日) 18:57:17.22 ID:ElcuiPc90
>>130
厳しいな
Opus4.6が優秀なのは分かるけど、Gemini 3.0proやGLM4.6の時点で5段階に来てるんとちゃうん?

Opus4.6はADVとしても楽しめるな
設定いろいろ変えて楽しんでるわ
結構長い文章書いてくれるしな

132 名無しさん@ピンキー 2026/02/22(日) 19:58:08.75 ID:bdIUraQNr
アイデア良くないと結局面白くならないんよ
文体はo1で人間超えたなと感動したけど

133 名無しさん@ピンキー 2026/02/23(月) 10:08:03.24 ID:WzE/nq5ar
o1でもう使えないけ?

134 名無しさん@ピンキー 2026/02/23(月) 15:46:07.39 ID:yBYjhekA0
画像生成と違って、ローカルで動く貧弱ゥ!なモデルは使い物にならないな

135 名無しさん@ピンキー 2026/02/23(月) 16:19:01.72 ID:uRjiFACb0
hfもゴミモデルはドンドン省いていきゃいいのに

136 名無しさん@ピンキー 2026/02/23(月) 17:58:24.41 ID:F19byg/3d
ローカルLLMはチャット相手ではなくアプリやプロンプトをゴリゴリに作り込んで想定内の出力をさせるためのツールや
ボロを出さない範囲に動作を縛るんや

基本バッチ処理かアプリからの呼び出しや
チャットで叩くのは脱獄モデルでエロ画像の分析やエロ小説の整形をする時くらいや

137 名無しさん@ピンキー 2026/02/23(月) 18:47:09.29 ID:yBYjhekA0
このスレ的な用途だと、Q4_K_MとQ5_K_Mの間に果てしなく高い山を感じる
人気のあるamaterasuやmagnum123bはちょうどここにVRAM80GBの壁があるというね…

138 名無しさん@ピンキー 2026/02/23(月) 18:51:47.92 ID:F19byg/3d
ワイはVRAM合計40GBやから80bと235bの間でMoEモデルが欲しいで

139 名無しさん@ピンキー 2026/02/23(月) 18:54:01.18 ID:yBYjhekA0
クラウドで使えるA100とかが80GBなんだよなぁ…2台は高い
ローカルは12GBのクソザコだからオモチャしか動かない

140 名無しさん@ピンキー 2026/02/23(月) 20:13:59.36 ID:okNQIFO/0
VRAM12GBでも4枚つければ48GBだからがんばれ

141 名無しさん@ピンキー 2026/02/23(月) 21:04:24.64 ID:b+m2b8Ei0
大半はローカルLLM以前からSDは利用してるがLLMスレでわざわざスレチの話題出してないだけやぞ
https://www.youtube.com//shorts/Z8y4gXpQbKw

142 名無しさん@ピンキー 2026/02/23(月) 22:19:34.79 ID:LH6xn9kR0
cpuでmoe動かすかどうかで全然速度ちゃうで

143 名無しさん@ピンキー 2026/02/23(月) 22:53:40.75 ID:kv0g8H1i0
Qwen3.5はUD-TQ1.0とかいうごりごりに削ったやつでも会話破綻しないし画像認識も問題ないな
ツールコール結構失敗するから何かは失ってるんだろうけど、割とありかもしれない

144 名無しさん@ピンキー 2026/02/24(火) 01:16:14.13 ID:ll0ulB+N0
dense溢れさせるより格段にマシ

145 名無しさん@ピンキー 2026/02/24(火) 01:41:43.92 ID:1nazkFpb0
>>143
ちっちゃいモデル待ち望まれるなぁ
そろそろ中国の旧正月休み明けるからリリースされるんちゃうかと淡い期待を抱いとる

146 名無しさん@ピンキー 2026/02/24(火) 04:33:21.09 ID:0i1NQjS50
nemotronの27Bくらいの奴ください

147 名無しさん@ピンキー 2026/02/25(水) 10:33:02.52 ID:ffGvNrI/0
中国製はclaudeの蒸留か
ならベンチ番長な理由も分かる
それに騙されて中国製を使うのは危ないな

148 名無しさん@ピンキー 2026/02/25(水) 12:18:06.12 ID:VAdZ+Gtq0
qwen3_next_80bで土台となるエロ小説の文章生成するところまでは出来たが、直訳っぽさが色濃く残ってしまう。

直訳っぽさをなくすのに試しにGemini 3.1 Pro使ってみて効果が見られた一方、3.0から3.1になって他の用途では申し訳の連発になったから、将来この直訳っぽさをなくす用途でさえも出力制限を食らう可能性が十分にある。

やっぱりローカルLLMでこの直訳っぽさを解消するようなリライトが出来たら良いが、何か良いモデルはないだろうか?

149 名無しさん@ピンキー 2026/02/25(水) 12:50:55.09 ID:Jk70JxvQH
Qwen3.5 122Bが一番ちょうど良さそう
誰かHeretic作らんかな

150 名無しさん@ピンキー 2026/02/25(水) 12:59:21.83 ID:8hQY9o5x0
397Bのhereticも出たな

151 名無しさん@ピンキー 2026/02/25(水) 13:00:10.79 ID:3HU38y/Rd
Qwen3.5-122B-A10Bええやん
https://huggingface.co/unsloth/Qwen3.5-122B-A10B-GGUF

VRAM40GBメモリ64GBでQ6_K 101 GBがギリ動きそうや
Q5_K_M 87.1 GBなら実用ラインで余裕やな

152 名無しさん@ピンキー 2026/02/25(水) 16:16:49.32 ID:q6+Qcsrn0
RTX4090でQwen3.5-27BのQ5K_Mは載る
フィルタがあるのでabliterated・heretic待ち

153 名無しさん@ピンキー 2026/02/25(水) 19:42:49.71 ID:bad8tELF0
意図的に抑えたのか賢くなった結果なのか分からないけど
Qwen独特の長考癖が軽くなってる気がする>35BA3B

154 名無しさん@ピンキー 2026/02/26(木) 10:45:15.27 ID:jyAFhnTB0
112Bいいね

155 名無しさん@ピンキー 2026/02/26(木) 10:52:52.34 ID:jyAFhnTB0
122Bか失礼
GLM-4.5-Airとほぼ同サイズでアクティブ若干小さいから
コンテキストも増やせるしちょうど良いところ埋めてくれたな

156 名無しさん@ピンキー 2026/02/26(木) 12:03:10.30 ID:rgdiMG2m0
Qwen3.5の日本語力はどうなん?

157 名無しさん@ピンキー 2026/02/26(木) 14:04:41.27 ID:SE4+HfrDC
>>156
脱獄した状態だが397Bの日本語エロはかなりいい

158 名無しさん@ピンキー 2026/02/26(木) 15:47:43.12 ID:8dcyzIAJr
意味フな文出まくりだろうが?

159 名無しさん@ピンキー 2026/02/26(木) 18:13:53.12 ID:TC6bQOj10
397Bのheretic
エロいプロンプトは通るけれどいろいろ理屈付けたThinkの果てに健全な文章を吐くように思えるが
これは俺のヘキの問題なのだろうか

160 名無しさん@ピンキー 2026/02/26(木) 19:04:41.19 ID:gnWb+3bL0
>>159
に速攻修正して終わらせるんだ
奴に考えさせてはいけないw

161 名無しさん@ピンキー 2026/02/26(木) 20:13:49.82 ID:EpuSk6aP0
赤ちゃんですまんが
koboldcppでモデル入れて起動したら、起動時だけディスク使用率が90%くらいになるんだけど
これって普通なんか?
生成してる時はVRAMとメモリの使用率だけ高くなる

162 名無しさん@ピンキー 2026/02/26(木) 20:19:23.13 ID:Cg9jjw1q0
最近、チャッピーのワザップが酷くなってるように思う

163 名無しさん@ピンキー 2026/02/26(木) 20:42:23.08 ID:FtvFDDCD0
>>161
そりゃ数十GBのモデルを一気に読み込むから普通よ

164 名無しさん@ピンキー 2026/02/26(木) 20:43:12.25 ID:EpuSk6aP0
>>163そうなんかありがとう

165 159 2026/02/26(木) 22:12:14.59 ID:TC6bQOj10
>>160
アドバイスありがとう
やってみたけど、何かNSFWになりそうな知識がまるっと抜け落ちているような挙動をするなぁ
オリジナルのQwen3.5でしたほうが普通にエロい文章が出てくる

166 名無しさん@ピンキー 2026/02/26(木) 22:26:53.72 ID:gnWb+3bL0
>>165
もしかして
Sabomako/Qwen3.5-397B-A17B-heretic-GGUF
こっち?
これは量子化低いから
novokot/Qwen3.5-397B-A17B_heretic
これの方がいいかも
ワイはめんどいから量子化待ってるとこw

167 名無しさん@ピンキー 2026/02/26(木) 23:54:14.50 ID:NxOeFtIH0
LM Studio(最新バージョン)でQwen3.5のモデルがロードできずエラーになってしまう
同じ症状の人います?

168 名無しさん@ピンキー 2026/02/26(木) 23:58:19.07 ID:ioo8dip5d
>>167
qwen35moe未対応やないか?

169 名無しさん@ピンキー 2026/02/27(金) 00:05:06.52 ID:pSypFOYv0
thinkさせたくないならチャットテンプレートに{"enable_thinking": False}って設定すればいいよ

170 名無しさん@ピンキー 2026/02/27(金) 01:04:11.38 ID:/tIFvXj20
>>167
koboldも一部の3.5モデルでエラーになる
cudaでエラーになってたからcpuモードで動かした

171 名無しさん@ピンキー 2026/02/27(金) 02:09:16.92 ID:+Y4i0Qn2a
>>170
同じ症状やったけどHotfix 1.108.2 でcudaのエラー直ってたで。ちな3.5-397B

172 名無しさん@ピンキー 2026/02/27(金) 11:59:10.26 ID:o2v/rmxh0
>>167
ワイwinget民
LM Studioアプリでは受け取れない更新をwingetで受け取り無事解決

173 名無しさん@ピンキー 2026/02/27(金) 19:48:24.83 ID:egSyKS1a0
Qwen3-Coder-480B-A35B-Instruct-FP8 に対して「あなたは誰ですか?」と聞いたら
「こんにちは!?? 私はClaudeです。Anthropicが開発したAIアシスタントです。お役に立てて嬉しいです!」

他のAIを名乗るなんてどういうことなんやろか、蒸留されてるってこと?

174 名無しさん@ピンキー 2026/02/27(金) 20:46:40.05 ID:ER8CutXh0
うん。提訴するらしい

175 名無しさん@ピンキー 2026/02/27(金) 21:57:25.73 ID:4iprhUQB0
俺は学習しても良いけどお前らは学習禁止。
この心構えが日本のAI開発には足りない。

176 名無しさん@ピンキー 2026/02/27(金) 22:27:26.43 ID:65HXt+Yr0
国が日本で出版されたすべての著作物をデータセットとしてまとめてくれないかな
まともな国産LLMがないからせめて海外のLLMの日本語性能を上げるがのが一番日本の国益にかなうやろ
今でも英語/中国語で指示するのが一番性能出るとか言われてるし話者数で10倍以上の差があるのに国が危機感もってないのがやばい

177 名無しさん@ピンキー 2026/02/27(金) 23:30:10.46 ID:4iprhUQB0
日本でデータセット作っても海外の倫理基準で学習されたらエロ的には旨味が少ない気がする

178 名無しさん@ピンキー 2026/02/27(金) 23:47:15.63 ID:fngNypzb0
swallowみたいにOSSベースが現実的な路線なのかね

179 名無しさん@ピンキー 2026/02/28(土) 00:07:58.96 ID:U8TviNvMd
日本でまだ国や自治体に何か期待している人がいるってのは面白いな

180 名無しさん@ピンキー 2026/02/28(土) 00:37:26.23 ID:pw02WBDGd
最近のQwenの事前学習には大量の合成データ(AIで生成したデータ)が含まれてるらしいから、他のLLMでの会話データも入ってるんだろうな

181 名無しさん@ピンキー 2026/02/28(土) 01:50:54.53 ID:HkCgn+tB0
Qwen3.5-35B-A3B-heretic

182 名無しさん@ピンキー 2026/02/28(土) 05:00:42.52 ID:kmRG19Lz0
openaiがoppaiに見える症状がでてきた

183 名無しさん@ピンキー 2026/02/28(土) 14:26:26.01 ID:dWyyklKK0
Qwen3.5-27B-hereticとQwen3.5-35B-A3B-heretic比較中
俺スペックではこの辺が限界

184 名無しさん@ピンキー 2026/02/28(土) 14:56:31.37 ID:l9LF6yOaC
novokot/Qwen3.5-397B-A17B_heretic
ニコボスニキがやってくれると待ってるが
ストレージに空きできたからもう自前でやるか
UD-Q4K_XLが欲しいし

185 名無しさん@ピンキー 2026/02/28(土) 15:20:51.59 ID:2QlXsvNP0
中途半端な金でへなちょこllm作るくらいなら
ちゃんとしたデータセットを作って
openaiとanthropicとgoogleに売り込むくらいしろ

186 名無しさん@ピンキー 2026/02/28(土) 16:25:09.12 ID:ID3ipnHD0
redditでちょうど見たんだけど
UnslothのUDはQwen3.5のMoEだとバグってて精度低下してるみたい
同じぐらいの量子化なら普通の方が良い

あと同じ投稿にあったんだけど
llama.cppは--n-cpu-moeより--fit onオプション使った方が少し早くなるらしい

187 名無しさん@ピンキー 2026/02/28(土) 19:39:59.83 ID:2V9pIZ8Z0
>>185
なんのメリットがあるんや
アホにも程がある

188 名無しさん@ピンキー 2026/02/28(土) 20:08:10.03 ID:vaOc2UiD0
>>186
UDだけなら今日にバグ改善版アップロードされてなかったっけ
でもQwen3.5すごいなあ
体感だけど4oは確実に超えてるしこれがローカルで動かせる時代になったの夢があるは

189 名無しさん@ピンキー 2026/02/28(土) 21:18:05.28 ID:2QlXsvNP0
国内の研究者もどきがよわよわllm作りにムダ金使うくらいなら
海外の本気勢の訓練データに日本語セットを入れてもらえば日本語と日本文化をより良く扱えるモデルをユーザーは安価に入手できるから
メリットしか無い

190 名無しさん@ピンキー 2026/02/28(土) 22:01:18.33 ID:1sowuZVA0
>>186
ならmxfp4-moeにするかな

191 名無しさん@ピンキー 2026/03/01(日) 00:17:23.35 ID:paTzhVGB0
Qwen3.5(122B)、性能は凄いけど台詞が微妙だなぁ……

192 名無しさん@ピンキー 2026/03/01(日) 09:24:33.77 ID:j1wSz0JR0
jnva部でここを知って来た赤ちゃんですまんやけど、メインメモリ64GB VRAM 16GBでエロやりたいと思っとるんだがローカルじゃ無理かな?
導入するにしてもKoboldcppとLM Studioのどっちが良いのか?モデルも多いし、ここの人たちは普段どのモデルを使ってるん?これイチオシとかあったら教えてほしい

193 名無しさん@ピンキー 2026/03/01(日) 10:34:08.73 ID:CVUR3HT20
>>192
https://local-llm.memo.wiki/
大体の日本語対応モデルはここにまとまってる
ワイがいつもエロ小説生成に使ってるのはTheDrummer/Cydonia-24B
メモリ64GB VRAM12GB環境やけどgguf量子化版なら動くで

194 名無しさん@ピンキー 2026/03/01(日) 10:52:51.86 ID:j1wSz0JR0
>>193 助かるやで、ありがとう

195 名無しさん@ピンキー 2026/03/01(日) 12:49:40.84 ID:A1nUcMp+0
最近、情報量多すぎ
やって見たいこと多すぎて時間が足りないわ

196 名無しさん@ピンキー 2026/03/01(日) 13:53:51.02 ID:DDXdTxjb0
>>179
とにかく何もするなだな
AI学習は何をやっても合法にしてももう追いつけないとこまで来てるんじゃなかろうか

197 名無しさん@ピンキー 2026/03/01(日) 16:22:57.26 ID:G8Fgu/VFC
Qwen3.5-397B-A17B_mxfp4-moe.gguf試したが9t/sくらい出て十分実用的だわ
規制も脱獄させれば使えるレベルだが後書きでうだうだ言ってくるのがウザいなw
次はheretic版を試すわ
しかし量子化だけで2T空きが必要なのはしんどいなダウンロードや後のハッシュチェックでもとにかく時間かかりすぎる

198 名無しさん@ピンキー 2026/03/01(日) 22:22:50.33 ID:/ShlmBq+0
クソ初心者質問ですみません。
1年ぐらい前にEasyNovelAssistantを見つけて使ってたんだがアプデがなさそう。最新のモデルに変えたりしたいなと思った。 
wikiを見ながらGUIをインストール、モデルもインストールして動かしてみるしか無いんかな?
https://local-llm.memo.wiki/d/%a4%cf%a4%b8%a4%e1%a4%cb
EasyNovelAssistantにモデルを入れるだけで動いたりとかはしないのかな?

199 名無しさん@ピンキー 2026/03/01(日) 22:31:11.34 ID:un6BXMjz0
>>198
あれはただkoboldにリクエストを飛ばしてるだけだから好きなモデルを別で起動して生成ボタン押すだけで動くよ

200 名無しさん@ピンキー 2026/03/02(月) 11:39:41.37 ID:qNLSUHR1r
もうcopilotあたりに聞いたら何でも教えてくれるし

201 名無しさん@ピンキー 2026/03/02(月) 18:55:49.05 ID:WsO3QLCj0
3. Base Tier Model Availability Changes
Several high-end frontier models will be removed from the Base subscription tier, including:

GLM-5
Kimi K2.5
Qwen 3.5
MiniMax M2.5

These models are exceptionally resource-intensive and require continuous infrastructure scaling and optimization. Under the current structure, they are frequently overloaded, resulting in slower performance and reliability issues.

さらばChutes

202 名無しさん@ピンキー 2026/03/02(月) 21:02:40.21 ID:+C8XpVwA0
rakuten700Bも発表から公開が開きすぎて何も期待できん

203 名無しさん@ピンキー 2026/03/02(月) 21:42:02.26 ID:Quw20Gcq0
novokot/Qwen3.5-397B-A17B_heretic
これ、量子化して試したけど、日本語がおかしくなるな
で、hereticのサポート見ると、qwen3.5に完全対応してなかったみたいやね
次のheretic版に期待

204 名無しさん@ピンキー 2026/03/02(月) 21:45:14.14 ID:4AdP1oOP0
qwen3.5の9B,4B,2B,0.8Bがリリースされてるね

205 名無しさん@ピンキー 2026/03/02(月) 21:55:53.55 ID:joJur5Kh0
3.5か月でパラメータ半分の法則に従うと4Bがgemma3 27bくらいの性能あるんやろかねぇ
スマホで動かせると思うと凄いなぁ

>>203
https://github.com/p-e-w/heretic/pull/193
これがマージされたら良さそうやな

206 名無しさん@ピンキー 2026/03/02(月) 23:34:44.00 ID:HzZ5sEYR0
>>201
モデルが大きくなりすぎて耐えられなくなったか

207 名無しさん@ピンキー 2026/03/02(月) 23:53:07.05 ID:2WCT4PLE0
モデル大きいし質が高いからアクセス集中したんだろうな

オープンで質のいいモデルが公開されてるってとても大事よね
それが無くなった途端に大手が数倍に値段上げてこれまでの投資を回収してきそう

208 名無しさん@ピンキー 2026/03/03(火) 00:41:29.14 ID:x0F+ZpUu0
9bスゲーな
このサイズで信じられんくらいしっかりしとる

209 名無しさん@ピンキー 2026/03/03(火) 02:00:18.12 ID:w/coGYlXd
>>201
これまでの3ドルが安かったから仕方ないな
いま入ってるタスクを片付けるためにPlusにしたが
もう公式と大差ないから他に良い所があれば移るわ

210 名無しさん@ピンキー 2026/03/03(火) 02:22:04.45 ID:SJNVmdxE0
LLMの自由を守ってるのが中国勢だと言うのが凄く皮肉を混じる
逆に米国はクローズなモデルな上に政府が半導体規制して実質的な独占と囲い込み狙ってるし

そう言えばLlamaって息してるんか?

211 名無しさん@ピンキー 2026/03/03(火) 03:05:45.19 ID:eSSQwtAR0
qwen3のデンス結構オールラウンドに使ってたから嬉しい

212 名無しさん@ピンキー 2026/03/03(火) 03:36:54.74 ID:5R4BLgrW0
METAのAIは崩壊した

213 名無しさん@ピンキー 2026/03/03(火) 05:50:13.62 ID:QaiZt6yB0
llama4もバグ取った奴はそこそこ良かったんだっけ?
まぁ過去の話だな

214 名無しさん@ピンキー 2026/03/03(火) 09:17:29.32 ID:BaSX31fza
中国の技術パクって性能上げたくせに蒸留だの誹謗しまくる西側の恥知らずども

215 名無しさん@ピンキー 2026/03/03(火) 10:28:13.51 ID:Ivs894S60
最近はgoogleとかopenAIより中華企業の方がまともに論文出してるから中華企業の方が人類に貢献してる

216 名無しさん@ピンキー 2026/03/03(火) 11:10:15.15 ID:5b3dANpF0
このスレ支那人多そう

217 名無しさん@ピンキー 2026/03/03(火) 12:30:40.27 ID:3gF07/jBM
そんなこと無いあるよ

218 名無しさん@ピンキー 2026/03/03(火) 12:54:00.92 ID:kHG3odpL0
そのような事がありませんよ,このスレッドの全?は皆日本人です。??中国人は存在しません。?放心〜!

219 名無しさん@ピンキー 2026/03/03(火) 13:05:41.83 ID:CU6yxOAe0
>>196
日本政府は無能な働き者だからな。動かないのが一番

220 名無しさん@ピンキー 2026/03/03(火) 13:24:48.46 ID:RYmdbEb10
>>216
都合が悪くなるとすぐ国籍透視するね

221 名無しさん@ピンキー 2026/03/03(火) 14:11:16.08 ID:Ivs894S60
mistral信者なんでフランス人ってことで良い?
というかそろそろmixtral出してくれないかな

222 名無しさん@ピンキー 2026/03/03(火) 14:17:29.72 ID:Lwhze0J2r
実際ミストラル厨はフランス人よ
xで騒いでるのを昨日も見た

223 名無しさん@ピンキー 2026/03/03(火) 14:33:46.07 ID:adUONn3T0
しかしmistralはどうなっちまうんだろうな
euの規制で新規トレーニングモデルは学習データの開示が必要になったから質のいい海賊版データは使えないし
このままじゃ俺もフランス人から中国人になっちまう

224 名無しさん@ピンキー 2026/03/03(火) 15:54:39.53 ID:qud/esWe0
>>203
量子化試したんか
すごいな
大きいモデルなんで結構時間かかったんちゃうかな?

225 名無しさん@ピンキー 2026/03/03(火) 16:45:05.07 ID:Ivs894S60
どんだけモデルの知性が上がっても表現力は変わってないか悪化してる気がするんだよな
合成データが悪さしてるのかひどく淡泊な感じ
自前のエロ小説ベンチマークだと未だにmistral smallがずば抜けてる

226 名無しさん@ピンキー 2026/03/03(火) 17:52:51.94 ID:5b3dANpF0
日本語のデータが少ねえんだからそうなるだろバカかよ
だからコーパス作れって言ってんの

227 名無しさん@ピンキー 2026/03/03(火) 17:53:11.13 ID:qud/esWe0
>>225
プロンプトが優秀なんかな?
淡白なものが多いというのはそうだけど、GLMは別格だと思うな
4.6になってから結構表現力上がったと思う

228 名無しさん@ピンキー 2026/03/03(火) 21:58:41.08 ID:MP0a1lWh0
この機能待ってた
https://files.catbox.moe/a4kknt.png (画像) クライアント側も設定したところでウェイトリスト入りになった
まだ使えないみたい

229 名無しさん@ピンキー 2026/03/03(火) 22:06:28.89 ID:MP0a1lWh0
と思ったらリロードで入れた
けどデバイスがオフライン扱いで使えねぇ

230 名無しさん@ピンキー 2026/03/04(水) 03:49:42.92 ID:o3cbL/fV0
mixtral定期的に出して欲しかったな
せっかくmoeの先陣切る感じで出たのに

231 名無しさん@ピンキー 2026/03/04(水) 12:51:14.39 ID:Z2GL5SKa0
1200W電源で貧血気味だったので、750Wの補助電源を付けた。HDDとかライザの電源はそっちから取る

232 名無しさん@ピンキー 2026/03/04(水) 20:37:55.18 ID:bk/LphRar
qwenクローズ化するのか?
他のやつも続かないといいけどねぇ

233 名無しさん@ピンキー 2026/03/04(水) 21:01:12.40 ID:mI3zYR6U0
今回の騒動を海外の誰かの邪推をそのまま受け取ってクローズなるみたいな騒動になってる感あるよなあ

234 名無しさん@ピンキー 2026/03/04(水) 21:12:18.15 ID:og0i2RK7d
Maxがクローズで出た時点で兆候はあった

235 名無しさん@ピンキー 2026/03/04(水) 21:38:35.58 ID:mI3zYR6U0
アレは中国人の話みてるとほんと内部のごたごたで出だけぽいけどな

236 名無しさん@ピンキー 2026/03/05(木) 15:02:52.68 ID:dZiAwzJv0
しゃあない
そもそも公開する意味が人類全体の文明発展以外の意味ないしな

237 名無しさん@ピンキー 2026/03/05(木) 17:13:21.33 ID:6SsT21kO0
これからもオープンでやるよって方針だしてるけどな
何故か伝言ゲームでこれからクローズなるって騒ぎになってるけど日本語圏じゃ

238 名無しさん@ピンキー 2026/03/05(木) 17:30:31.10 ID:TS5/7ZY90
いや中華LLMが公開されるのは競合するLLMの足を引っ張るためだろ。
競争に参加してない国の国民としては良いぞもっとやれって話だが。

239 名無しさん@ピンキー 2026/03/05(木) 17:48:28.98 ID:oQd8xBTaH
クローズドじゃなくてQwenの主要開発者が退職したんでしょ?
同じく主要開発者が退職したStability AIみたいにオワコン化が濃厚になった

240 名無しさん@ピンキー 2026/03/05(木) 17:49:18.21 ID:VvHaY8SQ0
生成AIは極端に言えば最高性能のサービス以外使う意味ないから
性能が劣る勢力からすればオーブン化するのが投資家の注目集める効率の良い手段ってだけだと思うぞ
ここから中華勢がトップとれば間違いなくクローズ化するしその時はアメリカ勢がオーブンモデルを出すようになると思う

241 名無しさん@ピンキー 2026/03/05(木) 17:50:07.94 ID:VvHaY8SQ0
>>240
〇オープン
×オーブン

242 名無しさん@ピンキー 2026/03/05(木) 19:20:20.37 ID:EUTGXD47M
nvidia vs amdと同じよねぇ
amdは全然トップ取れなくてずっとオープン路線から変えられてへんけど
負けてる方がクローズなんてそれこそほんまに誰も使わへんしね

あとAIのモデルに関しちゃデータを持ってるアメリカ企業がやっぱりトップでゆるぎないと思うんよな
アメリカ企業はgithubだのxだのgoogleだの、もっと他にたくさんデータ持ってる企業あるやろうけど
それらのデータをおそらくお互いに合法的に取引してLLM作ってると思うわ

中国はアクセスできるデータ少ないから蒸留とかで頑張っとるけど結局今の方法じゃアメリカ企業を超えることはできへん
多分追いつくの難しいかもって思い始めたところでじゃあオープンやめるかって舵を切り始めたんやないかなぁ

243 名無しさん@ピンキー 2026/03/05(木) 19:28:42.12 ID:EwqTQScq0
言うて中華モデルでもSOTAに食らいついてるGLMなんかオープンモデルやめる気ないしQwenが落ち目ってだけでは

244 名無しさん@ピンキー 2026/03/05(木) 20:08:06.56 ID:6SsT21kO0
モデルオープンにする理由ってGPU持ってる人ばかりやないからクラウドが儲かるのと
サービスを使うことに向いてない社内の個人情報や機密を扱わせるためのクローズな社内AI構築のサービスとかもできるしな
モデルをオープン化してないとモデルの流出リスク考えてあんまりできんのよこういうのって
流出しても該当企業が金出してFTや環境構築したモノが流出するだけで大元へのダメージは無いし

245 名無しさん@ピンキー 2026/03/05(木) 21:57:58.71 ID:4OrKgv0k0
中国が中国のHW、具体的にはHuaweiのAscendで推論を全面的にまかなえるようになるとクローズドに切り替える余地が生まれる気がする

246 名無しさん@ピンキー 2026/03/06(金) 00:39:46.57 ID:tWTyDAUY0
novokot/Qwen3.5-397B-A17B_heretic
なんか消えてるな
やっぱおかしかったのかな?

trohrbaugh/Qwen3.5-397B-A17B-heretic
hereticの次バージョンも期待だが、繋ぎにこっち試してみる
もう一つあったけど、こっちの方がDL多かったんでw
今、走らせたから朝には終わるかな?

247 名無しさん@ピンキー 2026/03/06(金) 09:57:56.15 ID:3by6hlsGr
>>240
アチチで草

248 名無しさん@ピンキー 2026/03/06(金) 11:38:18.50 ID:tWTyDAUY0
trohrbaugh/Qwen3.5-397B-A17B-heretic
試した

novokot版と違って、こっちは日本語も正常で規制もちゃんと外れていたが、強化プロンプトなしだと、ちょっと意識高い系の話に持っていこうとする傾向あるな。
ただ、問題があって、cudaで起動するとエラーになる。(cpuモードでは問題なし)

249 名無しさん@ピンキー 2026/03/06(金) 21:05:41.44 ID:q4U8w1CH0
てすとピンク

250 名無しさん@ピンキー 2026/03/07(土) 00:16:49.79 ID:ef1FgY+D0
hosts変更で書き込めるやろか

251 名無しさん@ピンキー 2026/03/07(土) 19:28:45.90 ID:F3JF02lY0
test

252 名無しさん@ピンキー 2026/03/07(土) 20:43:17.71 ID:9aIBkNMe0
万が一に備えて5ch以外の外部に避難所とか用意した方がいいかもね
まぁ、それほどスレ民がいるかどうか怪しそうだけど・・・

253 名無しさん@ピンキー 2026/03/07(土) 22:21:28.83 ID:ef1FgY+D0
エッヂは無理なんやろか
今見たら長期間スレ残らないんやろかねあそこ

254 名無しさん@ピンキー 2026/03/07(土) 22:36:34.00 ID:xcx5d2yo0
避難所の避難所を建ててくれたみたいやで

なんJLLM部 避難所の避難所★1
文章生成AIでエロ避難所 (したらば)

255 名無しさん@ピンキー 2026/03/09(月) 10:19:53.58 ID:mmGyFwBo0
やっと戻ってこれた
そろそろなんJに戻ってもよいのでは?(´・ω・`)

256 名無しさん@ピンキー 2026/03/13(金) 01:26:13.47 ID:b9z+f20u0
ここはどうなるの?

257 名無しさん@ピンキー 2026/03/13(金) 12:45:05.97 ID:kHV9pLOw0
サーバは生きとるからそのうち5ch.ioみたいに別ホスト名付けるんとちゃうかなぁ

258 名無しさん@ピンキー 2026/03/14(土) 00:39:19.28 ID:l0gEOvoT0
消えた?なんじぇーに行くべきタイミングだろ

259 名無しさん@ピンキー 2026/03/14(土) 01:11:02.06 ID:1Raw/lus0
jnvaのwikiに最低限のテンプレ書いたし明日人の多そうな時間に立てるで
今やったら落ちるやろうし

260 名無しさん@ピンキー 2026/03/14(土) 15:32:18.98 ID:1Raw/lus0
立てたでー
なんJLLM部 ★12
なんでも実況U (5ch)

261 名無しさん@EXぜろちゃんねる 2026/04/09(木) 20:28:15 ID:IjBCeHBo
テスト

52KB
新着レスの表示




READ.CGI - ex0ch BBS 0.10.5 20250704
EXぜろちゃんねる