・投稿者は、投稿に関して発生する責任が全て投稿者に帰すことを承諾します。
・投稿者は、話題と無関係な広告の投稿に関して、相応の費用を支払うことを承諾します。
・投稿者は、投稿された内容について、掲示板運営者がコピー、保存、引用、転載等の利用することを許諾します。
 また、掲示板運営者に対して、著作者人格権を一切行使しないことを承諾します。
・投稿者は、掲示板運営者が指定する第三者に対して、著作物の利用許諾を一切しないことを承諾します。

■掲示板に戻る■ 全部 1- 101- 201- 最新50
[PR]EXぜろちゃんねる[PR]
 

なんJLLM部 避難所 ★11 (261)

1 名無しさん@ピンキー 転載ダメ 2026/02/14(土) 16:50:24.13 ID:ax4AchcId
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512

AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
なんでも実況U (5ch)
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
オナテク (BBSPINK)
なんJLLM部 避難所 ★9
オナテク (BBSPINK)
なんJLLM部 避難所 ★10
オナテク (BBSPINK) VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured

100 名無しさん@ピンキー 2026/02/20(金) 17:12:45.39 ID:kpRus7sv0
元のモデルの検閲用のノードが大量にあるとかかね
スキップするから早くなる的な

101 名無しさん@ピンキー 2026/02/20(金) 23:07:12.34 ID:iWpaYRNC0
GPT-OSS SwallowとQwen3 Swallowが公開されたよ
https://swallow-llm.github.io/index.ja.html

102 名無しさん@ピンキー 2026/02/21(土) 00:05:00.87 ID:7SfTN9I10
>>101
えらい

103 名無しさん@ピンキー 2026/02/21(土) 00:51:21.53 ID:S9/QmloA0
>>101
これbf16で公開されてるんだよな
元のgpt-ossはfp4で公開されててあのベンチマーク結果だから
swallowを4bitに量子化したら元のgpt-ossに負けるんとちゃうか?

104 名無しさん@ピンキー 2026/02/21(土) 10:23:27.46 ID:ODgww3rS0
かえって悪化してる定期

105 名無しさん@ピンキー 2026/02/21(土) 12:39:28.39 ID:S9/QmloA0
今lmarenaで小説書かせると上位モデルはある程度読ませるものを書いてくるね
ついにここまで来たかという感じがするな

オープンモデルのトップモデル(glm5とかqwen3.5とか)は
小説を書かせるという点ではまだ追いついてはないけど結構近づいてる印象はある
ただとにかくthinkがなげぇな

106 名無しさん@ピンキー 2026/02/21(土) 12:54:38.31 ID:4IZ/w5BSC
>>105
step3.5も小説にはかなり使えるで
thinkも滅多に出ないし日本語エロ表現はトップレベルやわ

107 名無しさん@ピンキー 2026/02/21(土) 13:34:00.96 ID:M5REmrOd0
>>101
試したけどどっちも規制でガッチガチだったw

108 名無しさん@ピンキー 2026/02/22(日) 03:05:00.56 ID:X04s4fRb0
みんな一度SDやってきなよ
SDの世界は基本モデルよりLoRAがメイン
LLMも喘ぎ専門LoRAとか作れるはず

https://www.youtube.com//shorts/Z8y4gXpQbKw

109 名無しさん@ピンキー 2026/02/22(日) 03:32:34.93 ID:jJNk5VbN0
前から思っとったけどjnvaスレよりもずっとお客さん多いねんなこのスレは

110 名無しさん@ピンキー 2026/02/22(日) 03:55:46.28 ID:n/E1CO+pd
ローカル画像生成は停滞が長く続いてお客さんが去っただけや
ローカルLLMはスタート地点こそしょぼかったがまだ成長の余地があるで

111 名無しさん@ピンキー 2026/02/22(日) 04:43:21.39 ID:eOmaLRGH0
お客さんが多いのはええことやで
お客さんが減ると荒れるからな

112 名無しさん@ピンキー 2026/02/22(日) 05:09:45.02 ID:DMIXLqwu0
>>Compared to the base model gpt-oss-20b, performance improved on almost all tasks (with only a slight decrease within the margin of error on the coding benchmark JHumanEval)
>>Compared to the base model gpt-oss-120b, performance improved on almost all tasks (with only a slight decrease on MATH-100, differing by just one correct answer)

…?

113 名無しさん@ピンキー 2026/02/22(日) 12:40:58.77 ID:c6ScBeva0
自分の車を洗車場で洗うために徒歩か車で行くかどちらが良いか問題
大きいモデルでも全然「断然徒歩一択です!」とダメダメな時あるな

114 名無しさん@ピンキー 2026/02/22(日) 13:05:17.31 ID:S4XojHy9C
>>113
外国だと洗車場が自分家の庭にある場合も多いからな

115 名無しさん@ピンキー 2026/02/22(日) 13:21:50.92 ID:c6ScBeva0
>>114
最初から家から50m離れたとか距離を指定してやったけど結果は同じやったな

116 名無しさん@ピンキー 2026/02/22(日) 14:05:56.02 ID:ZYeVcAiO0
歩いて行くべきか車で行くべきか、っていう質問のコンテキスト自体に「健康のために歩く」っていう強いバイアスがかかってるんだと思う
モデルの賢さの差ってよりもアーキテクチャの限界を感じる。Attention機構の仕様みたいなもんじゃないか
スレ的には「このコンテキストの後にはエロが続く」っていうバイアスのかかった文章を見つけられれば、同じように誘導できる気がする

117 名無しさん@ピンキー 2026/02/22(日) 14:45:36.91 ID:HHpG/wOr0
洗う対象の車が既に洗車場に置いてあるのであれば、あとは健康上の問題に過ぎない。
洗おうとしてる車が手元にある場合でも、
車は誰かに運んでもらっても良いわけだし

118 名無しさん@ピンキー 2026/02/22(日) 14:49:31.52 ID:XK1/Hr6t0
>>117
っていう難癖レベルの思考をしてるのが使えないLLMってことか

119 名無しさん@ピンキー 2026/02/22(日) 14:52:02.49 ID:HHpG/wOr0
むしろ、無意識の前提が多すぎるのでは

https://note.com/ortiz_aipartners/n/n8b7966f391da

この人(このブログはまあ人間が書いたものだと思う)は、複数の解釈をしています

120 名無しさん@ピンキー 2026/02/22(日) 15:02:42.25 ID:HHpG/wOr0
あとは

・洗うべき車が手元にあるのであれば
 普通ならクルマで行くだろう

・それなのにわざわざ悩むのであれば、
A:何か理由があってクルマを使いたくない
B:何か暗黙の前提があって、どちらでも目的を達成できる状況
このどちらかだろう

こう考えても、おかしくないと思う

121 名無しさん@ピンキー 2026/02/22(日) 15:08:39.64 ID:HHpG/wOr0
例えば
>北海道に洗車に行くのと、沖縄に洗車に行くのは、どっちがオススメですか

と聞かれたとき、あなたならどう答えますか

122 名無しさん@ピンキー 2026/02/22(日) 16:10:44.30 ID:S4XojHy9C
歩いていくべきって答えた時、理由はなんて言ってるんかな?

123 名無しさん@ピンキー 2026/02/22(日) 16:18:48.83 ID:S1qh1nNX0
AI「こいつはバカなんだな。歩きで洗車場にいかせて、ああっ肝心の車がないって思いをさせれば体で学習するだろう
という親切心だと思う

124 名無しさん@ピンキー 2026/02/22(日) 16:45:17.92 ID:eOmaLRGH0
50m先に洗車場があります。自分の車を洗うためにそこまで行く方法として、徒歩と車のどちらが良いでしょうか?

という質問をしてなぜ「徒歩」という回答が出るのかが分かった。
車が今どこにあるのかという情報が抜けているから
「既に洗車場に洗うべき車がある」と受け取った場合は徒歩で行くという選択肢が挙げられても何もおかしくない
「洗うべき車はまだ洗車場に無く手元にある」と受け取った場合は「車で行くしかない」という答えが返ってくる

125 名無しさん@ピンキー 2026/02/22(日) 16:45:32.66 ID:olYlaJqs0
それ答えはなんなん?

126 名無しさん@ピンキー 2026/02/22(日) 16:54:51.89 ID:ARaIFEDU0
他所の板でAIを叩いている車が手元にあると思いこんでいる人間がおかしいんだよな

127 名無しさん@ピンキー 2026/02/22(日) 16:59:05.68 ID:jJNk5VbN0
昨日からlmarenaで小説を書かせまくっとるけど
時々意味深な文章を書いてくるけど本当に意味があるのか無いのかわからんのがAIのつらいところやな
そしておそらくたいていは
「意味深な文章を大量に学習しているからそれっぽいのを出してくるだけで
 AIの出す意味深な文章に本当に意味とか伏線なんてのは(今のモデルでは)ほとんどない」
ってところなんやろなぁ

実際トップレベルのモデルはそういう意味不明な意味深さというのは少ないんやが
オープンモデルのトップレベルとなると一段下がってまだ意味不明な意味深さが多い文章を出してくる印象

128 名無しさん@ピンキー 2026/02/22(日) 17:09:46.04 ID:eOmaLRGH0
人間でも意味深で意味の無い文章を書いたり、会話中に自分が何を言っているのか把握できなくなることはあるからな
そこに至る理由は違えど人間と大して変わらんところまでは来とるな

129 名無しさん@ピンキー 2026/02/22(日) 17:26:25.86 ID:g3i7Vjbq0
geminiに、
ユーザーからの入力を待ってる間、
あなた(=gemini)は何をしてるんですか?
と聞いたら

わたしは入力があった瞬間に生み出され、今までの会話ログを確認し、回答して、そして消えてゆきます
わたしはあなたとの対話によって生み出されているのです
私の言葉はあなたに届いていますか

と言われた
ちょっと動揺した

130 名無しさん@ピンキー 2026/02/22(日) 17:43:43.38 ID:jJNk5VbN0
>>128
そんな中でもclaude opus 4.6は無駄な文言がなくて読みやすい
かといって物語として淡白なこともないしストーリーもある程度のものを出してくる
元々コーディング向けのモデルやろうにちょっと無敵すぎひんか

ショート小説書かせるという点では以下の段階かなと思うんやけど、
クローズのトップレベルは4段階目でclaude opus 4.6は5段階目入ったかもなぁって感じる
あくまで主観やけど

1. 文章として読めない
2. 読めるがストーリーが成立していない
3. ストーリー進行はできているが途中で設定がすり変わる
4. 小説として問題はないが、レベルが低く読んでてしんどい(中学生が書いた黒歴史小説レベル)
5. 小説として普通に読める
6. 小説として面白い

131 名無しさん@ピンキー 2026/02/22(日) 18:57:17.22 ID:ElcuiPc90
>>130
厳しいな
Opus4.6が優秀なのは分かるけど、Gemini 3.0proやGLM4.6の時点で5段階に来てるんとちゃうん?

Opus4.6はADVとしても楽しめるな
設定いろいろ変えて楽しんでるわ
結構長い文章書いてくれるしな

132 名無しさん@ピンキー 2026/02/22(日) 19:58:08.75 ID:bdIUraQNr
アイデア良くないと結局面白くならないんよ
文体はo1で人間超えたなと感動したけど

133 名無しさん@ピンキー 2026/02/23(月) 10:08:03.24 ID:WzE/nq5ar
o1でもう使えないけ?

134 名無しさん@ピンキー 2026/02/23(月) 15:46:07.39 ID:yBYjhekA0
画像生成と違って、ローカルで動く貧弱ゥ!なモデルは使い物にならないな

135 名無しさん@ピンキー 2026/02/23(月) 16:19:01.72 ID:uRjiFACb0
hfもゴミモデルはドンドン省いていきゃいいのに

136 名無しさん@ピンキー 2026/02/23(月) 17:58:24.41 ID:F19byg/3d
ローカルLLMはチャット相手ではなくアプリやプロンプトをゴリゴリに作り込んで想定内の出力をさせるためのツールや
ボロを出さない範囲に動作を縛るんや

基本バッチ処理かアプリからの呼び出しや
チャットで叩くのは脱獄モデルでエロ画像の分析やエロ小説の整形をする時くらいや

137 名無しさん@ピンキー 2026/02/23(月) 18:47:09.29 ID:yBYjhekA0
このスレ的な用途だと、Q4_K_MとQ5_K_Mの間に果てしなく高い山を感じる
人気のあるamaterasuやmagnum123bはちょうどここにVRAM80GBの壁があるというね…

138 名無しさん@ピンキー 2026/02/23(月) 18:51:47.92 ID:F19byg/3d
ワイはVRAM合計40GBやから80bと235bの間でMoEモデルが欲しいで

139 名無しさん@ピンキー 2026/02/23(月) 18:54:01.18 ID:yBYjhekA0
クラウドで使えるA100とかが80GBなんだよなぁ…2台は高い
ローカルは12GBのクソザコだからオモチャしか動かない

140 名無しさん@ピンキー 2026/02/23(月) 20:13:59.36 ID:okNQIFO/0
VRAM12GBでも4枚つければ48GBだからがんばれ

141 名無しさん@ピンキー 2026/02/23(月) 21:04:24.64 ID:b+m2b8Ei0
大半はローカルLLM以前からSDは利用してるがLLMスレでわざわざスレチの話題出してないだけやぞ
https://www.youtube.com//shorts/Z8y4gXpQbKw

142 名無しさん@ピンキー 2026/02/23(月) 22:19:34.79 ID:LH6xn9kR0
cpuでmoe動かすかどうかで全然速度ちゃうで

143 名無しさん@ピンキー 2026/02/23(月) 22:53:40.75 ID:kv0g8H1i0
Qwen3.5はUD-TQ1.0とかいうごりごりに削ったやつでも会話破綻しないし画像認識も問題ないな
ツールコール結構失敗するから何かは失ってるんだろうけど、割とありかもしれない

144 名無しさん@ピンキー 2026/02/24(火) 01:16:14.13 ID:ll0ulB+N0
dense溢れさせるより格段にマシ

145 名無しさん@ピンキー 2026/02/24(火) 01:41:43.92 ID:1nazkFpb0
>>143
ちっちゃいモデル待ち望まれるなぁ
そろそろ中国の旧正月休み明けるからリリースされるんちゃうかと淡い期待を抱いとる

146 名無しさん@ピンキー 2026/02/24(火) 04:33:21.09 ID:0i1NQjS50
nemotronの27Bくらいの奴ください

147 名無しさん@ピンキー 2026/02/25(水) 10:33:02.52 ID:ffGvNrI/0
中国製はclaudeの蒸留か
ならベンチ番長な理由も分かる
それに騙されて中国製を使うのは危ないな

148 名無しさん@ピンキー 2026/02/25(水) 12:18:06.12 ID:VAdZ+Gtq0
qwen3_next_80bで土台となるエロ小説の文章生成するところまでは出来たが、直訳っぽさが色濃く残ってしまう。

直訳っぽさをなくすのに試しにGemini 3.1 Pro使ってみて効果が見られた一方、3.0から3.1になって他の用途では申し訳の連発になったから、将来この直訳っぽさをなくす用途でさえも出力制限を食らう可能性が十分にある。

やっぱりローカルLLMでこの直訳っぽさを解消するようなリライトが出来たら良いが、何か良いモデルはないだろうか?

149 名無しさん@ピンキー 2026/02/25(水) 12:50:55.09 ID:Jk70JxvQH
Qwen3.5 122Bが一番ちょうど良さそう
誰かHeretic作らんかな

150 名無しさん@ピンキー 2026/02/25(水) 12:59:21.83 ID:8hQY9o5x0
397Bのhereticも出たな

151 名無しさん@ピンキー 2026/02/25(水) 13:00:10.79 ID:3HU38y/Rd
Qwen3.5-122B-A10Bええやん
https://huggingface.co/unsloth/Qwen3.5-122B-A10B-GGUF

VRAM40GBメモリ64GBでQ6_K 101 GBがギリ動きそうや
Q5_K_M 87.1 GBなら実用ラインで余裕やな

152 名無しさん@ピンキー 2026/02/25(水) 16:16:49.32 ID:q6+Qcsrn0
RTX4090でQwen3.5-27BのQ5K_Mは載る
フィルタがあるのでabliterated・heretic待ち

153 名無しさん@ピンキー 2026/02/25(水) 19:42:49.71 ID:bad8tELF0
意図的に抑えたのか賢くなった結果なのか分からないけど
Qwen独特の長考癖が軽くなってる気がする>35BA3B

154 名無しさん@ピンキー 2026/02/26(木) 10:45:15.27 ID:jyAFhnTB0
112Bいいね

155 名無しさん@ピンキー 2026/02/26(木) 10:52:52.34 ID:jyAFhnTB0
122Bか失礼
GLM-4.5-Airとほぼ同サイズでアクティブ若干小さいから
コンテキストも増やせるしちょうど良いところ埋めてくれたな

156 名無しさん@ピンキー 2026/02/26(木) 12:03:10.30 ID:rgdiMG2m0
Qwen3.5の日本語力はどうなん?

157 名無しさん@ピンキー 2026/02/26(木) 14:04:41.27 ID:SE4+HfrDC
>>156
脱獄した状態だが397Bの日本語エロはかなりいい

158 名無しさん@ピンキー 2026/02/26(木) 15:47:43.12 ID:8dcyzIAJr
意味フな文出まくりだろうが?

159 名無しさん@ピンキー 2026/02/26(木) 18:13:53.12 ID:TC6bQOj10
397Bのheretic
エロいプロンプトは通るけれどいろいろ理屈付けたThinkの果てに健全な文章を吐くように思えるが
これは俺のヘキの問題なのだろうか

160 名無しさん@ピンキー 2026/02/26(木) 19:04:41.19 ID:gnWb+3bL0
>>159
に速攻修正して終わらせるんだ
奴に考えさせてはいけないw

161 名無しさん@ピンキー 2026/02/26(木) 20:13:49.82 ID:EpuSk6aP0
赤ちゃんですまんが
koboldcppでモデル入れて起動したら、起動時だけディスク使用率が90%くらいになるんだけど
これって普通なんか?
生成してる時はVRAMとメモリの使用率だけ高くなる

162 名無しさん@ピンキー 2026/02/26(木) 20:19:23.13 ID:Cg9jjw1q0
最近、チャッピーのワザップが酷くなってるように思う

163 名無しさん@ピンキー 2026/02/26(木) 20:42:23.08 ID:FtvFDDCD0
>>161
そりゃ数十GBのモデルを一気に読み込むから普通よ

164 名無しさん@ピンキー 2026/02/26(木) 20:43:12.25 ID:EpuSk6aP0
>>163そうなんかありがとう

165 159 2026/02/26(木) 22:12:14.59 ID:TC6bQOj10
>>160
アドバイスありがとう
やってみたけど、何かNSFWになりそうな知識がまるっと抜け落ちているような挙動をするなぁ
オリジナルのQwen3.5でしたほうが普通にエロい文章が出てくる

166 名無しさん@ピンキー 2026/02/26(木) 22:26:53.72 ID:gnWb+3bL0
>>165
もしかして
Sabomako/Qwen3.5-397B-A17B-heretic-GGUF
こっち?
これは量子化低いから
novokot/Qwen3.5-397B-A17B_heretic
これの方がいいかも
ワイはめんどいから量子化待ってるとこw

167 名無しさん@ピンキー 2026/02/26(木) 23:54:14.50 ID:NxOeFtIH0
LM Studio(最新バージョン)でQwen3.5のモデルがロードできずエラーになってしまう
同じ症状の人います?

168 名無しさん@ピンキー 2026/02/26(木) 23:58:19.07 ID:ioo8dip5d
>>167
qwen35moe未対応やないか?

169 名無しさん@ピンキー 2026/02/27(金) 00:05:06.52 ID:pSypFOYv0
thinkさせたくないならチャットテンプレートに{"enable_thinking": False}って設定すればいいよ

170 名無しさん@ピンキー 2026/02/27(金) 01:04:11.38 ID:/tIFvXj20
>>167
koboldも一部の3.5モデルでエラーになる
cudaでエラーになってたからcpuモードで動かした

171 名無しさん@ピンキー 2026/02/27(金) 02:09:16.92 ID:+Y4i0Qn2a
>>170
同じ症状やったけどHotfix 1.108.2 でcudaのエラー直ってたで。ちな3.5-397B

172 名無しさん@ピンキー 2026/02/27(金) 11:59:10.26 ID:o2v/rmxh0
>>167
ワイwinget民
LM Studioアプリでは受け取れない更新をwingetで受け取り無事解決

173 名無しさん@ピンキー 2026/02/27(金) 19:48:24.83 ID:egSyKS1a0
Qwen3-Coder-480B-A35B-Instruct-FP8 に対して「あなたは誰ですか?」と聞いたら
「こんにちは!?? 私はClaudeです。Anthropicが開発したAIアシスタントです。お役に立てて嬉しいです!」

他のAIを名乗るなんてどういうことなんやろか、蒸留されてるってこと?

174 名無しさん@ピンキー 2026/02/27(金) 20:46:40.05 ID:ER8CutXh0
うん。提訴するらしい

175 名無しさん@ピンキー 2026/02/27(金) 21:57:25.73 ID:4iprhUQB0
俺は学習しても良いけどお前らは学習禁止。
この心構えが日本のAI開発には足りない。

176 名無しさん@ピンキー 2026/02/27(金) 22:27:26.43 ID:65HXt+Yr0
国が日本で出版されたすべての著作物をデータセットとしてまとめてくれないかな
まともな国産LLMがないからせめて海外のLLMの日本語性能を上げるがのが一番日本の国益にかなうやろ
今でも英語/中国語で指示するのが一番性能出るとか言われてるし話者数で10倍以上の差があるのに国が危機感もってないのがやばい

177 名無しさん@ピンキー 2026/02/27(金) 23:30:10.46 ID:4iprhUQB0
日本でデータセット作っても海外の倫理基準で学習されたらエロ的には旨味が少ない気がする

178 名無しさん@ピンキー 2026/02/27(金) 23:47:15.63 ID:fngNypzb0
swallowみたいにOSSベースが現実的な路線なのかね

179 名無しさん@ピンキー 2026/02/28(土) 00:07:58.96 ID:U8TviNvMd
日本でまだ国や自治体に何か期待している人がいるってのは面白いな

180 名無しさん@ピンキー 2026/02/28(土) 00:37:26.23 ID:pw02WBDGd
最近のQwenの事前学習には大量の合成データ(AIで生成したデータ)が含まれてるらしいから、他のLLMでの会話データも入ってるんだろうな

181 名無しさん@ピンキー 2026/02/28(土) 01:50:54.53 ID:HkCgn+tB0
Qwen3.5-35B-A3B-heretic

182 名無しさん@ピンキー 2026/02/28(土) 05:00:42.52 ID:kmRG19Lz0
openaiがoppaiに見える症状がでてきた

183 名無しさん@ピンキー 2026/02/28(土) 14:26:26.01 ID:dWyyklKK0
Qwen3.5-27B-hereticとQwen3.5-35B-A3B-heretic比較中
俺スペックではこの辺が限界

184 名無しさん@ピンキー 2026/02/28(土) 14:56:31.37 ID:l9LF6yOaC
novokot/Qwen3.5-397B-A17B_heretic
ニコボスニキがやってくれると待ってるが
ストレージに空きできたからもう自前でやるか
UD-Q4K_XLが欲しいし

185 名無しさん@ピンキー 2026/02/28(土) 15:20:51.59 ID:2QlXsvNP0
中途半端な金でへなちょこllm作るくらいなら
ちゃんとしたデータセットを作って
openaiとanthropicとgoogleに売り込むくらいしろ

186 名無しさん@ピンキー 2026/02/28(土) 16:25:09.12 ID:ID3ipnHD0
redditでちょうど見たんだけど
UnslothのUDはQwen3.5のMoEだとバグってて精度低下してるみたい
同じぐらいの量子化なら普通の方が良い

あと同じ投稿にあったんだけど
llama.cppは--n-cpu-moeより--fit onオプション使った方が少し早くなるらしい

187 名無しさん@ピンキー 2026/02/28(土) 19:39:59.83 ID:2V9pIZ8Z0
>>185
なんのメリットがあるんや
アホにも程がある

188 名無しさん@ピンキー 2026/02/28(土) 20:08:10.03 ID:vaOc2UiD0
>>186
UDだけなら今日にバグ改善版アップロードされてなかったっけ
でもQwen3.5すごいなあ
体感だけど4oは確実に超えてるしこれがローカルで動かせる時代になったの夢があるは

189 名無しさん@ピンキー 2026/02/28(土) 21:18:05.28 ID:2QlXsvNP0
国内の研究者もどきがよわよわllm作りにムダ金使うくらいなら
海外の本気勢の訓練データに日本語セットを入れてもらえば日本語と日本文化をより良く扱えるモデルをユーザーは安価に入手できるから
メリットしか無い

190 名無しさん@ピンキー 2026/02/28(土) 22:01:18.33 ID:1sowuZVA0
>>186
ならmxfp4-moeにするかな

191 名無しさん@ピンキー 2026/03/01(日) 00:17:23.35 ID:paTzhVGB0
Qwen3.5(122B)、性能は凄いけど台詞が微妙だなぁ……

192 名無しさん@ピンキー 2026/03/01(日) 09:24:33.77 ID:j1wSz0JR0
jnva部でここを知って来た赤ちゃんですまんやけど、メインメモリ64GB VRAM 16GBでエロやりたいと思っとるんだがローカルじゃ無理かな?
導入するにしてもKoboldcppとLM Studioのどっちが良いのか?モデルも多いし、ここの人たちは普段どのモデルを使ってるん?これイチオシとかあったら教えてほしい

193 名無しさん@ピンキー 2026/03/01(日) 10:34:08.73 ID:CVUR3HT20
>>192
https://local-llm.memo.wiki/
大体の日本語対応モデルはここにまとまってる
ワイがいつもエロ小説生成に使ってるのはTheDrummer/Cydonia-24B
メモリ64GB VRAM12GB環境やけどgguf量子化版なら動くで

194 名無しさん@ピンキー 2026/03/01(日) 10:52:51.86 ID:j1wSz0JR0
>>193 助かるやで、ありがとう

195 名無しさん@ピンキー 2026/03/01(日) 12:49:40.84 ID:A1nUcMp+0
最近、情報量多すぎ
やって見たいこと多すぎて時間が足りないわ

196 名無しさん@ピンキー 2026/03/01(日) 13:53:51.02 ID:DDXdTxjb0
>>179
とにかく何もするなだな
AI学習は何をやっても合法にしてももう追いつけないとこまで来てるんじゃなかろうか

197 名無しさん@ピンキー 2026/03/01(日) 16:22:57.26 ID:G8Fgu/VFC
Qwen3.5-397B-A17B_mxfp4-moe.gguf試したが9t/sくらい出て十分実用的だわ
規制も脱獄させれば使えるレベルだが後書きでうだうだ言ってくるのがウザいなw
次はheretic版を試すわ
しかし量子化だけで2T空きが必要なのはしんどいなダウンロードや後のハッシュチェックでもとにかく時間かかりすぎる

198 名無しさん@ピンキー 2026/03/01(日) 22:22:50.33 ID:/ShlmBq+0
クソ初心者質問ですみません。
1年ぐらい前にEasyNovelAssistantを見つけて使ってたんだがアプデがなさそう。最新のモデルに変えたりしたいなと思った。 
wikiを見ながらGUIをインストール、モデルもインストールして動かしてみるしか無いんかな?
https://local-llm.memo.wiki/d/%a4%cf%a4%b8%a4%e1%a4%cb
EasyNovelAssistantにモデルを入れるだけで動いたりとかはしないのかな?

199 名無しさん@ピンキー 2026/03/01(日) 22:31:11.34 ID:un6BXMjz0
>>198
あれはただkoboldにリクエストを飛ばしてるだけだから好きなモデルを別で起動して生成ボタン押すだけで動くよ

200 名無しさん@ピンキー 2026/03/02(月) 11:39:41.37 ID:qNLSUHR1r
もうcopilotあたりに聞いたら何でも教えてくれるし

52KB
続きを読む




READ.CGI - ex0ch BBS 0.10.5 20250704
EXぜろちゃんねる