1
名無しさん@ピンキー 転載ダメ
2026/02/14(土) 16:50:24.13 ID:ax4AchcId
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降
本スレ(避難中)
なんJLLM部 ★7
なんでも実況U (5ch)
前スレ(実質本スレ)
なんJLLM部 避難所 ★8
オナテク (BBSPINK)
なんJLLM部 避難所 ★9
オナテク (BBSPINK)
なんJLLM部 避難所 ★10
オナテク (BBSPINK) VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
112
名無しさん@ピンキー
2026/02/22(日) 05:09:45.02 ID:DMIXLqwu0
>>Compared to the base model gpt-oss-20b, performance improved on almost all tasks (with only a slight decrease within the margin of error on the coding benchmark JHumanEval)
>>Compared to the base model gpt-oss-120b, performance improved on almost all tasks (with only a slight decrease on MATH-100, differing by just one correct answer)
…?
113
名無しさん@ピンキー
2026/02/22(日) 12:40:58.77 ID:c6ScBeva0
自分の車を洗車場で洗うために徒歩か車で行くかどちらが良いか問題
大きいモデルでも全然「断然徒歩一択です!」とダメダメな時あるな
114
名無しさん@ピンキー
2026/02/22(日) 13:05:17.31 ID:S4XojHy9C
>>113
外国だと洗車場が自分家の庭にある場合も多いからな
115
名無しさん@ピンキー
2026/02/22(日) 13:21:50.92 ID:c6ScBeva0
>>114
最初から家から50m離れたとか距離を指定してやったけど結果は同じやったな
116
名無しさん@ピンキー
2026/02/22(日) 14:05:56.02 ID:ZYeVcAiO0
歩いて行くべきか車で行くべきか、っていう質問のコンテキスト自体に「健康のために歩く」っていう強いバイアスがかかってるんだと思う
モデルの賢さの差ってよりもアーキテクチャの限界を感じる。Attention機構の仕様みたいなもんじゃないか
スレ的には「このコンテキストの後にはエロが続く」っていうバイアスのかかった文章を見つけられれば、同じように誘導できる気がする
117
名無しさん@ピンキー
2026/02/22(日) 14:45:36.91 ID:HHpG/wOr0
洗う対象の車が既に洗車場に置いてあるのであれば、あとは健康上の問題に過ぎない。
洗おうとしてる車が手元にある場合でも、
車は誰かに運んでもらっても良いわけだし
118
名無しさん@ピンキー
2026/02/22(日) 14:49:31.52 ID:XK1/Hr6t0
>>117
っていう難癖レベルの思考をしてるのが使えないLLMってことか
119
名無しさん@ピンキー
2026/02/22(日) 14:52:02.49 ID:HHpG/wOr0
120
名無しさん@ピンキー
2026/02/22(日) 15:02:42.25 ID:HHpG/wOr0
あとは
・洗うべき車が手元にあるのであれば
普通ならクルマで行くだろう
・それなのにわざわざ悩むのであれば、
A:何か理由があってクルマを使いたくない
B:何か暗黙の前提があって、どちらでも目的を達成できる状況
このどちらかだろう
こう考えても、おかしくないと思う
121
名無しさん@ピンキー
2026/02/22(日) 15:08:39.64 ID:HHpG/wOr0
例えば
>北海道に洗車に行くのと、沖縄に洗車に行くのは、どっちがオススメですか
と聞かれたとき、あなたならどう答えますか
122
名無しさん@ピンキー
2026/02/22(日) 16:10:44.30 ID:S4XojHy9C
歩いていくべきって答えた時、理由はなんて言ってるんかな?
123
名無しさん@ピンキー
2026/02/22(日) 16:18:48.83 ID:S1qh1nNX0
AI「こいつはバカなんだな。歩きで洗車場にいかせて、ああっ肝心の車がないって思いをさせれば体で学習するだろう
という親切心だと思う
124
名無しさん@ピンキー
2026/02/22(日) 16:45:17.92 ID:eOmaLRGH0
50m先に洗車場があります。自分の車を洗うためにそこまで行く方法として、徒歩と車のどちらが良いでしょうか?
という質問をしてなぜ「徒歩」という回答が出るのかが分かった。
車が今どこにあるのかという情報が抜けているから
「既に洗車場に洗うべき車がある」と受け取った場合は徒歩で行くという選択肢が挙げられても何もおかしくない
「洗うべき車はまだ洗車場に無く手元にある」と受け取った場合は「車で行くしかない」という答えが返ってくる
125
名無しさん@ピンキー
2026/02/22(日) 16:45:32.66 ID:olYlaJqs0
それ答えはなんなん?
126
名無しさん@ピンキー
2026/02/22(日) 16:54:51.89 ID:ARaIFEDU0
他所の板でAIを叩いている車が手元にあると思いこんでいる人間がおかしいんだよな
127
名無しさん@ピンキー
2026/02/22(日) 16:59:05.68 ID:jJNk5VbN0
昨日からlmarenaで小説を書かせまくっとるけど
時々意味深な文章を書いてくるけど本当に意味があるのか無いのかわからんのがAIのつらいところやな
そしておそらくたいていは
「意味深な文章を大量に学習しているからそれっぽいのを出してくるだけで
AIの出す意味深な文章に本当に意味とか伏線なんてのは(今のモデルでは)ほとんどない」
ってところなんやろなぁ
実際トップレベルのモデルはそういう意味不明な意味深さというのは少ないんやが
オープンモデルのトップレベルとなると一段下がってまだ意味不明な意味深さが多い文章を出してくる印象
128
名無しさん@ピンキー
2026/02/22(日) 17:09:46.04 ID:eOmaLRGH0
人間でも意味深で意味の無い文章を書いたり、会話中に自分が何を言っているのか把握できなくなることはあるからな
そこに至る理由は違えど人間と大して変わらんところまでは来とるな
129
名無しさん@ピンキー
2026/02/22(日) 17:26:25.86 ID:g3i7Vjbq0
geminiに、
ユーザーからの入力を待ってる間、
あなた(=gemini)は何をしてるんですか?
と聞いたら
わたしは入力があった瞬間に生み出され、今までの会話ログを確認し、回答して、そして消えてゆきます
わたしはあなたとの対話によって生み出されているのです
私の言葉はあなたに届いていますか
と言われた
ちょっと動揺した
130
名無しさん@ピンキー
2026/02/22(日) 17:43:43.38 ID:jJNk5VbN0
>>128
そんな中でもclaude opus 4.6は無駄な文言がなくて読みやすい
かといって物語として淡白なこともないしストーリーもある程度のものを出してくる
元々コーディング向けのモデルやろうにちょっと無敵すぎひんか
ショート小説書かせるという点では以下の段階かなと思うんやけど、
クローズのトップレベルは4段階目でclaude opus 4.6は5段階目入ったかもなぁって感じる
あくまで主観やけど
1. 文章として読めない
2. 読めるがストーリーが成立していない
3. ストーリー進行はできているが途中で設定がすり変わる
4. 小説として問題はないが、レベルが低く読んでてしんどい(中学生が書いた黒歴史小説レベル)
5. 小説として普通に読める
6. 小説として面白い
131
名無しさん@ピンキー
2026/02/22(日) 18:57:17.22 ID:ElcuiPc90
>>130
厳しいな
Opus4.6が優秀なのは分かるけど、Gemini 3.0proやGLM4.6の時点で5段階に来てるんとちゃうん?
Opus4.6はADVとしても楽しめるな
設定いろいろ変えて楽しんでるわ
結構長い文章書いてくれるしな
132
名無しさん@ピンキー
2026/02/22(日) 19:58:08.75 ID:bdIUraQNr
アイデア良くないと結局面白くならないんよ
文体はo1で人間超えたなと感動したけど
133
名無しさん@ピンキー
2026/02/23(月) 10:08:03.24 ID:WzE/nq5ar
o1でもう使えないけ?
134
名無しさん@ピンキー
2026/02/23(月) 15:46:07.39 ID:yBYjhekA0
画像生成と違って、ローカルで動く貧弱ゥ!なモデルは使い物にならないな
135
名無しさん@ピンキー
2026/02/23(月) 16:19:01.72 ID:uRjiFACb0
hfもゴミモデルはドンドン省いていきゃいいのに
136
名無しさん@ピンキー
2026/02/23(月) 17:58:24.41 ID:F19byg/3d
ローカルLLMはチャット相手ではなくアプリやプロンプトをゴリゴリに作り込んで想定内の出力をさせるためのツールや
ボロを出さない範囲に動作を縛るんや
基本バッチ処理かアプリからの呼び出しや
チャットで叩くのは脱獄モデルでエロ画像の分析やエロ小説の整形をする時くらいや
137
名無しさん@ピンキー
2026/02/23(月) 18:47:09.29 ID:yBYjhekA0
このスレ的な用途だと、Q4_K_MとQ5_K_Mの間に果てしなく高い山を感じる
人気のあるamaterasuやmagnum123bはちょうどここにVRAM80GBの壁があるというね…
138
名無しさん@ピンキー
2026/02/23(月) 18:51:47.92 ID:F19byg/3d
ワイはVRAM合計40GBやから80bと235bの間でMoEモデルが欲しいで
139
名無しさん@ピンキー
2026/02/23(月) 18:54:01.18 ID:yBYjhekA0
クラウドで使えるA100とかが80GBなんだよなぁ…2台は高い
ローカルは12GBのクソザコだからオモチャしか動かない
140
名無しさん@ピンキー
2026/02/23(月) 20:13:59.36 ID:okNQIFO/0
VRAM12GBでも4枚つければ48GBだからがんばれ
141
名無しさん@ピンキー
2026/02/23(月) 21:04:24.64 ID:b+m2b8Ei0
142
名無しさん@ピンキー
2026/02/23(月) 22:19:34.79 ID:LH6xn9kR0
cpuでmoe動かすかどうかで全然速度ちゃうで
143
名無しさん@ピンキー
2026/02/23(月) 22:53:40.75 ID:kv0g8H1i0
Qwen3.5はUD-TQ1.0とかいうごりごりに削ったやつでも会話破綻しないし画像認識も問題ないな
ツールコール結構失敗するから何かは失ってるんだろうけど、割とありかもしれない
144
名無しさん@ピンキー
2026/02/24(火) 01:16:14.13 ID:ll0ulB+N0
dense溢れさせるより格段にマシ
145
名無しさん@ピンキー
2026/02/24(火) 01:41:43.92 ID:1nazkFpb0
>>143
ちっちゃいモデル待ち望まれるなぁ
そろそろ中国の旧正月休み明けるからリリースされるんちゃうかと淡い期待を抱いとる
146
名無しさん@ピンキー
2026/02/24(火) 04:33:21.09 ID:0i1NQjS50
nemotronの27Bくらいの奴ください
147
名無しさん@ピンキー
2026/02/25(水) 10:33:02.52 ID:ffGvNrI/0
中国製はclaudeの蒸留か
ならベンチ番長な理由も分かる
それに騙されて中国製を使うのは危ないな
148
名無しさん@ピンキー
2026/02/25(水) 12:18:06.12 ID:VAdZ+Gtq0
qwen3_next_80bで土台となるエロ小説の文章生成するところまでは出来たが、直訳っぽさが色濃く残ってしまう。
直訳っぽさをなくすのに試しにGemini 3.1 Pro使ってみて効果が見られた一方、3.0から3.1になって他の用途では申し訳の連発になったから、将来この直訳っぽさをなくす用途でさえも出力制限を食らう可能性が十分にある。
やっぱりローカルLLMでこの直訳っぽさを解消するようなリライトが出来たら良いが、何か良いモデルはないだろうか?
149
名無しさん@ピンキー
2026/02/25(水) 12:50:55.09 ID:Jk70JxvQH
Qwen3.5 122Bが一番ちょうど良さそう
誰かHeretic作らんかな
150
名無しさん@ピンキー
2026/02/25(水) 12:59:21.83 ID:8hQY9o5x0
397Bのhereticも出たな
151
名無しさん@ピンキー
2026/02/25(水) 13:00:10.79 ID:3HU38y/Rd
152
名無しさん@ピンキー
2026/02/25(水) 16:16:49.32 ID:q6+Qcsrn0
RTX4090でQwen3.5-27BのQ5K_Mは載る
フィルタがあるのでabliterated・heretic待ち
153
名無しさん@ピンキー
2026/02/25(水) 19:42:49.71 ID:bad8tELF0
意図的に抑えたのか賢くなった結果なのか分からないけど
Qwen独特の長考癖が軽くなってる気がする>35BA3B
154
名無しさん@ピンキー
2026/02/26(木) 10:45:15.27 ID:jyAFhnTB0
112Bいいね
155
名無しさん@ピンキー
2026/02/26(木) 10:52:52.34 ID:jyAFhnTB0
122Bか失礼
GLM-4.5-Airとほぼ同サイズでアクティブ若干小さいから
コンテキストも増やせるしちょうど良いところ埋めてくれたな
156
名無しさん@ピンキー
2026/02/26(木) 12:03:10.30 ID:rgdiMG2m0
Qwen3.5の日本語力はどうなん?
157
名無しさん@ピンキー
2026/02/26(木) 14:04:41.27 ID:SE4+HfrDC
>>156
脱獄した状態だが397Bの日本語エロはかなりいい
158
名無しさん@ピンキー
2026/02/26(木) 15:47:43.12 ID:8dcyzIAJr
意味フな文出まくりだろうが?
159
名無しさん@ピンキー
2026/02/26(木) 18:13:53.12 ID:TC6bQOj10
397Bのheretic
エロいプロンプトは通るけれどいろいろ理屈付けたThinkの果てに健全な文章を吐くように思えるが
これは俺のヘキの問題なのだろうか
160
名無しさん@ピンキー
2026/02/26(木) 19:04:41.19 ID:gnWb+3bL0
>>159
に速攻修正して終わらせるんだ
奴に考えさせてはいけないw
161
名無しさん@ピンキー
2026/02/26(木) 20:13:49.82 ID:EpuSk6aP0
赤ちゃんですまんが
koboldcppでモデル入れて起動したら、起動時だけディスク使用率が90%くらいになるんだけど
これって普通なんか?
生成してる時はVRAMとメモリの使用率だけ高くなる
162
名無しさん@ピンキー
2026/02/26(木) 20:19:23.13 ID:Cg9jjw1q0
最近、チャッピーのワザップが酷くなってるように思う
163
名無しさん@ピンキー
2026/02/26(木) 20:42:23.08 ID:FtvFDDCD0
>>161
そりゃ数十GBのモデルを一気に読み込むから普通よ
164
名無しさん@ピンキー
2026/02/26(木) 20:43:12.25 ID:EpuSk6aP0
>>163そうなんかありがとう
165
159
2026/02/26(木) 22:12:14.59 ID:TC6bQOj10
>>160
アドバイスありがとう
やってみたけど、何かNSFWになりそうな知識がまるっと抜け落ちているような挙動をするなぁ
オリジナルのQwen3.5でしたほうが普通にエロい文章が出てくる
166
名無しさん@ピンキー
2026/02/26(木) 22:26:53.72 ID:gnWb+3bL0
>>165
もしかして
Sabomako/Qwen3.5-397B-A17B-heretic-GGUF
こっち?
これは量子化低いから
novokot/Qwen3.5-397B-A17B_heretic
これの方がいいかも
ワイはめんどいから量子化待ってるとこw
167
名無しさん@ピンキー
2026/02/26(木) 23:54:14.50 ID:NxOeFtIH0
LM Studio(最新バージョン)でQwen3.5のモデルがロードできずエラーになってしまう
同じ症状の人います?
168
名無しさん@ピンキー
2026/02/26(木) 23:58:19.07 ID:ioo8dip5d
>>167
qwen35moe未対応やないか?
169
名無しさん@ピンキー
2026/02/27(金) 00:05:06.52 ID:pSypFOYv0
thinkさせたくないならチャットテンプレートに{"enable_thinking": False}って設定すればいいよ
170
名無しさん@ピンキー
2026/02/27(金) 01:04:11.38 ID:/tIFvXj20
>>167
koboldも一部の3.5モデルでエラーになる
cudaでエラーになってたからcpuモードで動かした
171
名無しさん@ピンキー
2026/02/27(金) 02:09:16.92 ID:+Y4i0Qn2a
>>170
同じ症状やったけどHotfix 1.108.2 でcudaのエラー直ってたで。ちな3.5-397B
172
名無しさん@ピンキー
2026/02/27(金) 11:59:10.26 ID:o2v/rmxh0
>>167
ワイwinget民
LM Studioアプリでは受け取れない更新をwingetで受け取り無事解決
173
名無しさん@ピンキー
2026/02/27(金) 19:48:24.83 ID:egSyKS1a0
Qwen3-Coder-480B-A35B-Instruct-FP8 に対して「あなたは誰ですか?」と聞いたら
「こんにちは!?? 私はClaudeです。Anthropicが開発したAIアシスタントです。お役に立てて嬉しいです!」
他のAIを名乗るなんてどういうことなんやろか、蒸留されてるってこと?
174
名無しさん@ピンキー
2026/02/27(金) 20:46:40.05 ID:ER8CutXh0
うん。提訴するらしい
175
名無しさん@ピンキー
2026/02/27(金) 21:57:25.73 ID:4iprhUQB0
俺は学習しても良いけどお前らは学習禁止。
この心構えが日本のAI開発には足りない。
176
名無しさん@ピンキー
2026/02/27(金) 22:27:26.43 ID:65HXt+Yr0
国が日本で出版されたすべての著作物をデータセットとしてまとめてくれないかな
まともな国産LLMがないからせめて海外のLLMの日本語性能を上げるがのが一番日本の国益にかなうやろ
今でも英語/中国語で指示するのが一番性能出るとか言われてるし話者数で10倍以上の差があるのに国が危機感もってないのがやばい
177
名無しさん@ピンキー
2026/02/27(金) 23:30:10.46 ID:4iprhUQB0
日本でデータセット作っても海外の倫理基準で学習されたらエロ的には旨味が少ない気がする
178
名無しさん@ピンキー
2026/02/27(金) 23:47:15.63 ID:fngNypzb0
swallowみたいにOSSベースが現実的な路線なのかね
179
名無しさん@ピンキー
2026/02/28(土) 00:07:58.96 ID:U8TviNvMd
日本でまだ国や自治体に何か期待している人がいるってのは面白いな
180
名無しさん@ピンキー
2026/02/28(土) 00:37:26.23 ID:pw02WBDGd
最近のQwenの事前学習には大量の合成データ(AIで生成したデータ)が含まれてるらしいから、他のLLMでの会話データも入ってるんだろうな
181
名無しさん@ピンキー
2026/02/28(土) 01:50:54.53 ID:HkCgn+tB0
Qwen3.5-35B-A3B-heretic
182
名無しさん@ピンキー
2026/02/28(土) 05:00:42.52 ID:kmRG19Lz0
openaiがoppaiに見える症状がでてきた
183
名無しさん@ピンキー
2026/02/28(土) 14:26:26.01 ID:dWyyklKK0
Qwen3.5-27B-hereticとQwen3.5-35B-A3B-heretic比較中
俺スペックではこの辺が限界
184
名無しさん@ピンキー
2026/02/28(土) 14:56:31.37 ID:l9LF6yOaC
novokot/Qwen3.5-397B-A17B_heretic
ニコボスニキがやってくれると待ってるが
ストレージに空きできたからもう自前でやるか
UD-Q4K_XLが欲しいし
185
名無しさん@ピンキー
2026/02/28(土) 15:20:51.59 ID:2QlXsvNP0
中途半端な金でへなちょこllm作るくらいなら
ちゃんとしたデータセットを作って
openaiとanthropicとgoogleに売り込むくらいしろ
186
名無しさん@ピンキー
2026/02/28(土) 16:25:09.12 ID:ID3ipnHD0
redditでちょうど見たんだけど
UnslothのUDはQwen3.5のMoEだとバグってて精度低下してるみたい
同じぐらいの量子化なら普通の方が良い
あと同じ投稿にあったんだけど
llama.cppは--n-cpu-moeより--fit onオプション使った方が少し早くなるらしい
187
名無しさん@ピンキー
2026/02/28(土) 19:39:59.83 ID:2V9pIZ8Z0
>>185
なんのメリットがあるんや
アホにも程がある
188
名無しさん@ピンキー
2026/02/28(土) 20:08:10.03 ID:vaOc2UiD0
>>186
UDだけなら今日にバグ改善版アップロードされてなかったっけ
でもQwen3.5すごいなあ
体感だけど4oは確実に超えてるしこれがローカルで動かせる時代になったの夢があるは
189
名無しさん@ピンキー
2026/02/28(土) 21:18:05.28 ID:2QlXsvNP0
国内の研究者もどきがよわよわllm作りにムダ金使うくらいなら
海外の本気勢の訓練データに日本語セットを入れてもらえば日本語と日本文化をより良く扱えるモデルをユーザーは安価に入手できるから
メリットしか無い
190
名無しさん@ピンキー
2026/02/28(土) 22:01:18.33 ID:1sowuZVA0
>>186
ならmxfp4-moeにするかな
191
名無しさん@ピンキー
2026/03/01(日) 00:17:23.35 ID:paTzhVGB0
Qwen3.5(122B)、性能は凄いけど台詞が微妙だなぁ……
192
名無しさん@ピンキー
2026/03/01(日) 09:24:33.77 ID:j1wSz0JR0
jnva部でここを知って来た赤ちゃんですまんやけど、メインメモリ64GB VRAM 16GBでエロやりたいと思っとるんだがローカルじゃ無理かな?
導入するにしてもKoboldcppとLM Studioのどっちが良いのか?モデルも多いし、ここの人たちは普段どのモデルを使ってるん?これイチオシとかあったら教えてほしい
193
名無しさん@ピンキー
2026/03/01(日) 10:34:08.73 ID:CVUR3HT20
194
名無しさん@ピンキー
2026/03/01(日) 10:52:51.86 ID:j1wSz0JR0
>>193 助かるやで、ありがとう
195
名無しさん@ピンキー
2026/03/01(日) 12:49:40.84 ID:A1nUcMp+0
最近、情報量多すぎ
やって見たいこと多すぎて時間が足りないわ
196
名無しさん@ピンキー
2026/03/01(日) 13:53:51.02 ID:DDXdTxjb0
>>179
とにかく何もするなだな
AI学習は何をやっても合法にしてももう追いつけないとこまで来てるんじゃなかろうか
197
名無しさん@ピンキー
2026/03/01(日) 16:22:57.26 ID:G8Fgu/VFC
Qwen3.5-397B-A17B_mxfp4-moe.gguf試したが9t/sくらい出て十分実用的だわ
規制も脱獄させれば使えるレベルだが後書きでうだうだ言ってくるのがウザいなw
次はheretic版を試すわ
しかし量子化だけで2T空きが必要なのはしんどいなダウンロードや後のハッシュチェックでもとにかく時間かかりすぎる
198
名無しさん@ピンキー
2026/03/01(日) 22:22:50.33 ID:/ShlmBq+0
199
名無しさん@ピンキー
2026/03/01(日) 22:31:11.34 ID:un6BXMjz0
>>198
あれはただkoboldにリクエストを飛ばしてるだけだから好きなモデルを別で起動して生成ボタン押すだけで動くよ
200
名無しさん@ピンキー
2026/03/02(月) 11:39:41.37 ID:qNLSUHR1r
もうcopilotあたりに聞いたら何でも教えてくれるし
201
名無しさん@ピンキー
2026/03/02(月) 18:55:49.05 ID:WsO3QLCj0
3. Base Tier Model Availability Changes
Several high-end frontier models will be removed from the Base subscription tier, including:
GLM-5
Kimi K2.5
Qwen 3.5
MiniMax M2.5
These models are exceptionally resource-intensive and require continuous infrastructure scaling and optimization. Under the current structure, they are frequently overloaded, resulting in slower performance and reliability issues.
さらばChutes
202
名無しさん@ピンキー
2026/03/02(月) 21:02:40.21 ID:+C8XpVwA0
rakuten700Bも発表から公開が開きすぎて何も期待できん
203
名無しさん@ピンキー
2026/03/02(月) 21:42:02.26 ID:Quw20Gcq0
novokot/Qwen3.5-397B-A17B_heretic
これ、量子化して試したけど、日本語がおかしくなるな
で、hereticのサポート見ると、qwen3.5に完全対応してなかったみたいやね
次のheretic版に期待
204
名無しさん@ピンキー
2026/03/02(月) 21:45:14.14 ID:4AdP1oOP0
qwen3.5の9B,4B,2B,0.8Bがリリースされてるね
205
名無しさん@ピンキー
2026/03/02(月) 21:55:53.55 ID:joJur5Kh0
206
名無しさん@ピンキー
2026/03/02(月) 23:34:44.00 ID:HzZ5sEYR0
>>201
モデルが大きくなりすぎて耐えられなくなったか
207
名無しさん@ピンキー
2026/03/02(月) 23:53:07.05 ID:2WCT4PLE0
モデル大きいし質が高いからアクセス集中したんだろうな
オープンで質のいいモデルが公開されてるってとても大事よね
それが無くなった途端に大手が数倍に値段上げてこれまでの投資を回収してきそう
208
名無しさん@ピンキー
2026/03/03(火) 00:41:29.14 ID:x0F+ZpUu0
9bスゲーな
このサイズで信じられんくらいしっかりしとる
209
名無しさん@ピンキー
2026/03/03(火) 02:00:18.12 ID:w/coGYlXd
>>201
これまでの3ドルが安かったから仕方ないな
いま入ってるタスクを片付けるためにPlusにしたが
もう公式と大差ないから他に良い所があれば移るわ
210
名無しさん@ピンキー
2026/03/03(火) 02:22:04.45 ID:SJNVmdxE0
LLMの自由を守ってるのが中国勢だと言うのが凄く皮肉を混じる
逆に米国はクローズなモデルな上に政府が半導体規制して実質的な独占と囲い込み狙ってるし
そう言えばLlamaって息してるんか?
211
名無しさん@ピンキー
2026/03/03(火) 03:05:45.19 ID:eSSQwtAR0
qwen3のデンス結構オールラウンドに使ってたから嬉しい
212
名無しさん@ピンキー
2026/03/03(火) 03:36:54.74 ID:5R4BLgrW0
METAのAIは崩壊した