1
gotoschool 3 天前 一般吧
代码还得吃 claude glm k2 在 claude 写好的项目上改 还说得过去 |
2
hnliuzesen 3 天前 一般,但是现在 minimax-m2 免费,在用这个,感觉不错,而且吐字比较快
|
3
aweim 3 天前 我试了几家,国内还是 qwen 效果好
|
4
spritecn 3 天前
gpt5-codex 还行,就是慢
gemini 2.5Pro 也算能用 |
5
stdout 3 天前 我用了 99 一个月的, 真不经用, 很快就能用完额度, 问题如果清晰明了不复杂,还是能很快搞定. 如果是做新项目不做大的修改,还行,要是单独改某些点, 有删除的, 很容易搞错.
|
6
iwdmb 3 天前 GLM 堪用
米国很多拿 GLM 来节省 Token 消耗的 |
7
quqivo 3 天前
@hnliuzesen 怎么调用啊这个
|
9
Mocus 3 天前 用 Kimi K2 接入 Claude Code 写 LLVM(C++),效果还能接受
|
10
lscho 3 天前 GLM4.6 写代码感觉还可以,测试了一周感觉勉强够用了,提示词稍微写详细一点
|
11
humanbait 3 天前 Claude code 中 使用 GLM4.6 挺久了,提示词写好,非常可用。
|
12
crocoBaby 3 天前 trae cn 版可以免费使用 GLM4.6
|
13
foryou2023 3 天前 用 api 的都烧不起,目前用 glm 4.6 的 lite ,日常够用,配合 openspec ,写好文档,写 nodejs 和前端还行
|
14
ARAAR 3 天前 用了一圈下来,国产模型还是 GLM4.6 ,minimax 别看跑分高,实测一塌糊涂,光快是没用的。gpt5codex 慢,但是最终效果好。所以快就是慢,慢就是快
|
15
jixule 3 天前 Roocode+魔搭 GLM4.6 差不多
|
16
pnczk2019 3 天前 GLM 4.6 上线问太少吧..扔了一个小东西进去..就一个对话他没回答就开始压缩了
|
18
Hyxiao 3 天前 Kimi 烧的也挺快的,走 API 可以试下 GLM
|
20
tlerbao 2 天前
别看那些标题党,国产没一个能打的
|