telegram_6918497116

@telegram_6918497116:nichi.co

39 messages · Page 1 of 1

telegram_6918497116
自己人才是最狠的
telegram_6918497116
想啥呢 glm比gpt还贵了
telegram_6918497116
犹豫就会败北
telegram_6918497116
还有我的内存 本来想把内存从64升级到96套条 也是眼看着从2300涨到了8300 哈哈哈
telegram_6918497116
我现在十分后悔双十一没买4t的pcie5固态 眼看着从2600涨到4900了 我有点绷不住了
telegram_6918497116
存储空间现在可太值钱了
telegram_6918497116
同类软件很多吧 你不至于给自己电脑塞一个几个g的ai模型 单纯来当文件检索
telegram_6918497116
之前装8b玩了会 感觉本地部署没必要
telegram_6918497116
智商堪忧 没必要
telegram_6918497116
联想游戏本办公 台式爱奇艺
telegram_6918497116
没用过mac
telegram_6918497116
* 模型也是多模型 唯一可惜的是没有国产的几个主流ai 要是有的话 就完美了
telegram_6918497116
模型也是多模型 唯一可惜的是国产的几个主流ai 要是有的话 就完美了
telegram_6918497116
而且这玩意兼容性太强 基本主流ide都有插件能用
telegram_6918497116
看了一圈 对于开发来说 github copilot订阅好像是最划算的 他按对话请求次数来算的
telegram_6918497116
简单逻辑逻辑直接让agent写 自己微调就行了
telegram_6918497116
还是找个稳定性价比高的付费 始终白嫖也不是个办法
telegram_6918497116
而且免费的 以后很难说
telegram_6918497116
卡啊 bro
telegram_6918497116
而且这2400一年
telegram_6918497116
人还能用kimi deepseek
telegram_6918497116
[m.image] 我看了下火山引擎 一对比 我想不到单买glm coding plan的理由
telegram_6918497116
glm那肯定是glm呀
telegram_6918497116
以后不好说 说是国产算力
telegram_6918497116
现在都难产
telegram_6918497116
滑动窗口的计费方式 跟claude max max一样
telegram_6918497116
* 5小时1600次请求
telegram_6918497116
5小时1600
telegram_6918497116
大哥 人挣的美金 你挣的人民币
telegram_6918497116
那也没claude牛逼呀
telegram_6918497116
总算让这些ai公司找到一个利益窗口了 但是也不是能这么薅吧
telegram_6918497116
国产现在都这么狠吗
telegram_6918497116
[m.image] 这定价是不是有点疯狂了
telegram_6918497116
我最近用glm4.7和 kimi 2.5 还有 minimax2.1 我感觉都还不错
telegram_6918497116
这倒也是啊 那openrouter面向是啥用户 我看用的人还挺多
telegram_6918497116
现在不都是多agent么 各家订阅只能用自家的 现在多模型共同使用不是大流吗
telegram_6918497116
telegram_6918497116
kimi2.5 glm4.7现在头部水平呀 openrouter上有统计的
telegram_6918497116
国内大模型都在开源 国外几个好的全是闭源 closedai
Page 1 / 1

Matrix Historian — Message Archive Browser