#archlinux-cn-offtopic
!sHfvsJejodKvXevZ5DIO_XTCyV0ElW1n6NOR__tH7Pc
23,333 messages · Page 169 of 234
例如我把这个页面扔进去
https://thekelleys.org.uk/dnsmasq/docs/dnsmasq-man.html
数据量不够,很难做到你想要的情况,甚至会出现 效果就是grep高级版 然后性能还超慢。。。
* 内存是赛博黄金,黄金有期货很合理吧
内存是黄金,黄金有期货很合理吧
内存还有期货吗
这个 ccc 是准备就弄一次性代码吗
https://github.com/anthropics/claudes-c-compiler/issues/57
把文档内容喂进去帮我做实现/文档内容检索是不行的吗
冲动就会白给
犹豫就会败北
内存这个完全是倒狗在搞事情,搞一波现货转期货,但硬盘这个 的确是有现实需求在的 但这个价格。。。的确也有现货转期货的情况在
还有我的内存 本来想把内存从64升级到96套条 也是眼看着从2300涨到了8300 哈哈哈
大多所谓文档检索的需求 是真需求 伪实现。。。 想让ai进行概述搜索 这个是有点。。。为难它的,我让它给我总结最近的面试 它就坑杀我了,我领导用PI去总结我的面试情况,发现全是人才,我放过一个 让他见识一下 他才不为难我。。。但是大领导却。。。最近一定要放过两个人进去
* LLM 有个特点是多卡并行+处理并发请求计算效率是单卡+串行几十上百倍,本地个人用相对来说就是不划算。即使单卡一般并行请求也能提高 10 倍吞吐
LLM 有个特点是多卡并行+处理并发请求效率是几十上百倍,本地个人用相对来说就是不划算
我现在十分后悔双十一没买4t的pcie5固态 眼看着从2600涨到4900了 我有点绷不住了
文档检索,这个怎么说呢,你得确认一下你的需求,不是直接说有个PI就能帮你搞到什么的 你就假设你在和群友沟通 你想要干什么 群友帮你搞
存储空间现在可太值钱了
同类软件很多吧 你不至于给自己电脑塞一个几个g的ai模型 单纯来当文件检索
会的,内存一定杀一刀,目前是崩盘前夜。
说实话我是完全不推荐你们本地部署的,无论是价格 还是什么,直接用免费或者买一些token是最合算的(因为公司一直在推PI 也自己装了)
现在买台式机... 内存和硬盘会被宰吗
而且我有点想当文档检索器
我现在之前的笔记本要淘汰了,算力不够我打群星了,显卡也不够我打耻辱2/赛博朋克2077,不开心。但手头能凑出7000搞个台式就已经是上限了
拿着跑着玩
之前装8b玩了会 感觉本地部署没必要
智商堪忧 没必要
3b 的应该是可以吧。。
显卡是 580 4g 想试试跑 1.5b/3b的模型可以吗(?)
我这边正在 装 ollama
mac如果不在文件系统里拉屎多好。。。 不过这点能忍
联想游戏本办公 台式爱奇艺
没用过mac
有点想买 华硕的挑战13 那个14寸带有8060S的笔记本 有群友使用过相关产品嘛?(还是说 群友们 是联想+mac做为主力的)
* 模型也是多模型 唯一可惜的是没有国产的几个主流ai 要是有的话 就完美了
模型也是多模型 唯一可惜的是国产的几个主流ai 要是有的话 就完美了
如果你真把它当成一个工程师或者一个AI 那你很快就能吃到💩了
而且这玩意兼容性太强 基本主流ide都有插件能用
大多业务都是crud 对数据库的一个字段进行简单的调整,这种情况下 只要你能确认边界 就能交给它,就如同当年的各种算法 压缩都需要你自己确认 现在已经交给了库 引入一个so,(总不会有人现在还在手写ssl 搞 sm3 sm4 sm2吧)。PI 就是一个高级的模式匹配器 你只要这么看待它 那么 它就能给你带来最高级的生产力
看了一圈 对于开发来说 github copilot订阅好像是最划算的 他按对话请求次数来算的
像是從 API Spec 生成業務代碼
我只喜欢更酥脆的原切薄片
如果写代码是体力活的话,我会先问自己是不是写的姿势有问题....
我这里超市进口的品客薯片不知道为什么只有这些马来西亚原产的非原切
啊这,原来是这样
不能说是简单逻辑交给它 应该说是 你确认是被千万同行轮过的代码 并能确定边界的情况下 能交给它 让它用模式匹配的方式搞
就一个最小堆 我就不理解 它是怎么能给我搞出各种各样的锁 sleep之类的
反正就别管他到底是不是真的全对了 就问你 出来没出来
简单逻辑逻辑直接让agent写 自己微调就行了
拉屎很快哦~ 上次让他给我写一个5秒窗口内按事件重排序的队列以供顺序消费,它直接给我写出来了 别管风格 性能 就问你 是不是排序了吧
nv 应该维护一百年
我现在手头最老的是2060
10年前的950m显卡 linux驱动最新版本已经不支持了 这世道变得好快啊~ 一瞬间就10年了
节省体力
我写代码还是基本手动,没发现 agent 的魅力何在😇
还是找个稳定性价比高的付费 始终白嫖也不是个办法
累了 累了 终于放假了 但是却有一种无法言说的疲惫
先用着再说
而且免费的 以后很难说
卡啊 bro
* 草,确实有点感觉了
这几天坐火车时一直在看科幻世界2025年上半年合集,其中有些作品未必比这个强
nvidia 是 40 rpm kimi deepsuck minimax glm 都有
[m.image] https://www.pringles.com/my/products.html
而且这2400一年
那怪不得了,马来西亚主要客户是马来人,必须打进清真市场
草,确实有点感觉了
人还能用kimi deepseek
[m.image] 我看了下火山引擎 一对比 我想不到单买glm coding plan的理由
清真认证
哦,懂了
川普: 这啥?tariff 100%
当然是他自己的模型 GLM5那些
会不会是在马拉西亚生产然后运回去
那。。。。
glm那肯定是glm呀
* 提供的模型有哪些
为啥原产国是马来西亚
az 米国品牌
模型是什么
以后不好说 说是国产算力
国产模型算力配额如此紧张
现在都难产
claude爆火之后曾经有一个月算力短缺
最大的问题是以后glm真的有足够算力吗
滑动窗口的计费方式 跟claude max max一样
1600 很多了
* 5小时1600次请求
16 m token ?
1600 是什么单位
5小时1600
你看 wiki 说啥。。
多少 token 啊
大哥 人挣的美金 你挣的人民币
Claude同样的用量一年要2400美刀
那也没claude牛逼呀
比Claude便宜
总算让这些ai公司找到一个利益窗口了 但是也不是能这么薅吧
300一个月吗,大概,感觉比 chatgpt 贵两倍啊
有些数据不管怎么建表都麻烦吧(
而且正确设计合适的表也需要花费心思