- 主题:巨震!谷歌发布六倍大模型存储压缩技术,将导致内存价格巨跌
这种功能目前看基本不可能,我昨天和豆包的对话,今天再跟他说同一个话题他都跟个白痴一样,完全忘干净了,每次都需要重新调用。
【 在 Barbarossa 的大作中提到: 】
: 原理很简单,比如豆包,如果你问它一个问题,它存起来,下次别人问同样的问题,大模型不需要去动用宝贵的算力资源去算,直接搜索cache里的答案就可以了。
: 大模型GPU必须配套内存(显存+系统内存),且是核心配置。其中GPU显存直接决定跑多大模型,它主要用来存储模型权重,中间数据计算,比如常见的70BDeepSeek需要80GB显存,极简版7B大模型也要13GB。显存不足会直接导致内存溢出,无法运行。
: 除此以外, 系统内存用来辅助加载、预处理数据,通常要求系统内存≥显存容量,如80GB显存配≥128GB内存。显存越大,系统内存需同步增大,否则会导致数据瓶颈。
--
FROM 124.17.26.*
那都说了几十条了,且完整的历史发过去也不能改变根本问题,他仍然要去数据库调用原始素材,且他的时间线真是太糟糕了,这也是所有AI的共性问题,基本没有时间概念,得反复提醒。
【 在 liangf 的大作中提到: 】
: 每次调用要把完整的历史送过去
: 发自「今日水木 on iPhone 13 Pro」
--
FROM 124.17.26.*
说的就是产品本身的缺陷
【 在 hut 的大作中提到: 】
: 时间概念大模型管不了,这可以交给大模型前端处理,大模型只是按段落里的字词顺序来生成
--
FROM 124.17.26.*
都推出好几年了,没有想象的那么好解决,感觉大模型没法调用传统函数中的功能
【 在 hut 的大作中提到: 】
: 这个问题靠前端好解决
: 关键是大模型只能学到不精确的语言规则
: 无法学到精确的人类可以学习的数学规则
: ...................
--
FROM 124.17.26.*