我想到这个high点那年出生的孩子,现在都上初二了: 查看图片 //@惊奇观世界:双盲很多中药也在做了吧,很多神奇的事不好解释,比如奥司他韦的化合物前体在八角里面就有,那么八角是不是会简接的起到效果呢//@t0mbkeeper:回复@清风明月等闲度:图片评论 查看图片 //@清风明月等闲度:回复@t0mbkeeper:我也不相信中医,但这个案例是我亲自经历的。就是这么神奇,我不得不思考中医的有效性。//@t0mbkeeper:你们看看是不是: 查看图片 //@laminin:我到今天也是坚定的中药无效浪费论,但是把中药踢出医保,我认为在我有生之年看不到:巨大的中药既得利益集团、人民也不接受。
@兲虎
集采相关的那些有的没的,我建议咱们先放一边我建议先把中成药集体踢出医保,把这个搞完了咱们再去扯皮集采的事儿谁赞成?谁反对?
@黄建同学
DeepSeek-OCR一开始以为是又一个普通的OCR模型,认真看了下论文,发现其重点是压缩,可以有助于LLM或者Agent的记忆管理。DeepSeek-AI 团队提出了一种全新的Contexts Optical Compression 方法,核心思想是:利用视觉模态作为一种高效的文本压缩媒介,以图像形式表示长文本,从而大幅减少LLM处理长上下文的计算负担。DeepSeek-OCR 首次验证了将文本信息以视觉形式进行高效压缩与恢复的可行性,在 10× 压缩下仍能近乎无损地还原文本。1. 研究动机当前LLM在处理长文本时面临计算量随序列长度平方增长的问题。论文提出将长文本转化为图像,让视觉模型(VLM)对其进行编码,用较少的视觉 token 表示大量文本信息,实现“以视觉压缩文本”的思路。这种“光学压缩”既能显著减少 token 数量,又可能启发 LLM 的长期记忆与遗忘机制研究。2. 模型架构DeepSeek-OCR 由两部分组成:(1)DeepEncoder:一种新型视觉编码器,结合 SAM-base(局部注意力)与 CLIP-large(全局注意力),中间加入 16× 卷积压缩模块,可在高分辨率下保持低激活内存并显著减少视觉 token。(2)DeepSeek-3B-MoE 解码器:基于 Mixture-of-Experts 架构,推理时仅激活 570M 参数,用于从视觉 latent token 重建原始文本。3. 多分辨率与模式支持DeepEncoder 支持多种输入模式(Tiny、Small、Base、Large、Gundam),对应不同分辨率与视觉 token 数,方便在研究不同压缩率或实际应用时灵活选择。例如 Gundam 模式可解析超高分辨率文档(如报纸),最高支持动态拼图式输入。4. 视觉遗忘机制作者提出“视觉化遗忘机制”假设:可以通过逐步缩小图像分辨率模拟人类记忆衰减过程,实现“信息随时间模糊化”的长期上下文管理。光学上下文压缩或可成为未来 LLM 无限上下文架构的关键方向。项目:github.com/deepseek-ai/DeepSeek-OCR#人工智能##程序员#
@宝玉xp
很多人误解了 AK(Andrej Karpathy)在唱衰强化学习(RL),他本意不是说要‘换掉’RL!AK 的核心意思是,开发先进的 AI 并不是一道“单选题”,不是说有了A就不要B。这更像是在做一块多层大蛋糕,每一层都有自己的作用,而且必须按顺序叠加上去:第1层(蛋糕底座): 这是最原始的基础模型。它很强大,但只会傻傻地“接话茬”(自动补全)。第2层(涂奶油): 我们用“指令微调”(SFT)来训练它。这一步是给蛋糕打底、塑形,教会模型听懂人类的命令,扮演一个“助手”的角色。第3层(裱花与点缀): 这就是“强化学习”(RL)的活儿。这是精加工!RL 能剔除模型的坏毛病,比如防止它胡说八道(幻觉)或卡壳复读。更牛的是,RL能“点化”模型,让它学会真正的推理,做出像AlphaGo“神之一手”那样惊艳的、SFT很难教会的深度思考。第3层(RL)非常棒,但这个蛋糕还没做完!RL 是通往 AGI(通用人工智能)路上必不可少的一层,但它不是最后一层。我们必须在 RL 的基础上,接着去研究第4层、第5层、第6层……(虽然我们还不知道它们具体是什么)。------Andrej Karpathy:我非常希望你继续研究强化学习(RL)!我觉得,大家可能误会了,以为我建议用什么东西来‘取代’强化学习。这可不对,我之前试着澄清过,但显然没说清楚。我的意思是,它们是一层一层叠加的。- 第1层,是基础模型的自动补全(base model autocomplete)。- 第2层,是指令微调(SFT, instruct finetuning),这能让模型学会扮演‘助手’的角色(就像InstructGPT论文里做的那样)。- 第3层,就是强化学习(RL)。它让我们能够反过来优化模型的‘采样循环’(注:可以理解为优化模型的“思考”和“输出”过程),赶走那些讨人厌的行为,比如胡说八道(hallucinations)、卡壳复读(stuck repetition loops)。更重要的是,它能激发那些光靠指令微调(SFT)很难教会模型的行为,比如推理能力——就像(AlphaGo的)‘第37手’(注:指AlphaGo下出超越人类理解的“神之一手”,代表了超越常规训练数据的、深层次的“领悟”)那样的表现。我认为,在通往最终解决方案的路上,上面说的每一层都会保留下来,成为一个必要的阶段。但我想说的是,我们还需要更多的层和新的点子——第4N层、第5层、第6层,等等。在最终的AGI(通用人工智能)配方里,强化学习绝对是其中一环。就像我们人类也会在各种行为中用到强化学习一样,它只是我们工具箱里一个强大的工具罢了。
//@互联网的那点事:"1000 个字的文章,压缩成图像只需用 100 个视觉 token(压缩 10×)表示,模型解压时候仍能还原出 97% 的原文。 这就展示了一种**“AI视觉压缩记忆”**的概念" 牛逼的想法,模拟了人类记忆和遗忘过程...
@小互AI
DeepSeek 发布了一个新型 OCR文档理解模型:DeepSeek-OCR 它不仅解析图像文档达到了一流水平还探索出了一个大胆的想法👇🏻大语言模型(比如 GPT)在处理长文章时,消耗的计算量会爆炸性增长。但如果把文字“画成图片”,模型只需要很少的“视觉 token”就能理解同样内容。这样做相当于给AI一个**“视觉记忆压缩”机制**。也就是:他们先把长文本压缩生成一张图片,用视觉模型将其压缩成只需少量“视觉 token”,然后再用语言模型从这些 token 解码出文字。换句话说,他们让模型“看图识字”来代替“逐字阅读”,把文字信息压缩进图像空间,从而实现大幅度的 token 减少。比如:1000 个字的文章,压缩成图像只需用 100 个视觉 token(压缩 10×)表示,模型解压时候仍能还原出 97% 的原文。这就展示了一种**“视觉压缩记忆”**的概念:-未来的AI可以把旧记忆变成图片保存;-用更少的计算处理“几百页”的上下文;-这可能是解决“LLM记忆上限”的关键技术。他们将视觉压缩比拟为人类的“遗忘曲线”:也就是说:近期的上下文保留高分辨率图像(高保真信息);较旧的上下文可被压缩为模糊图片(低信息密度);这样既节约计算资源,又模拟了人类“遗忘”的自然过程。性能有多强?- 10× 压缩几乎不损精度(97%)- 20× 压缩还能保留 60% 信息- 在标准 OCR 测试中,性能超过了 GPT-4o 同类模型- 支持上百种语言- 在 单张 A100-40G GPU 上每天可以生成 超过 200,000 页 训练数据- 20 个节点每天可处理 3300万页的训练数据模型还能做什么?识别图表、公式、几何图;输出结构化数据(如HTML表格);理解图片内容、识别多语言;详细解读:网页链接