🤌意大利🤌人也不该吃麦当劳!//@来去之间:不是麦当劳么?
@t0mbkeeper
刺杀美国联合健康保险公司 CEO 布莱恩‧汤普森的嫌犯叫路易吉·曼吉奥内。刺杀筹划的很周密,但因为在星巴克跟女店员搭讪时摘下了口罩,被摄像头拍到脸,于是被抓。路易吉·曼吉奥内,这名字一看就是意大利人。玩过《刺客信条》的都知道,刺客这个活儿很意大利。了解意大利人的也知道,在刺杀过程中能为了姑娘摘下面罩,这也很意大利。但作为意大利人居然喝星巴克,所以祖先也不保佑他,就让他栽在了星巴克。
renew
@tombkeeper
“咱哥俩关起门来说啊……老头子这到底是图的啥?论钱,几辈子花不完;论权,还有谁比他权大?媳妇又漂亮,儿女也孝顺——他心里到底还想要啥?”福奇听到这里,抬起头,笑了笑。把烟屁股往地上一扔,踩熄了。又从桌上抓起瓶燕京,一仰脖,只听:“懂懂懂懂懂懂懂懂懂懂懂懂……”
才2100万美金,感觉不贵啊//@八大山债人:3%到8%房价?。。#债见#。。 //@数知实验室:请教专家:这个房子正常的运营维护翻新成本一年得多少啊
@悠然米拉
巨星奥黛丽·赫本在瑞士的故居“宁静居”现以 2100 万美元的价格上市出售了。这座位于风景如画的托洛切纳兹镇的二级保护建筑,距离日内瓦仅 30 分钟车程,曾是奥黛丽·赫本长达 30 年的私人避风港,一直到 1993 年她去世。这座占地 40 多英亩的庄园拥有 12 间卧室和 8 间浴室,配有 5 个壁炉、一间书房和一部电梯。户外设施包括一个 50 英尺的恒温游泳池,和可容纳 15 辆车的停车场。这个庄园还有赫本亲自栽种的白玫瑰灌木丛——这是纪梵希当年为她 60 岁生日送的礼物。🌸🍃
@indigo
Llama 4 发布!多模态理解的 MoE 开源非推理模型,暂时超越 Deepseek 成为 LMArena ELO 第一的开源模型。最大支持一千万 Tokens 的上下文窗口,非常适合私有部署做企业内知识自动化👀 模型按规模分为三个版本:Llama 4 Scout- 参数:17B 活跃,16 个专家,总参数 109B- 特点:同类最佳的多模态模型,性能超越前代 Llama 模型,可在单个 H100 GPU 上运行(使用 Int4 量化);- 性能:在多个基准测试中优于 Gemma 3、Gemini 2.0 Flash-Lite 和 Mistral 3.1;采用轻量级监督微调(SFT)> 在线强化学习(RL)> 轻量级直接偏好优化(DPO)的训练流程,专注于推理、编码和数学领域的提升Llama 4 Maverick- 参数:17B 活跃,128 个专家,总参数 400B- 特点:同类最佳的多模态模型,提供最佳的性能成本比,可在单个 H100 DGX 主机上运行;- 性能:在多个基准测试中击败 GPT-4o 和 Gemini 2.0 Flash,在推理和编码方面与 DeepSeek v3 相当,但活动参数不到后者一半。其实验性聊天版本在 LMArena 上获得 1417 的 ELO 分数;适用于通用助手和聊天场景,擅长图像理解和创意写作;在多文档摘要和代码推理等任务中表现出色,支持多达 48 张图像的视觉理解;Llama 4 Behemoth- 参数:288B 活动,16 个专家,总参数近 2T- 特点:Meta 迄今最强大的模型,作为教师模型通过蒸馏技术提升其他模型性能;仍在训练中,未正式发布;- 性能:在 STEM 基准测试(如 MATH-500 和 GPQA Diamond)中优于 GPT-4.5、Claude Sonnet 3.7 和 Gemini 2.0 Pro;作为教师模型,通过新型蒸馏损失函数(动态加权软硬目标)提升 Llama 4 Maverick 的性能;后训练中剔除 95% SFT 数据,结合大规模 RL 和动态提示过滤,显著提升数学、推理和编码能力。Meta 的官方介绍文档:Llama-4 原生多模态人工智能创新新纪元的开端 网页链接
//@八大山债人://@高飞://@dingtingli:假期花了几天时间断断续续地看完了 AK 的这个视频,借用梁博的一句宣传语:这是文科生都能看懂的大模型教程。
@高飞
#模型时代# Andrej Kaparthy 3小时讲座4K版:如何深入理解ChatGPT等大语言模型这个讲座Andrej Kaparthy已经发布几天,由于实在是太长,3个半小时之巨。用我的AI工作流处理的时候,也遇到过多次崩溃,但最终还是整理出一个版本。这个讲座的价值意义,就不用我多做介绍了,含金量百分之一万。而且,既然已经很长了,所以干脆传一个4K 版本,这样PPT上的字符更清晰。接下来,直接附上讲座的原始简介,以示尊重(其实是我自己还没听完):***Andrej Kaparthy:这是面向大众的深度探讨,介绍为 ChatGPT 等相关产品提供支持的大型语言模型(LLM)AI 技术。内容涵盖了从模型开发到思考模型“心理”的心智模型,以及如何在实际应用中最大化地使用它们的全部训练过程。我在大约一年前已经发布过一个“LLMs 简介”的视频,但那只是一次随意演讲的重录。因此,我想重新回来做一个更全面的版本。个人简介:Andrej 曾是 OpenAI 的创始成员(2015 年),之后在特斯拉(Tesla)担任 AI 高级总监(2017-2022 年),现在是 Eureka Labs 的创始人,该机构正在建设一所 AI 原生的学校。他在本视频中的目标是提高人们对 AI 最新技术状态的了解和理解,并帮助人们有效地在工作中使用最新、最强大的技术。更多信息可见 karpathy.ai/ 和 x.com/karpathy00:00:00 介绍(introduction) 00:01:00 预训练数据(pretraining data) 00:07:47 分词(tokenization) 00:14:27 神经网络输入/输出(neural network I/O) 00:20:11 神经网络内部结构(neural network internals) 00:26:01 推理(inference) 00:31:09 GPT-2:训练与推理(GPT-2: training and inference) 00:42:52 Llama 3.1 基础模型推理(Llama 3.1 base model inference) 00:59:23 从预训练到后训练(pretraining to post-training) 01:01:06 后训练数据(对话数据)(post-training data, conversations) 01:20:32 幻觉、工具使用、知识/工作记忆(hallucinations, tool use, knowledge/working memory) 01:41:46 自我认知(knowledge of self) 01:46:56 模型需要 tokens 来思考(models need tokens to think) 02:01:11 分词再探:模型难以处理拼写(tokenization revisited: models struggle with spelling) 02:04:53 不平滑的智能(jagged intelligence) 02:07:28 监督微调到强化学习(supervised finetuning to reinforcement learning) 02:14:42 强化学习(reinforcement learning) 02:27:47 DeepSeek-R1 02:42:07 AlphaGo 02:48:26 来自人类反馈的强化学习(RLHF, reinforcement learning from human feedback) 03:09:39 展望未来(preview of things to come) 03:15:15 跟踪 LLM 的发展(keeping track of LLMs) 03:18:34 在哪里找到 LLM(where to find LLMs) 03:21:46 总结(grand summary) 高飞的微博视频