//@安全_云舒:可能结婚之后也不住一起是最好的,或许折中一下,结婚后一个住主卧一个住次卧,各有各的卫生间衣帽间,保持住隐私和边界。
@网易浪潮工作室
#为什么很多情侣都熬不过同居# 有人说,“很多亲密关系最终都败在生活细节上。”热恋时,满心满眼都是对方,偶尔见面也总有说不完的话。可一旦朝夕相处,风花雪月变成柴米油盐,人们对爱情的滤镜便碎了一地。在一个屋檐下,每个不起眼的小缺点都被无限放大,一点小事都可能引发一场争吵。很多人同居久了还会发现,明明这段关系没有出轨、没有家暴、没有外界阻拦、没有异地隔阂,但依然在日常琐碎中归于平淡,甚至像花束般凋零。情侣同居,为什么会这么难?#微博知识+#
一个世界首富,把那么多好玩的东西放在一旁,跑来搞DOGE为人民服务,却眼睁睁看着自己的政治理想被摧毁,那肯定会觉得被骗了。所以马斯克彻底不装了,连“皇上圣明,奸臣误国”的套路都不用了: 查看图片
@tombkeeper
#马斯克怒批特朗普法案# 特朗普搞的《The One, Big, Beautiful Bill》,简称 OBBB,直译就是《一个、大、美丽法案》。这个名字带有浓郁的特朗普语言风格,哪怕和美国两百多年来所有的法案一起丢到棒球场上,你也能一眼认出来。对于这个法案,白宫官方网站表示有“五十赢”。当年郭嘉给曹操鼓劲儿,也只挤出来“绍有十败,公有十胜”。这“五十赢”不知出自哪位的如椽巨笔。马斯克投奔特朗普,不拿工资搞 DOGE,是出于对传统共和党价值观“小政府”的追求。然而马斯克没想到自己抠了小半年帮政府抠省的那点钱,跟《一个、大、美丽法案》将要花出去的相比,简直不值一提。特朗普其实并不是共和党——当然他肯定不是民主党,但他也不是共和党。他的政治追求既不是共和党的也不是民主党的,而是凯撒的。他追求的是皇图霸业青史留名。然而,皇图霸业要花钱,全靠大家交的税。
各家公司风控策略对 iPhone 的信任权重都比较高,所以即使 iPhone 6s 也是有价值的,可以用来起号。
@tombkeeper
在网上别生气。你生气的对象可能在这些架子上。 tombkeeper的微博视频
比如:搜索引擎回答不了“林徽因老公的弟弟的舅舅是谁这种问题”,后来谷歌搞了知识图谱解决了一部分推理问题,但非常有限,最终大模型解决了这种泛化问题(语料中没有的间接知识,但是通过推理得到的新知识)。//@盐你一脸喵:泛化能力跟搜索引擎没有自己的理解不是一个事儿吧
@梁斌penny
“梁博,我昨天一个实习面试搞砸了,面试官问我用一两句话概括对大模型的理解,解决了什么问题,为什么能解决这些问题。我一下子就懵了,我一个大四学生,哪能有很高的理解水平呢,又向往大模型公司,这个问题要怎么回答呢?”答:我认为大模型的核心价值2C来说是压缩信息差,此前搜索引擎做到了一部分,但是缺2个。第一个是泛化能力,搜索引擎相当于从自己知识库找到相关性高的答案给出,没有自己的理解。第二个是受限于阅读习惯,只能按照按一定排序算法顺序给出参考,距离最终答案还需要人工做最后解读和整理。而大模型解决了这些问题,一步到位直接给答案,极大的压缩了信息差,实现了信息进一步公平。2B来说是整理数据的能力大大提高了,我们此前整理数据,使用了各种各样的自然语言处理工具,整理效果和性能都不行,大模型把这方面能力大大提高了,这也使得中美两国,包括一些拥有巨大数据的公司,Palantire,彭博,还有一些对冲基金公司的数据被更高效的整理,整体价值大大提高了。至于为什么大模型解决了这些问题,有两个特别牛逼的结合,第一个是注意力机制,这个解决了对输入的精准理解。第二个是残差网络,这个解决了深度神经网络训练梯度消失,梯度爆炸的问题。而深度神经网络可以拟合任何输入和输出的特性,加上上面2条改进,就成为无敌的利器。当然我的回答可能还是繁琐了一些,如果简单来说,2C是压缩信息差,2B是提高数据整理能力。核心改进是注意力机制(首创)和残差网络(借鉴),这么回答基本可以过关了。。
“梁博,我昨天一个实习面试搞砸了,面试官问我用一两句话概括对大模型的理解,解决了什么问题,为什么能解决这些问题。我一下子就懵了,我一个大四学生,哪能有很高的理解水平呢,又向往大模型公司,这个问题要怎么回答呢?”答:我认为大模型的核心价值2C来说是压缩信息差,此前搜索引擎做到了一部分,但是缺2个。第一个是泛化能力,搜索引擎相当于从自己知识库找到相关性高的答案给出,没有自己的理解。第二个是受限于阅读习惯,只能按照按一定排序算法顺序给出参考,距离最终答案还需要人工做最后解读和整理。而大模型解决了这些问题,一步到位直接给答案,极大的压缩了信息差,实现了信息进一步公平。2B来说是整理数据的能力大大提高了,我们此前整理数据,使用了各种各样的自然语言处理工具,整理效果和性能都不行,大模型把这方面能力大大提高了,这也使得中美两国,包括一些拥有巨大数据的公司,Palantire,彭博,还有一些对冲基金公司的数据被更高效的整理,整体价值大大提高了。至于为什么大模型解决了这些问题,有两个特别牛逼的结合,第一个是注意力机制,这个解决了对输入的精准理解。第二个是残差网络,这个解决了深度神经网络训练梯度消失,梯度爆炸的问题。而深度神经网络可以拟合任何输入和输出的特性,加上上面2条改进,就成为无敌的利器。当然我的回答可能还是繁琐了一些,如果简单来说,2C是压缩信息差,2B是提高数据整理能力。核心改进是注意力机制(首创)和残差网络(借鉴),这么回答基本可以过关了。。
renew
该内容请至手机客户端查看 查看二维码
我见过一个人非常认真地把“我还没有财富自由”作为损人利己的理由,并毫不避讳地说出来。当然,由于其天资所限,虽然确实损人了,但没有实现想象中的利己。好消息是,十年过去,这个人还没有财富自由。
在网上别生气。你生气的对象可能在这些架子上。 tombkeeper的微博视频 Translate content播放视频播放当前时间 00:00/时长 00:22加载完毕: 44.44%媒体流类型 直播试图直播,当前实时播放直播 播放速度2x1.5x1.25x1x(默认), 选择0.5x倍速高清 720p, 选择标清 480p流畅 360p720p小窗播放试试“小窗播放”,边刷微博边看视频 全屏静音This is a modal window.tombkeeper+ 关注 复制视频地址 正在小窗播放中点击展开00:22 1047次观看