文章

中国商超 2025:沃尔玛、山姆、盒马、永辉的四种路径

同一个中国商超市场,2025 年分化出四条非常不同的路径:沃尔玛大卖场五年关了 129 家在做结构性转型;山姆会员店销售破 1400 亿、狂奔开店;盒马十年后首次实现盈利、GMV 接近千亿;永辉被名创优品抄底收购后靠"胖东来模式"调改 315 家店自救。本文按公开数据(财报、官方披露、第三方研究)对比四家的规模、财务、商业模式、经营效率和管理方式。

从 2026 伊朗战争到伊拉克战争:一台美军机器的三次伸缩

2026 年 2 月起的 Operation Epic Fury 是美军过去二十年最重要的一场高强度战役——52 天、1,700+ 目标、六大军种全出、刺杀敌国元首。本文以 Epic Fury 为主线,分五节详细拆解指挥链、武器采购、后勤库存、训练演习和战略意涵;再回看 8 个月前的 Midnight Hammer 精准打击,最后以 22 年前的伊拉克战争作为历史参照。三个案例按从最近到最远排列,最能呈现美军如何在制度层面伸缩同一台「战争机器」。

一个私有可控的推荐系统

社交媒体的推荐系统希望我尽可能久地停留,为此会想尽办法挑动情绪,让人并不舒服;RSS 阅读器虽然没有情绪刺激,但内容一多,就会被不感兴趣的东西淹没。所以我做了一个私有的推荐系统,来平衡内容的质量与效率。

读书笔记:币安人生

花两天读完了赵长鹏的自传《币安人生》,不混币圈但对CZ的传奇经历一直很好奇——卖房All-in比特币、华人首富、玩币归赵、美国蹲监狱,记录一些感悟。

生存、竞争与自由

人做事会经历三个阶段:生存阶段由本能驱动,竞争阶段被对手定义坐标系,而真正进入自由,面对的是一片没有指南针的旷野。没有价值观的自由是痛苦的牢笼,有价值观的自由才是最强大的引擎。

硬核工业的消费级降维

深圳和长三角有一类公司,把工业级的硬核装备降维成消费级产品,把创造和制造变成一种娱乐。大疆把 $100,000+ 的无人机变成 ¥3,000 的飞行相机;拓竹把数万元的 3D 打印机变成 ¥2,000 开箱即用;xTool 把 $10,000 的激光切割机压到 $1,500;Hypershell 把几十公斤的外骨骼压到 2kg、$799;Unitree 把 $75,000 的 Boston Dynamics Spot 压成 $1,600 的 Go2;Xmachine 把百万级五轴 CNC 压到 5.8 万元。这些案例放在一起看,能最清楚地呈现"消费级降维"这件事今天在中国是怎么做到的——法律不靠、政策不靠,靠供应链、工程师密度和出海能力。

自媒体商业模式分析

自媒体可能是当下普通人手里最大的杠杆——门槛低、上限高、分发零边际成本。从商业模式的角度拆开来看,自媒体本质上只有三种活法:直接卖内容、帮别人卖货、帮自己卖货

压缩的边界

知识可以分为两类:可被序列化的 Techne,与依赖情境、试错与身体的 Metis。AI 擅长压缩前者,却触碰不到后者——这正是它能力的边界。当标准化的工作被快速替代,那些无法被压缩的经验反而会变得更稀缺。

读书笔记:科技共和国

Palantir的CEO Alex Karp在2025年发布了一本新书《科技共和国》,年底在中国内地也发行了,第一时间买来读了一下,书中的观点代表了美国硅谷的右翼思潮,而且现实的美国政治中也随处可见这本书的影子

大模型背后的数据供应商 - Surge AI

第一次知道Surge AI这家公司是看到Edwin Chen的播客访谈,正值他们第一次出来融资,Edwin极其务实高效的观点让人印象深刻

豆包AI手机背后的VL模型

根据公开报道,豆包AI手机使用的模型是基于UI-TARS在手机上优化的闭源版本,UI-TARS是在阿里的Qwen2 VL上做SFT得来的,目前开源了7b的版本(Qwen2 VL开源了3b-72b的模型)。这里不再多介绍Qwen(Qwen2 VL其实也已经有了UI Operation的功能),主要关注UI-TARS模型在Qwen2 VL上的进一步改进,分数据和训练两部分。

使用UTM标签来分析流量来源

我们在做推广的时候,通常会采用多个渠道:cold email、google广告投放、twitter推广、seo优化、社区内容等等,弄清楚我们流量来源和转化效果是至关重要的,这样可以帮助我们进一步优化营销策略。今天分享一种简单的方式来区分流量以及分析转化效果:

jenni.ai的冷启动与增长策略

jenni.ai是用来辅助论文写作与阅读的工具,目前收入已经达到了\$5M ARR,用户2.5M,并还在高速增长,作者表示预期能达到\$10M~20M ARR,他们的CEO David Park非常诚意的分享了他们的收入和用户的增长策略,有很多值得学习的地方

startup的相关福利

最近打算薅一下羊毛,梳理了国外大厂给的福利,主要是云和openai的token

PyTorch训练加速的量化分析

本文从一个baseline出发,通过软件+硬件各种方法逐步对训练速度进行优化,最终将训练时间减少为1/8

神经网络架构搜索(NAS)中的milestones

神经网络架构搜索(NAS)今年也是火的不行,本文简单梳理一下个人觉得比较有代表意义的工作,如果有错误或者遗漏欢迎大家指出hhhh

在深度学习中喂饱gpu

前段时间训练了不少模型,发现并不是大力出奇迹,显卡越多越好,有时候1张v100和2张v100可能没有什么区别,后来发现瓶颈在其他地方,写篇文章来总结一下自己用过的一些小trick

Learning to Push by Grasping: Using multiple tasks for effective learning

目前end-to-end的学习框架在机器人控制的领域内变得流行起来,这些框架的直接输入是状态/图像,然后直接输出预测的扭矩和动作参数。但是由于其对于数据的大量需求而受到了批判,并兴起了对于其可扩展性的讨论,即end-to-end的学习方式是否需要为每一个任务都单独建立一个模型?从直觉上来说任务间的共享是有帮助的,因为其对环境都需要有一些共同的理解。在该论文中尝试了数据驱动的end-to-end学习框架的下一步,即从特定任务的模型到多机器人任务的联合模型,得到了令人惊讶的结果:在同样数据量下多任务学习的效果要优于单任务学习。比如说对于grasp任务,2.5k的grasp数据+2.5k的push数据训练下的模型的表现要优于5k的grasp数据训练下的模型。

Playing Atari with Deep Reinforcement Learning

这篇论文是Volodymyr Mnih在nips2013上的一篇论文,差不多是DQN的开山之作,另一篇是nature2015年的论文

dataset-cityscapes

cityscapes通常被用作语义分割,里面的数据一共分为8个category,其中包含一个名为void的category,每个category中又有多个class,cityscapes一共有30个class,但是cityscapes编号过后的label一共有35种,其中也包含unlabeled等并没有算作class的label。

Efficient Dense Modules of Asymmetric Convolution for Real-Time Semantic Segmentation

之前的用于segmentation的网络要么速度比较慢,要么精度比较低,这里设计了一种EDANet模块,将asymmtric conv,dilated conv,dense connectivity相结合。在各个方面上都比FCN要好,并且不具有decoder structure,context module,post-processing scheme和pretrained model。在cityscapes和camvid上做了实验。

Darts: Differentiable Architecture Search

这篇论文旨在挑战结构搜索,通过将该任务定义成一个可微分的形式,而不是像传统的做法:在离散的不可微分的空间中利用增强学习来实现结构搜索。该方法基于结构表示的连续松弛,允许使用梯度下降等高效的方法进行结构搜索。后续实验表明该算法在探索高性能的用于图像识别的CNN结构和语言建模的RNN结构上都有良好的表现,并且比现有的state-of-the-art非微分结构要快得多。

Compressing Neural Networks with the Hashing Trick

深度网络在移动设备上应用越来越多,一个dilemma变得越来越明显:深度学习的趋势是开发能够吸收更大数据集的模型,然而移动设备的存储空间有限,不能存储过大的模型,这里提出了一种HashedNets,通过减少神经网络的内部固有冗余来实现模型尺寸的减少。HashedNets利用一个低开销的哈希函数来将连接权重随机分组进不同的哈希桶,而同一个哈希桶里面的所有连接都使用同一个参数值,这些参数在标准的反向传播过程中被进行调整。这个哈希过程不会引入额外的内存开销。在不同的benchmark数据集上性能说明HashedNets可以在保留泛化性能的基础上明显减少存储需要。

ShuffleNetV2

现在很多的网络设计在计算复杂度方面都只考虑了非直接度量(比如FLOPs),而对于直接度量(如速度等)并不只是由FLOPs来决定的,包括MAC(内存访问消耗)和平台特性都对速度有一定的影响。本文意在特定平台下进行直接度量,比仅仅考虑FLOPs要更好,并且在基于一系列控制实验下提出了一些对于高效率网络的指导准则,根据这些准则提出了ShuffleNetV2这样一种新的网络结构,全面的ablation experiments表明该模型在性能和精度的权衡上达到了state-of-the-art。

ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices

本文介绍了一种很高效的网络ShuffleNet,其主要在于pointwise group conv和channel shuffle两种操作,可以在维持精度的时候大量减少计算消耗,在ImageNet和COCO上面的表现都超过了之前的网络

MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications

针对移动和嵌入式视觉应用,本文提出了一种高效的模型称之为MobileNets,基于depthwise separable convolutions构造的一种轻量级神经网络。该模型使用两个超参数来平衡准确率和延迟,并针对二者的平衡在ImageNet上做了广泛的实验,与其他模型相比展现出了强大的性能。并通过实验展现了ImageNet在各种应用上的强大之处,包括目标检测,精细化分类,人脸属性和大范围地理定位等。

InceptionV4总结

近些年,非常深的卷积神经网络在提升图像识别的性能表现上具有最大的促进作用。而Inception网络结构在具有很好的性能的同时还具有相对较低的计算消耗。最近的残差连接与传统结构的结合在2015 ILSVRC上取到了最好的结果,与InceptionV3的效果相近。考虑将Inception网络与残差连接相结合,充分的证据表明残差连接可以很大程度上加速Inception网络的训练,同样也有证据表明残差连接的Inception相比不带残差连接的几乎同样计算量的Inception网络性能要稍有优势。本文也提出了一些新的残差连接和不带残差连接的Inception网络,这些改变同样也明显改善了2012 ILSVRC的单帧分类性能。最后还提到了利用合适的激活缩放可以使非常宽的残差连接Inception网络的训练变得更加稳定。

关于向量与矩阵的求导

机器学习的算法中会遇到大量的与矩阵相关的微分与求导,在这里介绍一些常见的矩阵和向量相关的求导公式。

动态规划中股票问题的通用解法

有一类动态规划的问题是给定一个股票价格序列,然后计算买卖股票所能获得的最大收益,这类问题通常有很多变种,例如只允许交易一次,允许交易多次或者增收交易税等。即问题的最大收益通常由交易的时间和允许的最大交易次数(每次交易指一次买与一次卖的一个组合)决定的。

凸集的定义与常见凸集

与前文讨论的只含等式约束的优化问题求解类似,含不等式约束的优化问题同样可以用拉格朗日乘子法进行求解

SVM的推导(3)

前文介绍了硬间隔SVM的相关推导,本文将继续介绍软间隔SVM的数学推导,即在样本不是线性可分的情况下,允许一部分样本错误分类的SVM

SVM的推导(2)

上一篇文章(1)我们讨论了硬间隔SVM的推导及其对偶形式,其对偶问题可以化简成以下形式

SVM的推导(1)

SVM是机器学习中的一种经典方法,除了硬间隔SVM之外,还包括软间隔SVM,核技巧等SVM的变种,本文主要介绍**硬间隔SVM** 的推导。

求解线性方程组(3)

这里所介绍的伪逆是**Moore-Penrose逆矩阵**

求解线性方程组(2)

上一篇博文介绍了线性方程组的情况之一,即未知数数量小于方程个数的情况,介绍了最小二乘法,在本文中将介绍线性方程组的另一种情况,即方程个数小于未知数数量的情况,此时方程组有无限多的解,但是最接近原点的解,即范数最小的解只有一个,也就是这里将会介绍的线性方程组的**最小范数解**。

207. Course Schedule

该题目利用DFS和BFS来判断某个图是否能进行拓扑排序

求解线性方程组(1)

在本文中将讨论线性方程组中的一种情况的求解,即考虑线性方程组

机器学习中的数值计算(1)

机器学习算法通常需要大量的数值计算,即通过迭代求解近似值而非求得解析解。这些算法通常包括最优化和线性方程组的求解,在计算机中要通过有限位来表示各种浮点数是具有一定误差的,需要通过一些方法来保证我们的计算精度。

利用TensorFlow训练一个简单的神经网络

我们在这里利用TensorFlow的Eager Execution 来构建模型,这样不用像以前一样创建Graph和Session了,可以使神经网络的训练更加方便快捷,下面以Iris数据集为例来训练一个神经网络,代码来自谷歌的教程。

在极客云上进行深度学习

最近在做老师给的一个图像相关的深度学习任务,代码调试后发现电脑内存不够(8g笔记本),后来发现了一个很好用的深度学习云服务平台

KITTI的雷达+摄像头数据融合

KITTI的数据集有很多,我们在这里选取了其中的raw_data(原始数据)进行融合

不等式约束的优化问题求解

与前文讨论的只含等式约束的优化问题求解类似,含不等式约束的优化问题同样可以用拉格朗日乘子法进行求解

C++中的构造函数

每个类都分别定义了它的对象被初始化的方式,类通过一个或多个特殊的成员函数来控制其对象的初始化过程,这些函数就叫做**构造函数(constructor)**。构造函数的任务是初始化类对象的数据成员,无论何时只要类的对象被创建,就会执行构造函数。

C++中的关联容器

关联容器支持高效的关键字查找和访问,两个主要的关联容器是set和map。map中的元素是一些键值对(key-value),关键字起着索引的作用,值则表示与索引相关联的数据,set中的元素只包含一个关键字。set支持高效的关键字查找操作,底层应该是用的哈希表来实现的。

神经网络反向传播的推导

对于神经网络的训练过程而言,其反向传播算法是训练过程的核心

C++中顺序容器

一个容器就是一些特定类型对象的集合。顺序容器提供了控制元素存储和访问顺序的能力。

决策树和随机森林算法简介

决策树(decision tree)是一种分类与回归方法,本文主要讨论用于分类的决策树,决策树的结构呈树形结构,在分类问题中,其代表基于特征对数据进行分类的过程,通常可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。其主要优点是模型可读性好并且分类速度快。训练的时候,利用训练数据根据损失函数最小化的原则建立决策树模型。预测时对于新的数据,利用决策树进行分类。决策树的学习通常包括三个步骤:特征选择,生成决策树,对决策树进行剪枝。这些决策树的思想主要来自Quinlan在1986年提出的ID3算法和1993年提出的C4.5算法,以及Breiman等人在1984年提出的CART算法。

C++中的IO类

C++语言不直接处理输入输出,而是通过一组定义在标准库中的类型来处理IO。这些类型支持从设备读取数据,向设备写入数据的IO操作,设备可以是文件,控制台窗口等。还有一些类型允许内存IO,即从string读取数据,向string写入数据等。

等式约束的优化问题求解

本文将讨论下类形状的优化问题

线性规划中的对偶问题

每个线性规划问题都有一个与之对应的对偶问题,对偶问题也是一个线性规划问题,并且对偶问题的对偶问题是原问题。原问题的最优解可以由对偶问题得到,有时候利用对偶理论求解线性规划问题更加简单,也更能了解问题的本质。在对偶理论的启发下,单纯形法的性能得到了改进,也出现了一些求解线性规划问题的非单纯形法,本文暂不详解。

C++函数中的参数传递

在C++程序中,调用函数的时候需要向函数传入一个参数,除了空参数(void)之外,参数传递分为**引用传递** 和**值传递** 两种

求解线性规划问题的单纯形算法

1947年,丹齐格提出了一种求解线性规划问题的方法,即今天所称的单纯形法,这是一种简洁且高效的算法,被誉为20世纪对科学发展和工程实践影响最大的十大算法之一。

线性规划概述

在最优化问题中有一类问题被称作线性规划问题,属于有约束下的优化问题,线性规划是在**线性约束条件** 下(等式或不等式)**求解线性目标函数极值** 的问题。

C++中的const关键字

在编程的时候我们常常需要定义一种变量,但是这种变量的值是不变的,例如定义pi=3.14,e=2.72或者定义一种材料的弹性模量等,这时候需要用到const关键字